10 - variables aléatoires cours complet -...
TRANSCRIPT
Chapitre 10 : Variables aléatoires – Cours complet. - 1 -
Variables aléatoires. Chapitre 10 : cours complet. 1. Variable aléatoire discrète.
Définition 1.1 : variable aléatoire discrète. Théorème 1.1 : image réciproque d’une partie de E. Théorème 1.2 : probabilité attachée à une variable aléatoire discrète. Définition 1.2 : loi de probabilité d’une variable aléatoire discrète. Théorème 1.3 : système complet induit par une variable aléatoire discrète. Théorème 1.4 : caractérisation d’une loi de variable aléatoire discrète à l’aide d’événements élémentaires. Théorème 1.5 : (admis) existence d’une probabilité pour (xn) et (pn) données.
2. Fonction de répartition d’une variable aléatoire discrète, lois classiques.
Définition 2.1 : fonction de répartition d’une variable aléatoire discrète réelle. Définition 2.2 : (hors programme) histogramme d’une variable aléatoire discrète réelle. Théorème 2.1 : propriétés d’une fonction de répartition d’une variable aléatoire réelle discrète. exemples : fonctions de répartition et histogrammes des lois uniforme, de Bernoulli, binomiale. Définition 2.3 : loi géométrique. Théorème 2.2 : loi géométrique ⇔ variable aléatoire discrète sans mémoire. Définition 2.4 : loi de Poisson. Théorème 2.3 : approximation d’une loi binomiale par une loi de Poisson.
3. Espérance d’une variable aléatoire discrète.
Définition 3.1 : espérance d’une variable aléatoire discrète. Théorème 3.1 : (admis) ordre des termes pour le calcul d’une espérance. Théorème 3.2 : espérance d’une variable aléatoire discrète à valeurs dans . Théorème 3.3 : (admis) formule du transfert. Théorème 3.4 : (admis) linéarité de l’espérance. Théorème 3.5 : premières propriétés de l’espérance. Théorème 3.6 : espérance d’une variable aléatoire suivant une loi géométrique G(p). Théorème 3.7 : espérance d’une variable aléatoire suivant une loi de Poisson P(λ). Théorème 3.8 : espérance d’une variable aléatoire prenant un nombre fini de valeurs. Rappel : espérance des lois uniforme, de Bernoulli et binomiale. Théorème 3.9 : inégalité de Markov.
4. Couple et famille de variables aléatoires, indép endance.
Théorème 4.1 et définition 4.1 : couple de variables aléatoires discrètes. Définition 4.2 : loi conjointe et lois marginales d’un couple de variables aléatoires discrètes. Théorème 4.2 : lien entre loi conjointe et lois marginales d’un couple de variables aléatoires. Définition 4.3 : lois conditionnelles. Théorème 4.3 : lien entre loi conjointe, loi marginale et loi conditionnelle. Définition 4.4 : couple de variables aléatoires indépendantes. Théorème 4.4 : (admis) indépendance et événements non élémentaires. Théorème 4.5 : (admis) espérance d’un produit de variables aléatoires discrètes indépendantes. Théorème 4.6 : images de deux variables aléatoires discrètes indépendantes. Définition 4.5 : famille finie de variables aléatoires discrètes mutuellement indépendantes. Définition 4.6 : suite de variables aléatoires discrètes mutuellement indépendantes. Théorème 4.7 : (admis) existence d’un modèle pour des lois de probabilité données. Théorème 4.8 : somme de deux variables aléatoires indépendantes suivant une loi de Poisson.
5. Variance et covariance.
Théorème 5.1 : lien entre espérance de X et de X2. Définition 5.1 : variance d’une variable aléatoire discrète réelle. Théorème 5.2 : autre expression de la variance. Théorème 5.3 : propriétés élémentaires de la variance. Définition 5.2 : écart-type d’une variable aléatoire discrète réelle.
Chapitre 10 : Variables aléatoires – Cours complet. - 2 -
Théorème 5.4 : variance d’une variable aléatoire prenant un nombre fini de valeurs. Exemple : variance d’une variable aléatoire suivant une loi uniforme, de Bernoulli, binomiale. Théorème 5.5 : variance d’une variable aléatoire suivant une loi géométrique. Théorème 5.6 ; variance d’une variable aléatoire suivant une loi de Poisson. Théorème 5.7 : inégalité de Bienaymé-Tchebytchev. Théorème 5.8 : inégalité de Cauchy-Schwarz. Théorème 5.9 et définition 5.3 : covariance d’un couple de variables aléatoires discrètes réelles. Théorème 5.10 : covariance d’un couple de variable aléatoires discrètes réelles indépendantes. Définition 5.4 et théorème 5.11 : coefficient de corrélation d’un couple de variables aléatoires discrètes
réelles. Théorème 5.12 : variance d’une somme finie de variables aléatoires discrètes réelles. Théorème 5.13 : variance d’une somme de deux variables aléatoires discrètes réelles indépendantes. Théorème 5.14 : loi faible des grands nombres.
6. Fonctions génératrices des variables aléatoires à valeurs dans .
Définition 6.1 : fonction génératrice d’une variable aléatoire à valeurs dans . Théorème 6.1 : rayon de convergence et propriétés d’une fonction génératrice. Remarque : fonction génératrice d’une variable aléatoire prenant un nombre fini de valeurs. Théorème 6.2 : lien réciproque entre fonction génératrice et variable aléatoire. Théorème 6.3 : fonction génératrice d’une variable suivant une loi géométrique. Théorème 6.4 : fonction génératrice d’une variable suivante une loi de Poisson. Théorème 6.5 : (admis) espérance de X et dérivabilité de GX en 1. Théorème 6.6 : (admis) variance de X et dérivabilité seconde de GX en 1. Théorème 6.7 : fonction génératrice d’une somme de deux variables indépendantes à valeurs dans .
7. Annexe 1 : caractéristiques des lois classiques. 8. Annexe 2 : (hors programme) familles sommables de réels.
Définition 8.1 : famille sommable de réels positifs, somme d’une telle famille sommable. Théorème 8.1 : dénombrabilité des éléments non nuls d’une famille sommable de réels positifs. Théorème 8.2 : lien entre famille sommable de réels positifs et série. Théorème 8.3 : opérations sur les familles sommables de réels positifs. Théorème 8.4 : sous-familles d’une famille sommable de réels positifs. Théorème 8.5 : sommation par paquets d’une famille sommable de réels positifs. Définition 8.2 : famille sommable de réels quelconques, somme d’une famille sommable. Théorème 8.6 : définition équivalente de la sommabilité d’une famille de réels. Théorème 8.7 : sommabilité et séries absolument convergentes, convergence commutative. Théorème 8.8 : sous-familles de familles de réels sommables. Théorème 8.9 : linéarité. Théorème 8.10 : sommation par paquets d’une famille sommable de réels. Théorème 8.11 : théorème de Fubini pour les familles sommables de réels.
Chapitre 10 : Variables aléatoires – Cours complet. - 3 -
Variables aléatoires. Chapitre 10 : cours complet.
1. Variable aléatoire discrète.
Définition 1.1 : variable aléatoire discrète. Soient (Ω,A) un ensemble muni d’une tribu, et E un ensemble quelconque. On dit que X est une variable aléatoire discrète (ou v.a.d.) sur (Ω,A) (ou sur Ω) à valeurs dans E si et seulement si : • X est une application de Ω dans E, • l’ensemble des valeurs prises par X sur Ω (soit l’ensemble X(Ω)) est au plus dénombrable, • ∀ x ∈ E, X-1(x) ∈ A, autrement dit X-1(x) est un évènement. Pour : x ∈ E, on notera (X = x) ou X = x l’évènement X-1(x).
Théorème 1.1 : image réciproque d’une partie de E. Soient (Ω,A) un ensemble muni d’une tribu et X une variable aléatoire discrète sur Ω à valeurs dans E. Alors : ∀ U ⊂ X(Ω), X-1(U) ∈ A, et donc X-1(U) est un évènement. On notera parfois : X-1(U) = X ∈ U = (X ∈ U).
Démonstration : Puisque X(Ω) est au plus dénombrable, U l’est aussi et on peut énumérer ses éléments : U = xn, n ∈ , où les xn sont deux à deux distincts (la démonstration s’adapte si U est fini).
Puis : U+∞
=
=0n
nxU , et : UU+∞
=
−+∞
=
−− =
=0
1
0
11 )()(n
nn
n xXxXUX .
Comme : ∀ x ∈ X(Ω), X-1(x) ∈ A, et puisque A est une tribu sur Ω, on en déduit que, comme réunion dénombrables d’éléments de A, X-1(U) est encore un élément de A.
Théorème 1.2 : probabilité attachée à une variable aléatoire discrète.
Soient (Ω,A,P) un espace probabilisé et X une variable aléatoire discrète sur Ω à valeurs dans un ensemble E. Alors l’application PX de P(X(Ω)) dans [0,1] définie par : ∀ A ∈ P(X(Ω)), PX(A) = P(X-1(A)), définit une probabilité sur (X(Ω),P(X(Ω))). En particulier, si : x ∈ X(Ω), on notera plus simplement P(X = x) la quantité : P(X = x) = PX(X-1(x)) = P(X = x). De même, si : A ⊂ X(Ω), on notera plus simplement P(X ∈ A) la quantité : P(X ∈ A) = PX(X-1(A)).
Démonstration : Vérifions les différents points qui garantissent le résultat. • PX est bien à valeurs dans [0,1]. • PX(X(Ω)) = P(X-1(X(Ω))) = P(Ω) = 1. • Soit (An) une suite de parties de X(Ω) deux à deux disjointes. Alors les ensembles X-1(An), n ∈ sont deux à deux disjoints, donc la série ∑
≥
−
0
1 ))((n
nAXP est
convergente et : ∑+∞
=
−
∉
− =0
11 ))(())((n
nNn
n AXPAXP U .
Mais on a de plus :
=
∉
−
∉
−UU
Nnn
Nnn AXAX 11 )( , qu’on vérifie par double inclusion.
Donc : ∑∑∞+
=
∞+
=
−
∉
−
∉
−
∉
==
=
=
00
111 )())(()(n
nXn
nNn
nNn
nNn
nX APAXPAXPAXPAP UUU .
Définition 1.2 : loi de probabilité d’une variable aléatoire discrète. Soient (Ω,A,P) un espace probabilisé et X une variable aléatoire discrète sur Ω à valeurs dans E.
Chapitre 10 : Variables aléatoires – Cours complet. - 4 -
L’application définie au théorème 1.2 est appelée loi (ou de loi de probabilité) de la variable aléatoire X, et on la note PX.
Théorème 1.3 : système complet induit par une varia ble aléatoire discrète. Soient (Ω,A,P) un espace probabilisé et X une variable aléatoire discrète sur Ω à valeurs dans E. Alors la famille des parties (X = xk, k ∈ ), où (xk) correspond à une énumération de X(Ω), forme un système complet d’événements.
Démonstration : Il est clair que ces ensembles sont deux à deux disjoints (un élément ω de Ω ne peut avoir deux images distinctes par X), et que leur réunion est bien Ω puisque chaque élément ω a une image X(ω) qui se retrouve dans l’énumération.
Théorème 1.4 : caractérisation d’une loi de variabl e aléatoire discrète à l’aide d’événements élémentaires. Soient (Ω,A,P) un espace probabilisé et X une variable aléatoire discrète sur Ω à valeurs dans E. Alors la loi de X est entièrement déterminée par la connaissance des P(X = xk), où (xk) correspond à une énumération de X(Ω).
Démonstration : Si on connaît la loi de X, on connaît évidemment les P(X = xk), k ∈ . Réciproquement si on connaît ces probabilités élémentaires, alors : ∀ A ∈ P(X(Ω)), U
KkkxA
∈
= , où K est une partie de .
Cette réunion étant disjointe, on peut alors écrire : ∑∈∈
====Kk
kKk
kX xXPxXPAP )()()( U .
Donc on peut ainsi déterminer PX(A) pour tout : A ∈ P(Ω). Remarque : si : A ∈ P(E), on peut écrire : A = A’ ∪ A’’, avec : A’ ⊂ X(Ω), et : A’’ ⊂ E \ X(Ω). On peut alors écrire : PX(A) = PX(A’) + 0, et obtenir ainsi PX(A).
Théorème 1.5 : (admis) existence d’une probabilité pour (x n) et (p n) données. Soient (Ω,A) un ensemble muni d’une tribu et X une variable aléatoire discrète sur Ω à valeurs dans un ensemble E. Soient par ailleurs (xn) les valeurs prises par X dans E, et (pn) une suite d’éléments de [0,1] telle que :
10
=∑+∞
=nnp .
Alors il existe une probabilité sur (Ω,A) telle que : ∀ n ∈ , nn pxXP == )( .
Démonstration (hors programme) : X(Ω) étant au plus dénombrable, on écrit : X(Ω) = x0, …, xn, …, et on choisit, pour tout : n ∈ , un élément ωn dans Ω tel que : X(ωn) = xn. Pour tout élément A de A, on note ensuite 1A sa fonction indicatrice définie par : ∀ ω ∈ Ω, 1A(ω) = 1, si : ω ∈ A, et : 1A(ω) = 0, si : ω ∉ A.
Enfin, on définit : ∀ A ∈ A, ∑+∞
=
=0
)(1.)(n
nAnpAP ω , la somme étant finie si X(Ω) est fini.
Alors P répond au problème, car : • P est bien à valeurs dans [0,1] puisque les pn sont positifs et donc :
∀ A ∈ A, 11)(1.)(0000
==≤=≤ ∑∑∑+∞
=
+∞
=
+∞
= nn
nn
nnAn pppAP ω .
• 11)(1.)(000
====Ω ∑∑∑+∞
=
+∞
=
+∞
=Ω
nn
nn
nnn pppP ω .
• Si (Ap) est une suite d’éléments de A deux à deux disjoints, on a : ∀ ω ∈ Ω, ∑+∞
=
=∞+
=0
)(1)(1
0
pA
Ap
pp
ωωU
.
En effet, pour : ω ∈ Ω, - soit : ∃ p ∈ , ω ∈ Ap, et dans ce cas il n’y a qu’un seul indice p qui a cette propriété car la famille est formée d’ensembles disjoints.
Chapitre 10 : Variables aléatoires – Cours complet. - 5 -
On a alors : 1)(1
0
=
∞+
=
ωUp
pA
.
D’autre part, )(1 ωkA sont nuls sauf pour : k = p, et il vaut alors 1.
Donc la série ∑≥0
)(1p
Apω converge et sa somme vaut 1, ce qui démontre l’égalité annoncée.
- soit : ∀ p ∈ , ω ∉ Ap, et dans ce cas la série est nulle, de somme 1 d’une part, mais ω n’appartient pas non plus à la réunion et l’autre terme est nul également d’où à nouveau l’égalité. Pour : n ∈ , la famille ∑
≥≥ 0,0
)(1.pn
nAn pp ω est alors sommable car :
- ∀ n ∈ , la famille ∑≥0
)(1.p
nAn pp ω est sommable de somme 0 ou pn, et : n
pnAn pp
p≤≤∑
≥0
)(1.0 ω .
- la famille ∑ ∑≥ ≥
0 0
)(1.n p
nAn pp ω est sommable car la famille ∑
≥0nnp est elle-même sommable.
Le théorème de Fubini (th. 8.11) permet d’en déduire que la famille : ∑ ∑∑≥ ≥≥
=0 00
)(1.)(p n
nAnp
p ppAP ω , et :
==
=
=
∞+
=
+∞
=
+∞
=
+∞
=
+∞
=
+∞
=
+∞
=∑∑ ∑∑ ∑∑ ∞+
=
UU 000 00 00
)(1.)(1.)(1.)(
0
pp
nn
An
n pnAn
n pnAn
pp APpppAP
pp
ppωωω .
Remarque :
Pratiquement toutes les démonstrations hors programme se réfèrent au paragraphe 8 (familles sommables).
2. Fonction de répartition d’une variable aléatoire discrète, lois classiques.
Définition 2.1 : fonction de répartition d’une vari able aléatoire discrète réelle. Soient (Ω,A,P) un espace probabilisé et X une variable aléatoire discrète réelle sur Ω. On appelle fonction de répartition de X la fonction FX définie sur par : ∀ x ∈ , )()( xXPxFX ≤= .
Remarque :
En fait, la connaissance de Ω est très souvent inutile. En pratique, on se contente souvent de la variable aléatoire X ou de sa loi de probabilité ou encore de sa fonction de répartition FX. Un théorème (difficile) assure que si on se donne une (ou des) « bonne(s) » fonctions, on peut trouver un univers probabilisé et une (ou des) variable(s) aléatoire(s) sur cet univers dont la (les) fonction(s) de répartition est (sont) la (les) fonction(s) donnée(s) initialement.
Définition 2.2 : (hors programme) histogramme d’une variable aléatoire discrète réel le.
Soient (Ω,A,P) un espace probabilisé et X une variable aléatoire discrète réelle sur Ω. Soit (xn)n∈ une énumération ordonnée des valeurs de X (telle que (xn) est croissante). On appelle histogramme de X la représentation (en bâtons ou rectangles) de la suite ordonnée (P(X = xn))n∈.
Théorème 2.1 : propriétés d’une fonction de réparti tion d’une variable aléatoire réelle discrète. Soient (Ω,A,P) un espace probabilisé et X une variable aléatoire discrète réelle sur Ω. Soit F la fonction de répartition de X. Alors : • F est croissante sur , • 1)(lim =
+∞→xF
x,
• 0)(lim =−∞→
xFx
.
Chapitre 10 : Variables aléatoires – Cours complet. - 6 -
Démonstration : • Pour : x ≤ y, on a : (-∞,x] ⊂ (-∞,y], et P étant croissante (au sens de l’inclusion), on a : )()()()( yFyXPxXPxF =≤≤≤= .
• F étant croissante et minorée par 0, elle admet une limite en -∞. De plus, soit (xn) une suite décroissante de réels tendant vers -∞.
Alors la suite : An = (-∞,xn], est telle que : I+∞
=0nnA = ∅, puisque (xn) tend vers -∞, et : An+1 ⊂ An.
Donc : 0 = P(∅) = )(lim)(lim)(lim)( nn
nn
nn
Nnn xFxXPAPAP
+∞→+∞→+∞→∈
=≤==I .
Par la caractérisation séquentielle des limites de fonctions, on en déduit que : 0)(lim =−∞→
xFx
.
• La même démonstration, avec cette fois une suite (xn) qui tend vers +∞ et la même suite (An) montre que : 1)(lim =
+∞→xF
x.
exemple 2.1 : variable aléatoire suivant une loi uniforme (tracé ci-dessous fait pour : n = 4).
La fonction de répartition suivant une loi uniforme U(n) sur 0,…,n est donnée par : ∀ x ∈ , • (x < 0) ⇒ (F(x) = 0),
• ∀ 0 ≤ k < n, (k ≤ x < k + 1) ⇒ (F(x) = 1
1
++
n
k),
• (n ≤ x) ⇒ (F(x) = 1).
exemple 2.2 : variable aléatoire suivant une loi de Bernoulli (tracés ci-dessous faits pour : p = 0.7). La fonction de répartition d’une variable suivant une loi de Bernoulli B(p) est donnée par : ∀ x ∈ , • (x < 0) ⇒ (F(x) = 0), • (0 ≤ x < 1) ⇒ (F(x) = p), • (1 ≤ x) ⇒ (F(x) = 1).
Fonction de répartition loi uniforme U(4) Histogramme
Fonction de répartition loi de Bernoulli B(0.7) Histogramme
Chapitre 10 : Variables aléatoires – Cours complet. - 7 -
exemple 2.3 : variable aléatoire suivant une loi binomiale (tracés ci-dessous fait pour : (n,p) = (20,0.5), et : (n,p) = (30,0.8)). La fonction de répartition d’une variable suivant une loi binomiale B(n,p) est donnée par : ∀ x ∈ , • (x < 0) ⇒ (F(x) = 0),
• ∀ 0 ≤ k < n, (k ≤ x < k + 1) ⇒ (F(x) = ∑=
−−
k
i
ini ppi
n
0
)1.(. ),
• (n ≤ x) ⇒ (F(x) = 1).
Définition 2.3 : loi géométrique. Soit (Ω,A,P) un espace probabilisé. Soit : p ∈ ]0,1[. On dit qu’une variable aléatoire sur Ω suit la loi géométrique de paramètre p lorsque : • X(Ω) = *, et : • ∀ k ∈ *, 1)1.()( −−== kppkXP .
Une telle loi est notée G(p) et on écrira : X ~ G(p). Remarques :
• La loi géométrique est la loi de la variable aléatoire qui modélise le premier Pile dans une suite infinie de tirages à Pile ou Face indépendants et pour une pièce déséquilibrée (c'est-à-dire telle que obtenir Pile a une probabilité p). En effet, obtenir un premier Pile au tirage k (pour : k ≥ 1) correspond à avoir obtenu des Face aux (k – 1) tirages précédents et un Pile au kième, soit bien : ppkXP k .)1()( 1−−== .
• Un événement quelconque n’a pas de probabilité attribuée par cette méthode (d’ailleurs quel est précisément l’univers de l’expérience ?) et c’est seulement l’événement correspondant à une infinité de Face successifs à qui il semble naturel d’attribuer la probabilité 0. • La loi géométrique est aussi appelée « loi du premier succès ». • La somme des probabilités des événements élémentaires vaut bien :
Fonction de répartition loi binomiale B(20,0.5) Histogramme
Fonction de répartition loi binomiale B(30,0.8) Histogramme
Chapitre 10 : Variables aléatoires – Cours complet. - 8 -
1)1(1
1.)1.()(
1
1
1
=−−
=−== ∑∑+∞
=
−+∞
= ppppkXP
k
k
k
.
exemple 2.4 : variable aléatoire suivant une loi géométrique (tracé ci-dessous fait pour : p = 0.25).
La fonction de répartition d’une variable suivant une loi géométrique G(p) est donnée par : ∀ x ∈ , • (x < 1) ⇒ (F(x) = 0),
• ∀ n ∈ *, (n ≤ x < n + 1) ⇒ (F(x) = nn
k
k ppp )1(1)1.(1
1 −−=−∑=
− ).
Théorème 2.2 : loi géométrique ⇔ variable aléatoire discrète sans mémoire. Soit X une variable aléatoire discrète réelle sur un espace probabilisé (Ω,A,P). Si X suit une loi géométrique, alors X est « sans mémoire » à savoir : ∀ (k,l) ∈ *2, )()()( lXPlkXP kX >=+>> .
Réciproquement, si X est à valeurs entières strictement positives, telle que : • ∀ k ∈ *, P(X = k) > 0, et : • ∀ (k,l) ∈ *2, )()()( lXPlkXP kX >=+>> .
alors X suit une loi géométrique. Démonstration :
• Commençons par supposer que X soit la loi géométrique G(p). Alors : ∀ k ∈ *, l’événement X > k est l’union disjointe de (X = i, i > k).
Donc : kk
ki
i pp
ppppkXP )1()1(1
1.)1.()1.()(
1
1 −=−−
−=−=> ∑+∞
+=
− .
Puis : ∀ (k,l) ∈ *2,
)()1()1(
)1(
)(
)(
)(
))()(()(
)(
)( lXPpp
p
kXP
lkXP
kXP
kXlkXPlkXP l
k
lk
kX >=−=−
−=>
+>=>
>∩+>=+>+
> .
• Réciproquement, si X a les propriétés annoncées, notons : P(X = 1) = p.
On a alors : ∀ k ∈ *, )1()(
)1(
)(
))()1(()1()( >=
>+>=
>>∩+>=+>> XP
kXP
kXP
kXP
kXkXPkXP kX .
Or : pXPXPXP −==−=≤−=> 1)1(1)1(1)1( . Donc la suite (P(X > k)) est géométrique de raison (1 – p), et : ∀ k ∈ *, kk pXPpkXP )1()1(.)1()( 1 −=>−=> − .
Enfin : ∀ k ∈ *, 11 )1.()1()1()()1()( −− −=−−−=>−−>== kkk ppppkXPkXPkXP .
X suit donc bien la loi géométrique G(p).
Remarque : • La loi est dite alors « sans mémoire » car la connaissance du résultat des k premiers tirages ne modifie pas les probabilités pour les suivants. Plus précisément, devoir attendre 5 lancers (au moins) pour voir apparaître un Succès a la même probabilité que l’on parte du premier tirage ou du millième tirage sachant qu’on n’a pas obtenu de Succès pour ces mille premiers tirages.
Fonction de répartition loi géométrique G(0.25) Histogramme
Chapitre 10 : Variables aléatoires – Cours complet. - 9 -
• On peut noter que l’ensemble Ω n’intervient à aucun moment dans la démonstration précédente, ce qui justifie peu à peu de ne plus le préciser.
Définition 2.4 : loi de Poisson. Soit X une variable aléatoire discrète réelle sur un espace probabilisé (Ω,A,P). On dit que X suit la loi de Poisson de paramètre λ, avec : λ ∈ +*, lorsque : • X(Ω) = ,
• ∀ k ∈ , !
.)(k
ekXPkλλ−== .
Une telle loi est notée P(λ) et on écrira : X ~ P(λ).
Remarque :
Là encore, la somme des probabilités des événements élémentaires donne :
1.!
.!
.)(000
===== −+∞
=
−+∞
=
−+∞
=∑∑∑ λλλλ λλ
eek
ek
ekXPk
k
k
k
k
.
exemple 2.5 : variable aléatoire suivant une loi de Poisson.
La loi de Poisson P(λ) n’a pas de fonction de répartition ayant une forme simple. On peut en revanche comparer des histogrammes pour des valeurs distinctes de λ. (attention, l’échelle en y varie).
Théorème 2.3 : approximation d’une loi binomiale pa r une loi de Poisson. Soit (pn) une suite de réels appartenant à ]0,1[, telle que : λ=
+∞→ nn
pn.lim , avec : λ > 0.
Pour tout : n ∈ , on note Xn une variable aléatoire de loi B(n,pn).
Alors pour tout entier : k ∈ , la suite (P(Xn = k)) tend vers !
.k
ekλλ− .
λ = 0.8 λ = 1.2
λ = 4 λ = 20
Différentes l ois de Poisson P(λ)
Chapitre 10 : Variables aléatoires – Cours complet. - 10 -
Démonstration :
En réécrivant la limite supposée, on obtient :
+=n
on
pn
1λ, et donc :
∀ k ∈ , kn
kk
knn
knn n
on
onk
knnnpp
k
nkXP
−−
+−++−−=−
== 1
1.))1(.(1
.!
)1)...(1.()1.(.)(
λλ .
On constate alors que :
• 1)1)...(1.( →+−−
∞+kn
knnn,
• !!
))1((
kk
o kk λλ →+∞+ , et pour n assez grand :
• λλλλ −∞+
−
→
+−−=
+−−=
+− en
on
knn
on
knn
on
kn1
).(exp1
1ln).(exp1
1 .
On en déduit le résultat annoncé.
Remarque : Ce résultat s’utilise notamment lorsqu’une variable aléatoire suit une loi binomiale de paramètres n et p avec p « petit devant n ». Dans ce cas, on remplace pour les calculs la loi binomiale (exacte) par la loi de Poisson (approchée) de
paramètre : n
p=λ .
exemple 2.6 :
On considère un grand nombre d’atomes instables (n ≈ 6.023.1023) qui se désintègrent rarement (autrement dit peu de désintégrations pendant une unité de temps). Cette faible modification du nombre d’atomes fait qu’on peut également supposer que le nombre total d’atomes ne change pas durant l’expérience. On suppose enfin que le nombre de désintégrations observées durant un laps de temps ∆t est proportionnel à cette durée, de la forme donc α.∆t. On appelle X le nombre de désintégrations observées durant un laps de temps T donné et on voudrait déterminer la loi de X.
On suppose pour cela que la durée T est divisée en intervalles de durée : n
Tt =∆ , suffisamment courts
pour que la probabilité d’observer deux désintégrations durant cet intervalle est négligeable.
La probabilité d’observer une désintégration durant ∆t est alors égale à : n
Ttnp ..)( αα =∆= .
L’observation sur la durée totale se ramène donc à une succession d’épreuves de Bernoulli, chacune avec une probabilité de succès égale à p(n).
X suit donc une loi binomiale : ∀ 0 ≤ k ≤ n, knk npnpk
nkXP −−
== ))(1.()(.)( .
Si on fait tendre n vers +∞ (et pour des valeurs de k fixées « petites »), on a alors :
!
).(.)( .
k
TekXP
kT αα−≈= .
Remarques :
• Cette loi est aussi appelée « loi des événements rares ». • Elle permet également classiquement de modéliser des situations identiques à celle de l’exemple 2.6 telles que : le nombre de connexion à un serveur web durant un intervalle de temps T, le nombre de clients se présentant à une caisse de supermarché durant T, le nombre de coquilles typographiques dans un texte (cours de probas par exemple).
3. Espérance d’une variable aléatoire discrète.
Chapitre 10 : Variables aléatoires – Cours complet. - 11 -
Définition 3.1 : espérance d’une variable aléatoire discrète réelle. Soit X une variable aléatoire discrète réelle prenant un nombre dénombrable de valeurs xk, k ∈ . Si la série ∑
∈
=Nk
kk xXPx )(. converge (ou si la série ∑∈
=Nk
kk xXPx )(. est absolument convergente), on
dit que X admet une espérance.
On note alors : ∑+∞
=
==0
)(.)(k
kk xXPxXE , qu’on appelle espérance de X.
Théorème 3.1 : (admis) ordre des termes pour le calcul d’une espérance. Soit X une variable aléatoire discrète réelle admettant une espérance. L’ordre d’énumération des valeurs prises par X n’a pas d’incidence sur la valeur de E(X).
Démonstration (hors programme) : Puisque la série ∑
∈
=Nk
kk xXPx )(. converge, elle est « commutativement convergente », donc l’ordre
des termes de la série n’influe, ni sur la convergence de celle-ci, ni sur la valeur de la somme obtenue (que ce soit avec ou sans les valeurs absolues), autrement dit une autre énumération des valeurs prises par X conduira à une nouvelle série absolument convergente dont la somme sera identique à la première.
Théorème 3.2 : espérance d’une variable aléatoire d iscrète à valeurs dans . Soit X une variable aléatoire discrète à valeurs dans et admettant une espérance.
Alors : ∑+∞
=
≥=1
)()(k
kXPXE .
Démonstration : Pour k donné dans , on a : ))()(())()(()( kXkXPkXkXPkXP ≠∩≥+=∩≥=≥ , par la formule
des probabilités totales, les événements (X = k, X ≠ k) formant un système complet d’événements. De plus : • )(),( kXPkXkXP ===≥ , et :
• )1(),( +≥=≠≥ kXPkXkXP .
Donc : )1()()( +≥−≥== kXPkXPkXP .
Pour : n ∈ *, on peut alors réécrire la somme partielle :
∑∑∑∑====
+≥−≥=+≥−≥===n
k
n
k
n
k
n
kn kXPkkXPkkXPkXPkkXPkS
0000
)1(.)(.)]1()(.[)(. ,
et en réindexant la deuxième somme :
)1(.)()0(.0)().1()(.1
1
10
+≥−≥+≥=≥−−≥= ∑∑∑=
+
==
nXPnkXPXPkXPkkXPkSn
k
n
k
n
kn .
On sait de plus que (Sn) converge.
Enfin : ∀ n ∈ *, ∀ N ≥ n + 1, ∑∑∑+∞
+=+=+=
=≤=≤==≤≤+111
)(.)(.)(.)1(.nk
N
nk
N
nk
kXPkkXPkkXPnNXnPn .
On constate donc que la suite (n.P(n+1 ≤ X ≤ N)) est convergente, comme suite majorée de sommes partielles d’une série positive. Si maintenant on fait tendre N vers +∞, la suite des événements (n +1 ≤ X ≤ N)N≥n+1, est croissante (au sens de l’inclusion) et a pour limite (réunion) l’événement n+1 ≤ X.
Donc : nnk
NRkXPkNXnPnnXPn ==≤≤≤+=+≥≤ ∑
+∞
+=+∞→1
)(.)1(.lim)1(.0 , où Rn est le reste d’ordre n
de la série (convergente) ∑∈
=Nn
kXPk )(. , et à ce titre (Rn) tend vers 0.
Finalement, on a : ∀ n ≥ 1, )1(.)(1
+≥+=≥∑=
nXPnSkXP n
n
k
, et en faisant tendre n vers +∞, on aboutit
à : )(0)(.)(01
XEkXPkkXPkk
=+==≥ ∑∑+∞
=
+∞
=
.
Chapitre 10 : Variables aléatoires – Cours complet. - 12 -
Remarque : On peut en fait montrer qu’une variable aléatoire discrète X à valeurs dans admet une espérance si et seulement si la série )(
1∑
≥
≥k
kXP converge.
On vient de montrer l’implication directe, et pour la réciproque, on a montré dans la première partie que :
∀ n ∈ , ∑∑∑∑+∞
====
≥≤≥≤+≥−≥===1110
)()()1(.)()(.k
n
k
n
k
n
kn kXPkXPnXPnkXPkXPkS .
Donc la suite des sommes partielles de la série positive )(.1∑
≥
=k
kXPk est majorée et cette série est
donc convergente, ce qui termine l’implication annoncée. Théorème 3.3 : (admis) formule du transfert.
Soit X une variable aléatoire discrète sur Ω prenant les valeurs xk, k ∈ , et soit f une fonction définie sur au moins X(Ω) et à valeurs dans . Alors : f(X)= foX, est encore une variable aléatoire discrète. De plus f(X) a une espérance si et seulement si la série ∑
∈
=Nk
kk xXPxf )().( est absolument
convergente et dans ce cas : ∑+∞
=
==0
)().())((k
kk xXPxfXfE .
Démonstration (hors programme) : • foX est bien une application de Ω dans . • De plus, l’ensemble des valeurs prises par X est au plus dénombrable donc l’ensemble des valeurs prises par foX l’est également. • Enfin, soit : y ∈ . Alors on peut écrire f(X) = y comme la réunion disjointe des événements : X = x, x ∈ X(Ω), f(x) = y. Comme l’ensemble des valeurs prises par X est au plus dénombrable, la réunion précédente, restreinte aux x pour lesquels X = x est non vide, est une réunion au plus dénombrable d’événements et est donc un événement. On notera Gy l’ensemble (au plus dénombrable) des valeurs x concernées. On a donc : f(X) = y = U
yGx
xX∈
= , d’où : ∑∈
===yGx
xXPyXfP )())(( .
Mais on peut rajouter à cette somme sans modifier sa valeur, la somme ∑−∈ −
=yGyfx
xXP)(1
)( qui est nulle et
qui correspond à des x de f-1(y) pour lesquels P(X = x) est nulle. On a donc : ∑∑∑
−−− ∈∈∈
=======)()()( 111
)(.)()(.)(.))((.yfxyfxyfx
xXPxfxXPyxXPyyXfPy .
• Le th 8.7 permet d’obtenir la première équivalence : (∑
∈
=Nn
kk xXPxf )().( absolument convergente) ⇔ ( ∑Ω∈
=)(
)().(Xx
xXPxf sommable).
Par ailleurs, X(Ω) s’écrit comme la réunion disjointe : X(Ω) = URy
yf∈
− )(1 , puisque par exemple, tout
élément x dans X(Ω) a bien une image y dans . La propriété de sommation par paquets (th 8.10) permet d’avoir équivalence entre : ( ∑
Ω∈
=)(
)().(Xx
xXPxf sommable) ⇔
(∀ y ∈ , )(1))().((
yfxxXPxf −∈
= est sommable et Ryyfx
xXPxf∈∈
=∑
− )(1
)(.)( est sommable).
Or on sait que : ∀ y ∈ , )(1))().((
yfxxXPxf −∈
= est sommable avec ce qu’on a vu au-dessus.
De plus on a vu que : ∀ y ∈ , ))((.)(.)()(1
yXfPyxXPxfyfx
===∑−∈
.
On aboutit donc à l’équivalence : (∑
∈
=Nk
kk xXPxf )().( absolument convergente) ⇔ ( ( )Ry
yXfPy∈
= ))((. sommable),
Chapitre 10 : Variables aléatoires – Cours complet. - 13 -
et cette deuxième partie correspond bien au fait que f(X) admet une espérance. • Enfin la sommation par paquets permet également d’affirmer dans ce cas que :
∑∑ ∑∑Ω∈∈ ∈∈
==
====
− )()(
)().()().())((.))((1 XxRy yfxRy
xXPxfxXPxfyXfPyXfE , puis en terminant par le
lien entre famille sommable et série (th 8.7) : ∑+∞
=
==0
)().())((k
kk xXPxfXfE .
Théorème 3.4 : (admis) linéarité de l’espérance.
Soient X et Y des variables aléatoires discrètes réelles admettant une espérance et soit : (α,β) ∈ 2. Alors (α.X + β.Y) est une variable aléatoire discrète admettant une espérance et : )(.)(.)..( YEXEYXE βαβα +=+ .
Démonstration (hors programme) : • Il est à peu près immédiat que si X admet une espérance, alors pour tout réel α, α.X admet également une espérance. En effet, si : α ≠ 0, on a : ∀ k ∈ , P(X = xk) = P(α.X = α.xk), d’où le fait que si la série ∑
∈
=Nn
kk xXPx )(.
est absolument convergente, la série ∑∈
=Nn
kk xXPx )..(.. ααα l’est aussi.
• Considérons maintenant deux variables aléatoires X et Y, et notons : xi, i ∈ I, yj, j ∈ J les ensembles de valeurs (au plus dénombrables) que prennent X et Y. Les ensembles X-1(xi), i ∈ I et Y-1(yj), j ∈ J forment séparément des partitions au plus dénombrables de Ω. Notons ensuite : Z = X + Y, puis : ∀ (i,j) ∈ I×J, zi,j = xi + yj, et : ∆i,j = X-1(xi) ∩ Y-1(yj). Alors ∆i,j, (i,j) ∈ I×J forme une partition au plus dénombrable de Ω (dont certains ensembles peuvent être vides). De plus : ∀ (i,j) ∈ I×J, ∀ ω ∈ ∆i,j, Z(ω) = X(ω) + Y(ω) = xi + yj = zi,j. On va démontrer que la famille ( )(. ,, jiji zZPz = )i,j∈I×J est sommable et qu’ainsi, on peut regrouper les zi,j
qui sont égaux pour finalement obtenir que Z admet une espérance.
Or : ∀ (i,j) ∈ I×J, jiji yxz +≤, , et ∆i,j, j ∈ J forme une partition de X-1(xi), pour tout : i ∈ I.
De plus pour tout i fixé dans I, la famille ( ))()((. iji xXyYPx =∩= )j∈J est sommable puisque :
∑∈
=∩===Jj
iji xXyYPxXP ))()(()( ,
et le produit par xi (constant) ou |xi| ne modifie pas cette sommabilité.
De plus la famille IiJj
iji xXyYPx∈∈
=∩=∑ ))()((. , est encore sommable puisqu’elle correspond à
( )Iiii xXPx
∈= )(. , et cette famille est sommable puisque X admet une espérance.
Donc le th 8.11 permet d’affirmer que la famille ( )JIjiiji xXyYPx
×∈=∩=
),())()((. est sommable.
De même la famille ( )JIjiiji xXyYPy
×∈=∩=
),())()((. est sommable ainsi que la somme de ces deux
familles qui donne ( )JIjijiji Pz
×∈∆
),(,, )(. .
Si l’on regroupe maintenant (par paquets) les termes zi,j qui sont égaux, on constate que la somme de la
dernière famille vaut : )()(.)(.)(.)()( ,),(
,,),(
,,
,
ZEzZPzPzPzZzZz zzJIji
jijiJIji
jiji
ji
===
∆=∆ ∑∑ ∑∑
Ω∈Ω∈ =×∈×∈
.
En effet, pour z fixé, les ensembles ∆i,j, (i,j) ∈ I×J, zi,j = z sont deux à deux disjoints et leur réunion donne Z = z, donc la formule des probabilités totales conduit à : )()(
,,),(, zZPP
zzJIjiji
ji
==∆∑=×∈
.
Mais d’autre part : ∑∑∑×∈×∈×∈
∆+∆=∆JIji
jijJIji
jiiJIji
jiji PyPxPz),(
,),(
,),(
,, )(.)(.)(. ,
et là encore en regroupant par paquets, on obtient par exemple :
Chapitre 10 : Variables aléatoires – Cours complet. - 14 -
)()(.)(.)(.)(. ,,),(
, XExXPxPxPxPxIi
iiIi Jj
jiiIi Jj
jiiJIji
jii ===
∆=
∆=∆ ∑∑ ∑∑ ∑∑
∈∈ ∈∈ ∈×∈.
Avec un résultat similaire pour Y, on conclut bien que : )()()( YEXEZE += .
• La linéarité de l’espérance se déduit des deux propriétés ainsi démontrées.
Théorème 3.5 : premières propriétés de l’espérance. Soient X et Y des variables aléatoires discrètes réelles. • Si X est presque sûrement égale à une constante a (c'est-à-dire telle que : 1)( == aXP ), alors X admet une espérance et : E(X) = a. • Si X est à valeurs positives et admet une espérance, alors : 0)( ≥XE .
• Si X est à valeurs positives presque sûrement (c'est-à-dire telle que : 1)0( =≥XP ), admet une espérance et si : E(X) = 0, alors : X = 0, presque sûrement. • Si X et Y admettent toutes deux une espérance et vérifient : X ≤ Y, alors : E(X) ≤ E(Y). • X admet une espérance si et seulement si |X| en admet une et : )()( XEXE ≤ .
Démonstration : • Si : 1)( == aXP , alors : ∀ x’ ≠ a, x’ ∈ X(Ω), 0)(1)()'(0 ==−=≠≤=≤ aXPaXPxXP .
Donc : aaxXPxaXPaxXPxXEaxk
kk ===+==== ∑∑≠
+∞
=
1.)'('.)(.)(.)('0
.
• Si (xk) est une énumération des valeurs prises par X alors : ∀ k a , xk ≥ 0. Si de plus X admet une espérance alors la série ∑
∈
=Nk
kk xXPx )(. converge, et étant à termes positifs,
sa somme, qui est E(X), est positive. • Notons xk les valeurs prises par X (qui sont donc des réels positifs).
Alors : 0)(.)(0
===∑+∞
=kkk xXPxXE , et comme somme d’une série à termes positifs, tous ses termes
sont nuls. Mais alors : ∀ k ∈ , (xk ≠ 0) ⇒ ( 0)( == kxXP ), et donc : 1)0(1)0( =≠−== XPXP .
• Il suffit de dire que par linéarité, Y – X admet une espérance qui est positive d’après le point précédent, et qui vaut : )()()( XEYEXYE −=− , d’où le résultat.
• Pour le dernier point on commence par utiliser la formule du transfert (th. 3.3) avec la fonction f égale à la valeur absolue.
On constate que |X| a une espérance car ∑∈
=Nk
kk xXPx )(. converge, et : ∑+∞
===
0
)(.)(k
kk xXPxXE .
De plus, pour une série réelle absolument convergente ∑≥0n
na , on sait que : ∑∑+∞
=
+∞
=
≤00 n
nn
n aa .
Appliquée ici, cette inégalité donne : )()(.)(.)(00
XExXPxxXPxXEk
kkk
kk ==≤== ∑∑+∞
=
+∞
=
.
Théorème 3.6 : espérance d’une variable aléatoire s uivant une loi géométrique G(p). Soit X une variable aléatoire suivant une loi géométrique G(p), avec : p ∈ ]0,1[.
Alors X admet une espérance et : p
XE1
)( = .
Démonstration :
En effet la série ∑≥
−−1
1)1.(.k
kppk est absolument convergente puisque :
=− −2
1 1)1.(.
koppk k , en +∞
avec le théorème des croissances comparées (et : p ∈ ]0,1[, donc : (1 – p) ∈ ]0,1[).
Puis : pp
ppkpppkk
k
k
k 1
))1(1(
1.)1.(.)1.(.
21
1
1
1 =−−
=−=− ∑∑+∞
=
−+∞
=
− .
On utilise pour cela la dérivée de la série entière :
Chapitre 10 : Variables aléatoires – Cours complet. - 15 -
∀ x ∈ ]-1,+1[, ∑+∞
=
=− 01
1
n
nxx
, et : ∑+∞
=
−=− 1
12
.)1(
1
n
nxnx
.
Théorème 3.7 : espérance d’une variable aléatoire s uivant une loi de Poisson P(λ). Soit X une variable aléatoire suivant une loi de Poisson P(λ), avec : λ > 0. Alors X admet une espérance, et : λ=)(XE .
Démonstration :
En effet, la série ∑≥
−
1 !..
k
k
kek
λλ est absolument convergente puisque :
=−2
1
!..
ko
kek
kλλ , en +∞, toujours
avec le théorème des croissances comparées.
Puis : λλλλλ λλλλλ ===−
= −+∞
=
+−
+∞
=
−+∞
=
− ∑∑∑ eek
ek
ek
ekk
k
k
k
k
k
..!
.)!1(
.!
..0
1
11
.
Théorème 3.8 : espérance d’une variable aléatoire p renant un nombre fini de valeurs.
Soit X une variable aléatoire prenant un nombre fini de valeurs. Alors X admet une espérance.
Démonstration : Puisque X ne prend qu’un nombre fini de valeurs, la série ∑
∈
=Nk
kk xXPx )(. est nulle à partir d’un certain
rang et donc est absolument convergente.
Rappel :
• Si X suit la loi uniforme U(n), alors : 2
1
2
)1.(.
1.
1)(
1
+=+==∑=
nnn
nk
nXE
n
k
.
• Si X suit la loi de Bernoulli B(p), alors : pppXE =+−= .1)1.(0)( .
• Si X suit la loi binomiale B(n,p), alors :
pnpppnppk
nnpp
k
nkXE n
n
k
knkn
k
knk .)1.(.)1.(.1
1.)1.(..)( 1
10
=−+=−
−−
=−
= −
=
−
=
− ∑∑ .
Remarque :
Puisqu’une loi binomiale B(n,p) est la loi du nombre de succès dans la répétition n fois d’une épreuve de Bernoulli de loi B(p), on peut écrire : X = X1 + … + Xn, où X est la variable suivant la loi binomiale et les Xk les variables aléatoires (indépendantes) décrivant chaque expérience de Bernoulli.
Donc : pnXEXEn
kk .)()(
1
==∑=
.
Théorème 3.9 : inégalité de Markov.
Soit X une variable aléatoire discrète réelle positive admettant une espérance.
Alors : ∀ a ≥ 0, )()(. XEaXPa ≤≥ , ou si : a > 0, a
XEaXP
)()( ≤≥ .
Démonstration : Soit : a ≥ 0, fixé. Notons xk, k ∈ une énumération des valeurs prises par X, K+ l’ensemble des indices k tels que : xk ≥ a, et pour un entier n donné Kn
+ les indices : 0 ≤ k ≤ n, dans K+.
Alors : ∀ n ∈ , )()(.)(.)(.00
XExXPxxXPxxXPxk
kk
n
kkk
Kkkk
n
==≤=≤= ∑∑∑+∞
==∈ +
.
Puis : ∀ k ∈ Kn+, )(.)(. kkk xXPxxXPa =≤= , d’où : ∀ n ∈ , )()(. XExXPa
nKkk ≤=∑
+∈
.
Enfin on a : U UUNn Kk
kKk
k
n
xXxXaX∈ ∈∈
====≥
++
, puisque : UNn
nKK∈
++ = .
Donc X ≥ a est la réunion (croissante) des ensembles ci-dessus et :
Chapitre 10 : Variables aléatoires – Cours complet. - 16 -
∑++ ∈∈
==
=
nn Kkk
Kkk xXPxXP )(U , puisque les événements sont indépendants.
Finalement : )()(.lim)(. XExXPaaXPanKk
kn
≤==≥ ∑+∈
+∞→.
On aurait pu également signaler que la suite des sommes partielles est croissante et majorée donc convergente.
4. Couple et famille finie de variables aléatoires, indépendance. Théorème 4.1 et définition 4.1 : couple de variables aléatoires discrètes.
Soient X et Y des variables aléatoires discrètes sur un espace probabilisé (Ω,A,P) à valeurs dans deux ensembles E et F. L’application X définie de Ω dans E×F par : ∀ ω ∈ Ω, Z(ω) = (X(ω),Y(ω)), est une variable aléatoire discrète sur Ω. On note alors : Z = (X,Y).
Démonstration : Z est bien une application de Ω dans E×F. De plus l’image Z(Ω) est : Z(Ω) = (X(ω),Y(ω)), ω ∈ Ω, est incluse dans X(Ω)×Y(Ω), et puisque X(Ω) et Y(Ω) sont dénombrables, le produit cartésien X(Ω)×Y(Ω) l’est aussi, tout comme Z(Ω). Enfin : ∀ (x,y) ∈ X(Ω)×Y(Ω), Z-1((x,y)) = X-1(x) ∩ Y-1(y), et comme X-1(x) et Y-1(y) sont des événements, Z-1((x,y)) en est un aussi.
Définition 4.2 : loi conjointe et lois marginales d ’un couple de variables aléatoires discrètes.
Soient X et Y des variables aléatoires discrètes sur un espace probabilisé (Ω,A,P) à valeurs dans deux ensembles E et F et soit : Z = (X,Y), le couple défini par X et Y. On appelle loi conjointe du couple la loi de Z, et lois marginales du couple les lois de X et de Y appelée aussi « loi marginale en X » et « loi marginale en Y ».
Théorème 4.2 : lien entre loi conjointe et lois mar ginales d’un couple de variables aléatoires. Soient X, Y des variables aléatoires discrètes sur un espace probabilisé (Ω,A,P) à valeurs dans E et F. La connaissance de la loi conjointe du couple (X,Y) entraîne celle des lois marginales. La réciproque est fausse autrement dit connaître les lois marginales ne suffit pas pour connaître la loi conjointe.
Démonstration : Soit : x ∈ X(Ω). Alors : ∀ ω ∈ Ω, (X(ω) = x) ⇔ (∃ y ∈ Y(Ω), (X(ω),Y(ω)) = (x,y)). Donc : X = x = (X,Y) = (x,y), y ∈ F = x×F, d’où : )()),(()()( FxPFxYXPxXPxP ZX ×=×∈=== . Et donc la probabilité PZ étant supposée connue, la probabilité PX est connue d’après le théorème 1.4. De même : ∀ y ∈ Y(Ω), )()( yEPyP ZY ×= , et on en déduit PY.
Définition 4.3 : lois conditionnelles. Soient X, Y des variables aléatoires discrètes sur un espace probabilisé (Ω,A,P) à valeurs dans E et F. Pour : y ∈ Y(Ω), tel que Y = y ne soit pas négligeable ( 0)( >= yYP ), on définit la loi conditionnelle de
X sachant Y = y par : ∀ x ∈ X(Ω), )(
))()(()()( yYP
yYxXPxXP yY =
=∩==== ,
et plus généralement : ∀ A ⊂ X(Ω), )(
))()(()()( yYP
yYAXPAXP yY =
=∩∈=∈= .
De même, pour : x ∈ X(Ω), tel que X = x ne soit pas négligeable ( 0)( >= xXP ), on définit la loi
conditionnelle de Y sachant X = x par : ∀ y ∈ Y(Ω), )(
))()(()()( xXP
yYxXPyYP xX =
=∩==== .
Chapitre 10 : Variables aléatoires – Cours complet. - 17 -
Théorème 4.3 : lien entre loi conjointe, loi margin ale et loi conditionnelle. Soit (Ω,A,P) un ensemble probabilisé. Soient X et Y des variables aléatoires discrètes de Ω dans E et F. La loi de X d’une part et pour tout : x ∈ X(Ω), tel que X = x soit non négligeable, la loi de Y sachant X = x d’autre part, déterminent entièrement la loi conjointe du couple (X,Y).
Démonstration : Ce résultat est immédiat puisque : ∀ (x,y) ∈ X(Ω)×Y(Ω),
• si : P(X = x) > 0, alors :)(
))()(()(( xXP
yYxXPyYP xàX =
=∩==== , donc :
)().())()(( xXPxXyYPyYxXP =====∩= ,
• si : P(X = x) = 0, alors : (X,Y) = (x,y) ⊂ X = x, et donc : )().())()((0)),(),(( )( xXPyYPyYxXPyxYXP xX ====∩==== = .
En connaissant la probabilité de (X,Y) sur les événements élémentaires, on en déduit la loi de probabilité de (X,Y).
Définition 4.4 : couple de variables aléatoires ind épendantes. Soit (Ω,A,P) un ensemble probabilisé. Soient X et Y des variables aléatoires discrètes de Ω dans E et F. On dit que X et Y sont indépendantes lorsque : ∀ (x,y) ∈ X(Ω)×Y(Ω), )().())()(( yYPxXPyYxXP ====∩= ,
ou encore lorsque : ∀ (x,y) ∈ X(Ω)×Y(Ω), X = x et Y = y sont indépendants.
Théorème 4.4 : (admis) indépendance et événements non élémentaires. Soit (Ω,A,P) un ensemble probabilisé. Soient X et Y des variables aléatoires discrètes de Ω dans E et F. Si X et Y sont indépendantes, alors : ∀ A ⊂ X(Ω), ∀ B ⊂ Y(Ω), )().())()(( BYPAXPBYAXP ∈∈=∈∩∈ .
Démonstration (hors programme) : A et B étant au plus dénombrables, on peut noter : A = xk, k ∈ K, et : B = yl, l ∈ L. Puis (X ∈ A)∩(Y ∈ B) est la réunion disjointe de (X = xk)∩(Y = yl), avec : (k,l) ∈ K×L. Or la famille LKlklk yYxXP ×∈=∩= ),()))()((( est sommable.
En effet, elle est à termes positifs et : • ∀ (k,l) ∈ K×L, )().())()(( lklk yYPxXPyYxXP ====∩= ,
• pour tout : k ∈ K, la famille Lllk yYPxXP ∈== ))().(( est sommable de somme :
∀ k ∈ K, )().()().()().( BYPxXPyYPxXPyYPxXP kLl
lkLl
lk ∈======= ∑∑∈∈
,
• la famille Kkk BYPxXP ∈∈= ))().(( est sommable de somme :
)().()().()().( BYPAXPxXPBYPBYPxXPKk
kKk
k ∈∈==∈=∈= ∑∑∈∈
.
La famille LKlklk yYxXP ×∈=∩= ),()))()((( étant sommable (th 8.10) on peut écrire :
∑ ∑∑∈ ∈×∈
====∩==∈∩∈Kk Ll
lkLKlk
lk yYPxXPyYxXPBYAXP )().()))()((())()((),(
,
soit finalement : )().())()(( BYPAXPBYAXP ∈∈=∈∩∈ .
Théorème 4.5 : (admis) espérance d’un produit de variables aléatoires disc rètes indépendantes. Soit (Ω,A,P) un ensemble probabilisé. Soient X et Y des variables aléatoires discrètes réelles sur Ω admettant une espérance. Alors X.Y admet une espérance et si X et Y sont indépendantes, on a : )().().( YEXEYXE = .
Démonstration (hors programme) : Soient (xj) une énumération des valeurs prises par X et (yk) une énumération des valeurs prises par Y. Notons par ailleurs : ∀ (j,k) ∈ 2, )( jj xXPq == , )( kk yYPr == , et : kjkjkj rqyYxXPp .),(, ==== .
Chapitre 10 : Variables aléatoires – Cours complet. - 18 -
Le dernier point vient de l’indépendance de X et de Y. Si X ou Y ne prend qu’un nombre fini de valeurs, on remplace par un ensemble fini d’indices. Alors la série double ∑
≥0,,..
kjkjkj pyx est absolument convergente d’après le théorème de Fubini (th. 8.10).
En effet : ∀ j ∈ , la série ∑≥0
,..k
kjkj pyx converge car : ∀ j ∈ , ( ) kkjjkjkj ryqxpyx ..... , = , qui est à
une constante multiplicative près le terme général de la série (convergente) ∑∈
=Nn
kk yYPy )(. .
Puis la série des sommes ainsi obtenue est ( ) ( )∑∑≥≥
=00
.).()(..j
jjj
jj qxYEYEqx , qui est encore
convergente, cette fois en référence à l’existence d’une espérance pour X. Donc la série double converge, X.Y admet une espérance et le théorème de Fubini permet d’écrire :
)().(...).).(.(..).(000 00 0
, YEXEryqxryqxpyxYXEk
kkj
jjj k
kkjjj k
kjkj =
=
=
= ∑∑∑ ∑∑ ∑+∞
=
+∞
=
+∞
=
+∞
=
+∞
=
+∞
=.
Théorème 4.6 : images de deux variables aléatoires discrètes indépendantes. Soit (Ω,A,P) un ensemble probabilisé. Soient X et Y des variables aléatoires discrètes indépendantes de Ω dans E et F. Soient f et g des fonctions de E dans E’ et F dans F’ respectivement. Alors f(X) et g(Y) sont des variables aléatoires de Ω dans E’ et F’ indépendantes.
Démonstration : Pour : (x,y) ∈ X(Ω)×Y(Ω), on a : f(X) = x = X ∈ f-1(x), et : g(Y) = y = Y ∈ g-1(y), (images réciproques). Donc : ))(()).(()))(())((()))(())((( 1111 ygYPxfXPygYxfXPBYgAXfP −−−− ∈∈=∈∩∈=∈∩∈ , la dernière égalité venant du fait que les variables X et Y sont indépendantes. On termine avec : ))(())(( 1 xXfPxfXP ==∈ − , et : ))(())(( 1 yYgPygYP ==∈ − , soit finalement :
))(().)(()))(())((( yYgPxXfPyYgxXfP ====∩= , autrement dit, les variables f(X) et g(Y) sont indépendantes.
Définition 4.5 : famille finie de variables aléatoi res discrètes mutuellement indépendantes.
Soit (Ω,A,P) un ensemble probabilisé. Soient X1, …, Xn des variables aléatoires discrètes de Ω dans E1, …, En. On dit que les variables aléatoires X1, …, Xn sont mutuellement indépendantes lorsque :
∀ (Ai)1≤i≤n ∈ P(X1(Ω))×…×P(Xn(Ω)), ∏==
∈=
∈
n
iii
n
iii AXPAXP
11
)(I .
Remarque :
Comme dans le cas discret, on a également le résultat suivant : Si X1, …, Xn sont des variables aléatoires discrètes de (Ω,A,P) dans E1, …, En, alors X1, …,Xn sont mutuellement indépendantes si et seulement si : ∀ (x1, …, xn) ∈ X1(Ω)×…×Xn(Ω), )()...())(...)(( 1111 nnnn xXPxXPxXxXP ====∩∩= .
Définition 4.6 : suite de variables aléatoires disc rètes mutuellement indépendantes.
Soit (Ω,A,P) un ensemble probabilisé. Soit (Xn) une suite de variables aléatoires discrètes de Ω dans des ensembles (En). Les variables sont dites mutuellement indépendantes lorsque toute sous-famille finie extraite de cette suite est une famille de variables aléatoires mutuellement indépendantes.
Théorème 4.7 : (admis) existence d’un modèle pour des lois de probabilité données. Soit (Pn)n∈ une suite de probabilités sur telle que : ∀ n ∈ , ∃ Sn ⊂ , Sn au plus dénombrable, Pn(Sn) = 1.
Chapitre 10 : Variables aléatoires – Cours complet. - 19 -
Alors il existe un espace probabilisé (Ω,T,P), et une suite de variable aléatoires discrètes réelles (Xn)n∈ définies sur Ω et mutuellement indépendantes, tels que chaque variable aléatoire Xn suit la loi Pn.
Démonstration : là c’est vraiment hors programme. exemple 4.1 :
Soit une infinité de lancers d’une pièce suivant chacun une loi de Bernoulli B(pn). Alors il existe un espace probabilisé (Ω,T, P) qu’on ne détaille pas et une suite de variables aléatoires mutuellement indépendantes (Xn)n∈*, tels que chaque variable Xn suit la loi B(pn). Chaque loi Xn représente le résultat du nième lancer de la pièce. L’ensemble Ω peut être vu comme la suite : ω = (ω1, …, ωn, …), des résultats possibles issus d’une infinité de lancers de la pièce, autrement dit : ∀ n ∈ *, ωn vaut Pile ou Face (ou : 1 = Pile, et : 0 = Face). Plus simplement encore, l’ensemble Ω est la structure mathématique qui permet d’envisager simultanément et proprement l’ensemble des lancers, alors que l’approche initiale ne permet que de les envisager séparément les uns des autres. C’est ce théorème qui permet la généralisation de ce qu’on avait fait lorsqu’on avait pensé deux lancers successifs (et indépendants) de la même pièce puisque alors, on avait travaillé dans : Ω = (P,P), (P,F), (F,P), (F,F), soit l’ensemble des résultats possibles des deux lancers, envisagés dans leur globalité.
Imaginons maintenant une infinité de lancers d’une Pièce équilibrée (soit : ∀ n ∈ *, 2
1=np ).
En pratique : • l’événement « le premier tirage donne Pile » s’écrira X1 = 1 et aura pour probabilité :
P(« le premier tirage donne Pile ») = 2
1)1()1( 111 ==== XPXP .
• « les deux premiers tirages donnent Face » s’écrira X1 = 0 ∩ X2 = 0, et aura pour probabilité : P(« les deux premiers tirages donnent Face ») = ))0()0(( 21 =∩= XXP , et par indépendance des variables :
P(« les deux premiers tirages donnent Face ») = 4
1
2
1.
2
1)0().0( 2211 ==== XPXP .
• « on obtient que des Face » s’écrira : I+∞
=
==1
0n
nXA .
Pour calculer sa probabilité, on peut poser : ∀ n ∈ *, In
kkn XA
1
0=
== , la suite des (An) est
décroissante pour l’inclusion et : 02
1lim)(lim)( ===
+∞→+∞→ nnn
nAPAP , toujours par indépendance des
variables aléatoires. Ceci justifie ce qu’on avait considéré à savoir que l’événement « n’obtenir que des Face » était négligeable puisque de probabilité nulle.
Théorème 4.8 : somme de deux variables aléatoires i ndépendantes suivant une loi de Poisson. Soient X et Y deux variables aléatoires suivantes des lois de Poisson P(λ) et P(µ), avec : λ > 0, µ > 0. Alors (X + Y) est une variable aléatoire qui suit la loi de Poisson P(λ + µ).
Démonstration : Puisque X et Y sont définies de Ω dans alors : Z = X+Y, est définie de Ω dans et l’ensemble des valeurs prises par Z est au plus dénombrable. Puis : ∀ n ∈ Z(Ω), Z = n est la réunion disjointe (et en fait finie) :
UUn
kNk
knYkXknYkXnZ0=∈
−=∩==−=∩=== .
Donc : ∑∑∑=
−−−
== −=−===−=∩===
n
k
knkn
k
n
k kne
keknYPkXPknYkXPzZP
000 )!(..
!.)().())()(()(
µλ µλ .
On reconnaît la formule du binôme et :
Chapitre 10 : Variables aléatoires – Cours complet. - 20 -
!
)(....
!..
)!!.(
!.
!)( )(
00 ne
k
n
n
e
knk
n
n
ezZP
nn
k
knkn
k
knk µλµλµλ µλµλµλ +=
=
−== +−
=
−−−
=
−−−
∑∑ .
Z suit bien une loi de Poisson de paramètre (λ+µ).
5. Variance et covariance. Théorème 5.1 : lien entre espérance de X et de X 2.
Soit X une variable aléatoire discrète réelle. Si X2 admet une espérance, alors X admet une espérance.
Démonstration : On a dans l’inégalité : ∀ x ∈ , 21 xx +≤ .
Notons maintenant xk, k ∈ une énumération des valeurs prises par X.
Alors : ∀ n ∈ , ∑∑∑===
=+=≤==n
kkk
n
kk
n
kkkn xXPxxXPxXPxS
0
2
00
)(.)()(. .
Or : ∀ n ∈ , 1))((),...,()( 000
=Ω≤∈=
=====
∑ XPxxXPxXPxXP n
n
kk
n
kk U , et :
∀ n ∈ , )()(. 2
0
2 XExXPxn
kkk ≤=∑
=
.
Donc la suite des sommes partielles (Sn) est majorée et la série ∑∈
=Nk
kk xXPx )(. converge.
Conclusion : X admet bien une espérance.
Définition 5.1 : variance d’une variable aléatoire discrète réelle. Soit X une variable aléatoire discrète réelle telle que X2 admet une espérance. On appelle variance de X le réel : 22 )()()( XEXEXV −= .
Théorème 5.2 : autre expression de la variance. Soit X une variable aléatoire discrète réelle telle que X2 admet une espérance. Alors : )))((()( 2XEXEXV −= .
Démonstration : On peut développer, et utiliser les propriétés de l’espérance établies au paragraphe 3, en notant que les trois variables aléatoires X2, X et la constante E(X)2 ont toutes une espérance. Puis : 22222 )()().(.2)())()(..2()))((( XEXEXEXEXEXEXXEXEXE +−=+−=− .
D’où : )()()()))((( 222 XVXEXEXEXE =−=− .
Remarque : Il est équivalent de dire « X admet une variance » et « X2 admet une espérance » dans la mesure où la première proposition sous-entend que X admet au moins une espérance. Dans ce cas V(X) existe si et seulement si E(X2) existe.
Théorème 5.3 : propriétés élémentaires de la varian ce.
Soit X une variable aléatoire discrète réelle admettant une variance. Alors : • 0)( ≥XV ,
• ∀ a ∈ , a.X admet une variance et : )(.).( 2 XVaXaV = ,
• ∀ b ∈ , (X + b) admet une variance et : )()( XVbXV =+ ,
• ∀ (a,b) ∈ 2, (a.X + b) admet une variance et : )(.).( 2 XVabXaV =+ .
Démonstration : • Il suffit de dire que (X – E(X))2 est une variable aléatoire positive donc d’espérance positive. • Pour : a ∈ , la variable aléatoire (a.X)2 a une espérance d’après le théorème 3.4, et on a : )(.))()(.().().().( 2222222 XVaXEXEaXaEXaEXaV =−=−= .
Chapitre 10 : Variables aléatoires – Cours complet. - 21 -
• Pour : b ∈ , les variables aléatoires X2, X et la variable constante b ont une espérance et on a : 22222 ))(()..2()())(()( bXEbXbXEbXEbXEbXV +−++=+−+=+ , d’où :
)()()())(..2)(()(..2)()( 222222 XVXEXEbXEbXEbXEbXEbXV =−=++−++=+ .
• Le quatrième point est la combinaison des points 2 et 3.
Définition 5.2 : écart-type d’une variable aléatoir e discrète réelle. Soit X une variable aléatoire discrète réelle admettant un moment d’ordre 2.
L’écart-type de X est défini par : 22 )()()()( XEXEXVX −==σ .
Théorème 5.4 : variance d’une variable aléatoire ne prenant qu’un nombre fini de valeurs.
Soit X une variable aléatoire réelle ne prenant qu’un nombre fini de valeurs. Alors X admet une variance.
Démonstration : Comme pour l’espérance de X dans ce cas, X2 admet une espérance et donc X admet une variance.
Théorème 5.5 : variance d’une variable aléatoire su ivant une loi géométrique.
Soit X une variable aléatoire discrète réelle suivant la loi G(p), avec : p ∈ ]0,1[.
Alors X admet une variance et : 2
1)(
p
pXV
−= .
Démonstration :
La série ∑≥
−−1
12 )1.(.k
kppk est absolument convergente puisque :
=− ∞+−
212 1
)1.(.k
oppk k , avec le
théorème des croissances comparées (et : p ∈ ]0,1[). Donc X2 admet une espérance et X admet une variance.
Puis : ∑∑∑+∞
=
−+∞
=
−+∞
=
− −+−−−=−1
1
2
2
1
12 )1.(.)1).(1.().1.()1.(.k
k
k
k
k
k pkppkkppppk ,
puisque les deux séries convergent. On utilise ensuite la dérivée seconde de la série entière :
∀ x ∈ ]-1,+1[, ∑+∞
=
=− 01
1
n
nxx
, et : ∑+∞
=
−−=− 1
23
).1.()1(
2
n
nxnnx
, et :
23
1
12 21
))1(1(
2).1.()1.(.
p
p
ppppppk
k
k −=+−−
−=−∑+∞
=
− , soit finalement :
222
22 112)()()(
p
p
pp
pXEXEXV
−=−−=−= .
Théorème 5.6 ; variance d’une variable aléatoire su ivant une loi de Poisson.
Soit X une variable aléatoire discrète réelle suivant la loi de Poisson P(λ), avec : λ > 0. Alors X admet une variance et : λ=)(XV .
Démonstration :
En effet, la série ∑≥
−
1
2
!..
k
k
kek
λλ est absolument convergente puisque :
=−2
2 1
!..
ko
kek
kλλ , en +∞,
toujours avec le théorème des croissances comparées. Donc X2 admet une espérance et X admet une variance.
Puis : λλλλλλλ λλλλλ +=+=−
+−
== ∑∑∑∑∑+∞
=
+−
+∞
=
+−
+∞
=
−+∞
=
−+∞
=
− 2
0
1
0
2
121
22
!.
!.
)!1(.
)!2(.
!..)(
k
k
k
k
k
k
k
k
k
k
ke
ke
ke
ke
kekXE .
Finalement : λλλλ =−+=−= 2222 )()()( XEXEXV .
Remarques : • On définit pour les variables aléatoires discrètes réelles, comme dans le cas de variables aléatoires finies, la notion de variable centrée (ou d’espérance nulle) et de variable réduite (ou dont la variance est
Chapitre 10 : Variables aléatoires – Cours complet. - 22 -
égale à 1). • On peut de même associer à une variable aléatoire discrète réelle X admettant une espérance et une variance non nulle, une variable centrée réduite donnée par :
)(
)(*
X
XEXX
σ−= , qui vérifie alors : 0*)( =XE , et : 1*)( =Xσ .
Théorème 5.7 : inégalité de Bienaymé-Tchebytchev.
Soit X une variable aléatoire discrète réelle admettant une variance.
Alors : ∀ ε > 0, 2
)())((
εε XV
XEXP ≤≥− .
Démonstration : On a l’équivalence : ∀ ε > 0, (|X – E(X)| ≥ ε) ⇔ ((X – E(X))2 ≥ ε2). Or la variable aléatoire (X – E(X))2 est positive, donc d’après l’inégalité de Markov avec : a = ε2, on a : )()))((()))(((.))((. 22222 XVXEXEXEXPXEXP =−≤≥−=≥− εεεε .
D’où le résultat.
Théorème 5.8 : inégalité de Cauchy-Schwarz. Soient X et Y des variables aléatoires réelles admettant une variance. Alors X.Y admet une espérance et : )().().( 222 YEXEYXE ≤ .
De plus il y a égalité dans cette inégalité si et seulement si : ∃ (α,β) ∈ 2, (α,β) ≠ (0,0), tel que : 1)0..( ==+ YXP βα , autrement dit (α.X + β.Y) est nulle presque sûrement.
Démonstration : • Considérons maintenant deux variables aléatoires X et Y, et notons : xi, i ∈ I, yj, j ∈ J les ensembles de valeurs (au plus dénombrables) que prennent X et Y, ainsi que : Z = X.Y, puis : ∀ (i,j) ∈ I×J, jiji yxz ., = , et : ∆i,j = X-1(xi) ∩ Y-1(yj).
On constate que : - les ensembles X-1(xi), i ∈ I et Y-1(yj), j ∈ J forment chacun des partitions au plus dénombrables de Ω, - l’ensemble ∆i,j, (i,j) ∈ I×J forme une partition au plus dénombrable de Ω (dont certaines parties peuvent être vides), - pour i fixé dans I, l’ensemble ∆i,j, j ∈ J forme une partition de X-1(xi). Puis : ∀ (i,j) ∈ I×J, ∀ ω ∈ ∆i,j, jiji zyxYXZ ,.)().()( === ωωω .
On a par ailleurs : ∀ (i,j) ∈ I×J, 2
.22
,ji
jiji
yxyxz
+≤= ,
et pour i fixé dans I, la famille ( ))()((.2iji xXyYPx =∩= )j∈J est sommable puisque :
∑∈
=∩===Jj
iji xXyYPxXP ))()(()( ,
et le produit par 2ix (constant) ne modifie pas cette sommabilité.
De plus la famille IiJj
iji xXyYPx∈∈
=∩=∑ ))()((.2 , est encore sommable puisque chaque terme
correspond à ( ) Iiii xXPx ∈= )(.2 , (formule des probabilités totales) et cette famille est sommable puisque
X2 admet une espérance. Donc le th 8.11 permet d’affirmer que la famille ( )
JIjiiji xXyYPx×∈
=∩=),(
2 ))()((. est sommable.
De même la famille ( )JIjiijj xXyYPy
×∈=∩=
),(
2 ))()((. est sommable.
Donc la somme de ces deux familles et finalement par majoration la famille ( )JIjijiji Pz
×∈∆
),(,, )(. sont
sommables. Enfin, on peut regrouper par paquets les termes zi,j qui sont égaux, et la somme de la dernière famille
vaut : ∑∑ ∑∑ ∑∑Ω∈Ω∈ =×∈Ω∈ =×∈×∈
==
∆=
∆=∆
)()( ,),(,
)( ,),(,,
),(,, )(.)(.)(.)(.
,, ZzZz zzJIjiji
Zz zzJIjijiji
JIjijiji zZPzPzPzPz
jiji
.
En effet, pour z fixé, les ensembles ∆i,j, (i,j) ∈ I×J, zi,j = z sont deux à deux disjoints et leur réunion
Chapitre 10 : Variables aléatoires – Cours complet. - 23 -
donne Z = z, donc la formule des probabilités totales conduit à : )()(,,),(
, zZPPzzJIji
ji
ji
==∆∑=×∈
.
Autrement dit, Z (c'est-à-dire X.Y) admet bien une espérance. • Considérons maintenant pour t réel fixé la variable aléatoire discrète (X + t.Y)2. Elle admet une espérance puisque X2, Y2 et X.Y en admettent une, et étant positive, on a : 0)(.).(..2)()).(( 2222 ≥++=+ YEtYXEtXEYtXE .
Si : 0)( 2 =YE , alors la fonction affine de t ci-dessus restant positive sur , on a aussi : 0).( =YXE .
Si : 0)( 2 ≠YE (et donc strictement positif), le trinôme restant positif sur , il ne peut admettre au plus
qu’une racine double réelle et son discriminant est négatif ou nul, soit : 0)().(.4).(.4 222 ≤− YEXEYXE .
Dans les deux cas, on conclut que : )().().( 222 YEXEYXE ≤ .
• Enfin, s’il y a égalité dans cette inégalité, alors : - soit : ).(0)( 2 YXEYE == , et : Y = 0.X + 1.Y, est nulle presque sûrement,
- soit : 0)( 2 ≠YE , et : ∃ t ∈ , 0)).(( 2 ==+ YtXE , et : X + t.Y = 1.X + t.Y est nulle presque sûrement.
Réciproquement, si : α.X + β.Y est nulle presque sûrement (avec par exemple : α ≠ 0), alors en posant :
αβ−=t , on a : YtX .= , d’où : 222222222 )(.)()(.).()(.).().( YEXEYEYtEYEtYtEYXE ==== ,
d’où égalité dans l’inégalité de Cauchy-Schwarz.
Théorème 5.9 et définition 5.3 : covariance d’un couple de variable s aléatoires discrètes réelles. Soient X et Y des variables aléatoires réelles admettant une variance. Alors les variables centrées : X’ = X – E(X), et Y’ = Y – E(X), admettent une variance et on peut définir : )''.(),( YXEYXCov = .
On a par ailleurs l’égalité : )().().(),( YEXEYXEYXCov −= . Le réel Cov(X,Y) est appelé covariance du couple (X,Y).
Démonstration : Puisque X2 admet une espérance, X aussi ainsi que la variable aléatoire constante E(X)2, donc X’2 admet une espérance. On a évidemment le même résultat pour Y’2. On a ensuite : )().().()().()().(.2).()))()).((((),( YEXEYXEYEXEYEXEYXEYEYXEXEYXCov −=+−=−−= .
Théorème 5.10 : covariance d’un couple de variable aléatoires discrètes réelles indépendantes. Soient X et Y deux variables aléatoires discrètes réelles admettant une variance. Si X et Y sont indépendantes, alors : 0),( =YXCov .
Démonstration : Si X et Y sont indépendantes, alors (théorème 4.5) : )().().( YEXEYXE = , d’où le résultat.
Définition 5.4 et théorème 5.11 : coefficient de corrélation d’un couple de variabl es aléatoires
discrètes réelles. Soient X et Y deux variables aléatoires discrètes réelles admettant une variance et telles que :
0)( >XV , et : 0)( >YV .
On appelle coefficient de corrélation du couple (X,Y) le réel : )().(
),(),(
YX
YXCovYX
σσρ = .
On a alors : 1),(1 ≤≤− YXρ
Démonstration : L’inégalité de Cauchy-Schwarz garantit immédiatement l’encadrement.
En effet : )().()'(.)'()''.(),( 22 YXYEXEYXEYXCov σσ=≤= ,
où on a noté X’ et Y’ les variables aléatoires centrées associées à X et Y.
Théorème 5.12 : variance d’une somme finie de varia bles aléatoires discrètes réelles. Soient X1, …, Xn des variables aléatoires discrètes réelles, telles que X1
2, …, Xn2 admettent une
espérance.
Chapitre 10 : Variables aléatoires – Cours complet. - 24 -
Alors (X1 + … + Xn) admet une variance et :
∑∑≤≠≤=
−+=++nji
jiji
n
iin XEXEXXEXVXXV
111 )]().().([)()...( .
Démonstration : L’existence d’une variance pour la somme s’obtient par récurrence en démontrant en particulier que si X1 et X2 ont une variance, alors (X1 + X2) aussi. Pour cela : 21
22
21
221 ..2)( XXXXXX ++=+ ,
et X1.X2 admet une espérance comme on l’a vu dans l’inégalité de Cauchy-Schwarz. On termine pour une somme de n termes par récurrence sur n. Ensuite il suffit de développer :
• ∑∑≤≠≤=
+=++nji
ji
n
iin XXXXX
11
221 .)...( , et : ∑∑
≤≠≤=
+=++nji
ji
n
iin XXEXEXXE
11
221 ).()())...(( ,
• ∑∑∑≤≠≤==
+=
=++nji
ji
n
ii
n
iin XEXEXEXEXXE
11
2
2
1
21 )().()()())...(( ,
donc : ∑∑≤≠≤=
−+−=++nji
jijii
n
iin XEXEXXEXEXEXXV
1
2
1
21 )]().().([])()([)...( ,
soit le résultat annoncé. Théorème 5.13 : variance d’une somme de deux variab les aléatoires discrètes réelles
indépendantes. Soient X et Y des variables aléatoires discrètes réelles indépendantes et telles que X2 et Y2 admettent une espérance. Alors (X + Y) admet une variance et : )()()( YVXVYXV +=+ .
Démonstration : Le fait que (X + Y) admette une variance a été démontré au-dessus et en appliquant le résultat du théorème 5.11 pour deux variables aléatoires, on obtient : )]().().(.[2)]()([)( YEXEYXEYVXVYXV −++=+ , puisqu’il y a bien deux couples d’indices possibles : (i,j) = (1,2) ou (2,1). Et comme les variables sont supposées indépendantes, on a (th.4.5) : )().().( YEXEYXE = , soit
finalement : )()()( YVXVYXV +=+ .
Remarque : On généralise immédiatement ce résultat à n variables aléatoires discrètes réelles, mutuellement indépendantes, telles que chacune d’elle admette une variance en : )(...)()...( 11 nn XVXVXXV ++=++ .
Rappel :
• Si X suit la loi uniforme U(n), alors :
12
1
4
1.2
6
)1.2).(1.(.
1
2
1.
1)(
222
1
2 −=++−++=
+−=∑=
nnnnnn
n
nk
nXV
n
k
.
• Si X suit la loi de Bernoulli B(p), alors :
)1.()(].1)1.(0[)( 2222 pppppppXV −=−=−+−= .
• Si X suit la loi binomiale B(n,p), on peut également faire le calcul par les formules précédentes. Il est ici beaucoup plus rapide d’utiliser la généralisation précédente qui permet d’écrire : X = X1 + … + Xn, et : )1.(.)(...)()...()( 11 ppnXVXVXXVXV nn −=++=++= .
Théorème 5.14 : loi faible des grands nombres.
Soit (Xk)k∈* une suite de variable aléatoires indépendantes et de même loi, et admettant un moment d’ordre 2 (telles que pour tout : k ≥ 1, Xk
2 admette une espérance).
Chapitre 10 : Variables aléatoires – Cours complet. - 25 -
On note : )( 1XEm = , )( 1Xσσ = , et : ∀ n ∈ *, ∑=
=n
kkn XS
1
.
Alors : ∀ ε > 0, 2
2
..
1
εσεn
mSn
P n ≤
≥− , et en particulier : ∀ ε > 0, 0.1
lim =
≥−+∞→
εmSn
P nn
.
Démonstration : Toutes les variables ont la même espérance et le même écart-type. De plus, avec la généralisation du théorème 5.13 à n variables aléatoires, Sn est telle que :
2
1
.)()( σnXVSVn
kkn ==∑
=
, et : mnXESEn
kkn .)()(
1
==∑=
, d’où : mn
SE n =
.
Si on note : n
SM n
n = , on a donc : mME n =)( , et : n
SVnn
SVMV n
nn
22
)(.1
)(σ=
=
= .
Puis on remarque ensuite que : ∀ ε > 0, 22))(( ε>− nn MEM = ε>− )( nn MEM .
Donc l’inégalité de Bienaymé-Tchebytchev (th. 3.7) donne :
2
2
222
.
)()))((())((
εσ
εεε
n
MVMEMPMEMP n
nnnn =≤>−=>− .
On obtient donc bien : ∀ ε > 0, 2
2
..
1
εσεn
mSn
P n ≤
≥− .
La conséquence est immédiate : ∀ ε > 0, 0.1
lim =
≥−+∞→
εmSn
P nn
.
Remarque :
Ce théorème est le premier qui permet de justifier le fait que l’on choisisse par exemple comme probabilité d’obtenir un pile (ou un face) une valeur égale à 0.5. En effet, la probabilité que la moyenne des valeurs obtenues lors d’une répétition de tirages (soit une moyenne statistique ) s’écarte de l’espérance d’un des tirage (soit une moyenne probabiliste ) tend vers 0 lorsque le nombre de ces tirages tend vers +∞. Autrement dit, ces deux moyennes en un certain sens coïncident…
6. Fonctions génératrices des variables aléatoires à valeurs dans . Définition 6.1 : fonction génératrice d’une variabl e aléatoire à valeurs dans .
Soit X une variable aléatoire à valeurs dans . On appelle fonction (ou série) génératrice associée à X la fonction notée GX et définie par :
∀ t ∈ , ∑+∞
===
0
).()(n
nX tnXPtG .
Remarque :
Par la formule de transfert (théorème 3.3), c’est aussi l’espérance (quand elle existe) de la variable
aléatoire discrète réelle tX, soit : )().()(0
X
n
nX tEtnXPtG ===∑
+∞
=
.
Théorème 6.1 : rayon de convergence et propriétés d ’une fonction génératrice.
Soit X une variable aléatoire à valeurs dans . • Le rayon de convergence de la fonction GX associée à X vaut au moins 1. • GX est même définie sur [-1,+1] au moins. • Pour tout : t ∈ [-1,+1], 1)( ≤tGX , et : 1)1( =XG .
• GX est continue sur [-1,+1] et de classe C∞ sur ]-1,+1[ au moins. Démonstration :
• On peut par exemple remarquer que pour : t = ±1, la série numérique correspondante est la série
∑≥
±=0
)1).((n
nnXP , soit la série ∑≥
=0
)(n
nXP .
Chapitre 10 : Variables aléatoires – Cours complet. - 26 -
Or cette série converge (et a pour somme 1) puisque (X = n, n ∈ ) constitue un système complet d’événements. • Comme série entière, GX converge donc au moins sur [-1,+1] et son rayon de convergence vaut au moins 1. • On a vu que : 1)1( =XG , et :
∀ t ∈ [-1,+1], 1)1()().().()(000
===≤=≤== ∑∑∑+∞
=
+∞
=
+∞
=X
nn
n
n
nX GnXPtnXPtnXPtG .
• Enfin comme série entière GX est de classe C∞ au moins sur ]-1,+1[, et sur [-1,+1], la série de fonctions qui la constitue converge normalement puisque :
∀ t ∈ [-1,+1], )().( nXPtnXP n =≤= , et la série ∑≥
=0
)(n
nXP converge.
Associé au fait que toutes les fonctions sont continues sur [-1,+1] car polynomiales, on en déduit bien la continuité de GX sur [-1,+1].
Remarque : Lorsque les valeurs prises par une variable aléatoire forment un ensemble fini, sa fonction génératrice devient un polynôme.
exemples 6.1 : • La fonction génératrice d’une variable aléatoire suivant la loi uniforme U(n) est :
∀ t ∈ , t
tt
nt
nt
ntG
nn
k
kn
k
kx −
−===+
==∑∑ 1
.1
.1
.1
)(1
11
, cette dernière égalité étant vraie pour : t ≠ 1.
• La fonction génératrice d’une variable aléatoire suivant la loi de Bernoulli B(p) est :
∀ t ∈ , tpptptptGx .1).1(.)( 01 +−=−+= ,
• La fonction génératrice d’une variable aléatoire suivant la loi binomiale B(n,p) est :
∀ t ∈ , nn
k
knkn
k
kknkx tptttp
k
nttp
k
ntG ).1()1.()..(.)1.(.)(
10
+−=−
=−
= ∑∑
=
−
=
− .
Théorème 6.2 : lien réciproque entre fonction génér atrice et variable aléatoire.
Soit X une variable aléatoire à valeurs dans et soit GX sa fonction génératrice. Alors GX permet de retrouver la loi de X.
En particulier : ∀ n ∈ , !
)0()(
)(
n
GnXP
nX== .
Démonstration : Ce résultat est une conséquence immédiate de ce qu’on a vu sur les séries entières.
Théorème 6.3 : fonction génératrice d’une variable suivant une loi géométrique. Soit X une variable aléatoire discrète réelle suivant la loi G(p), avec : p ∈ ]0,1[.
Alors sa fonction génératrice GX est définie sur ]pp −
+−
−1
1,
1
1[ et vaut :
∀ t ∈ ]pp −
+−
−1
1,
1
1[,
tp
tptGX ).1(1
.)(
−−= .
Démonstration : La série entière cherchée est définie par :
∀ t ∈ , ∑∑∑+∞
=
−−+∞
=
−+∞
=
−=−===1
11
1
1
1
.)1(...)1.().()(n
nn
n
nn
n
nX tptptpptnXPtG ,
et la série géométrique qui apparaît a un rayon de convergence égal à : 11
1 >−
=p
R .
De plus : ∀ t ∈ ]pp −
+−
−1
1,
1
1[,
tptptptptG
n
nX ).1(1
1..]).1[(..)(
0 −−=−= ∑
+∞
=
.
Chapitre 10 : Variables aléatoires – Cours complet. - 27 -
Théorème 6.4 : fonction génératrice d’une variable suivante une loi de Poisson. Soit X une variable aléatoire suivantes la loi de Poisson P(λ) avec : λ > 0. Alors sa fonction génératrice GX est définie sur et vaut : ∀ t ∈ , )1.()( −= t
X etG λ .
Démonstration : La série entière cherchée vaut :
∀ t ∈ , )1.(.
000
.!
).(..
!.).()( −−
+∞
=
−+∞
=
−+∞
=
====== ∑∑∑ tt
n
n
n
nn
n
nX eee
n
tet
netnXPtG λλλλλ λλ
,
puisqu’on reconnaît la série exponentielle qui converge sur .
Théorème 6.5 : espérance de X et dérivabilité de G X en 1. Soit X une variable aléatoire à valeurs dans et GX sa fonction génératrice. X admet une espérance si et seulement si GX est dérivable à gauche en 1. Dans ce cas : )1(')( XGXE = .
Démonstration (hors programme) : • Si X admet une espérance, la série ∑
≥
=0
)(.n
nXPn est absolument convergente donc la série entière
∑≥
−=1
1).(.n
ntnXPn converge normalement au moins sur [-1,+1].
Autrement, le théorème de dérivation des séries de fonctions permet d’en déduire que la série de fonctions ∑
≥
=1
).(n
ntnXP est en particulier dérivable à gauche en 1, et :
)().().(1.).()1('011
1 XEnnXPnnXPnnXPGnnn
nX ======= ∑∑∑
+∞
=
+∞
=
+∞
=
− .
• Réciproquement, si GX est dérivable à gauche en 1, montrons que cette dérivée vaut E(X). Pour cela, soit : t ∈ ]0,1[. Le théorème des accroissements finis montre que :
∃ ct ∈ ]t,1[, ∑+∞
=
−===−−
1
1).(.)('1
)1()(
n
nttX
XX cnXPncGt
GtG,
et tous les termes étant positifs, on a aussi :
∀ N ∈ *, )('1
)1()().(.
1
1tX
XXN
n
nt cG
t
GtGcnXPn =
−−
≤=∑=
− .
Si maintenant, on fait tendre t vers 1, alors ct tend vers 1, et : )1(')(.1
X
N
n
GnXPn ≤=∑=
.
Donc la série (à termes positifs) ∑≥
=0
)(.n
nXPn converge puisque la suite de ses sommes partielles est
majorée et : )1(')(.1
Xn
GnXPn ≤=∑+∞
=
.
Mais en reprenant l’inégalité avec ct, on a aussi :
∀ t ∈ ]0,1[, ∃ ct ∈ ]t,1[, ∑∑+∞
=
+∞
=
− =≤===−−
11
1 )(.).(.)('1
)1()(
nn
nttX
XX nXPncnXPncGt
GtG,
et en faisant tendre à nouveau t vers 1, on en déduit que : ∑+∞
=
=≤1
)(.)1('n
X nXPnG ,
ce qui permet finalement de conclure à l’égalité. Théorème 6.6 : variance de X et dérivabilité second e de GX en 1.
Soit X une variable aléatoire à valeurs dans et GX sa fonction génératrice. X admet une variance si et seulement si GX est deux fois dérivable à gauche en 1. Dans ce cas : 2)1(')1(')1('')( XXX GGGXV −+= .
Démonstration (hors programme) : On adapte la démonstration précédente :
Chapitre 10 : Variables aléatoires – Cours complet. - 28 -
• Si X admet une variance (et donc si X2 admet une espérance) alors la série ∑≥
=0
2 )(.n
nXPn converge,
ainsi que (puisque X admet alors une espérance, th. 5.1) ∑≥
=0
)(.n
nXPn .
Donc la série ∑≥
−=−2
2).().1.(n
ntnXPnn converge normalement sur [-1,+1] ce qui prouve que GX est en
particulier deux fois dérivable à gauche en 1, et que :
)()().().(1).1.().()1('' 2
11
2
1
2 XEXEnnXPnnXPnnnXPGnnn
nX −==−==−== ∑∑∑
+∞
=
+∞
=
+∞
=
− .
On en déduit que : 2222 )1(')1(')1('')()()1('')()()( XXXX GGGXEXEGXEXEXV −+=−+=−=
Théorème 6.7 : fonction génératrice d’une somme de deux variables indépendantes à valeurs dans . Soient X et Y deux variables aléatoires indépendantes et à valeurs dans . Si on note GX, GY et GX+Y les fonctions génératrices des variables X, Y et X+Y, alors : ∀ t ∈ [-1,+1], )().()( tGtGtG YXYX =+ .
Démonstration : Si on reprend la formule de transfert, on peut écrire :
∀ t ∈ [-1,+1], )().()(0
tGtnXPtE Xn
nX ===∑+∞
=
, et : )().()(0
tGtnYPtE Yn
nY ===∑+∞
=
,
avec un résultat identique pour (X+Y) : )().()(0
tGtnYXPtE YXn
nYX+
+∞
=
+ ==+=∑ .
Mais puisque X et Y sont indépendantes, tX et tY le sont aussi (th. 4.6) et : ∀ t ∈ [-1,+1], )().()().().()()( tGtGtEtEttEtEtG YX
YXYXYXYX ==== +
+ .
7. Annexe 1 : caractéristiques des lois classiques.
Nom Désignation P(X = k) E(X) V(X) GX(t) DG
Loi uniforme U(n) n
1
2
1+n
12
12 −n ∑
=
n
k
ktn 1
.1
Loi de Bernoulli B(p) • p , si : k = 1 • p−1 , si : k = 0
p )1.( pp − ).1( tpp +−
Loi binomiale B(n,p) knk ppk
n −−
)1.(. pn. )1.(. ppn − ntpp ).1( +−
Loi géométrique G(p) 1)1.( −− kpp p
1 2
1
p
p−
tp
tp
).1(1
.
−−
pt
−<
1
1
Loi de Poisson P(λ) !
.k
ekλλ− λ λ )1.( −teλ
Démonstration : Les résultat ci-dessus concernant la fonction génératrice GX ont été établis pour les loi géométrique et de Poisson. • Pour la loi uniforme U(n), on a immédiatement :
∀ t ∈ , ∑=
=n
k
kX t
ktG
1
.1
)( , et cette fonction est définie sur .
• Pour la loi de Bernoulli B(p), on a encore :
∀ t ∈ , tpptptptGX .1.).1()( 10 +−=+−= , et cette fonction est toujours définie sur .
• Pour la loi binomiale B(n,p), on a une fois de plus :
∀ t ∈ , nn
k
knkn
k
kknkX tppptp
n
ktpp
n
ktG ).1()1.()..(.)1.(.)(
00
. +−=−
=−
= ∑∑
=
−
=
− , fonction définie sur .
Chapitre 10 : Variables aléatoires – Cours complet. - 29 -
8. Annexe 2 : (hors programme) familles sommables de réels. Définition 8.1 : famille sommable de réels positifs , somme d’une telle famille sommable.
Soit I un ensemble quelconque et (xi)i∈I une famille de réels positifs. On dit que la famille (xi)i∈I est sommable lorsque l’ensemble ∑
∈Fiix , F finie, F ⊂ I est majoré.
On pose alors : ∑∈Ii
ix = sup∑∈Fi
ix , F finie, F ⊂ I.
Théorème 8.1 : dénombrabilité des éléments non nuls d’une famille sommable de réels positifs.
Soit (xi)i∈I une famille sommable de réels positifs. Alors l’ensemble J des indices : i ∈ I, tels que xi soit non nul est au plus dénombrable. De plus la famille (xi)i∈J est sommable et : ∑∑
∈∈
=Ji
iIi
i xx .
Démonstration : Notons : M = ∑
∈Iiix = sup∑
∈Fiix , F finie, F ⊂ I, et soit : n ∈ *.
Alors l’ensemble Fn des : i ∈ I, tels que : n
Mxi > , est fini, de cardinal majoré par (n+1).
En effet si Fn comportait strictement plus de (n+1) indices, on pourrait former un ensemble fini Fn’ de
(n+2) indices à partir des éléments de Fn et tel que : Mn
Mnx
nFii ≥+>∑
∈).1(
'
, et M ne pourrait être la
borne supérieure annoncée. Or : J = i ∈ I, xi ≠ 0 = U
0>nnF , résultat immédiat par double inclusion.
Comme réunion dénombrable d’ensembles finis, J est donc au plus dénombrable. Puisque de plus tous les termes dont les indices sont en dehors de J sont nuls, on a immédiatement : ∑
∈Fiix , F finie, F ⊂ I = ∑
∈Fiix , F finie, F ⊂ J, d’où la sommabilité de (xi)∈J puis : ∑
∈Iiix = sup∑
∈Fiix , F
finie, F ⊂ I = sup∑∈Fi
ix , F finie, F ⊂ I =∑∈Ji
ix .
Théorème 8.2 : lien entre famille sommable de réels positifs et série.
Soit (xi)i∈I une famille sommable de réels positifs et J l’ensemble (éventuellement fini) des indices de I tels que xi soit non nul. Soit (
njx )n∈ une énumération des éléments non nuls de la famille.
Alors la série ∑≥0n
jnx est convergente et : ∑∑
∈
+∞
=
=Ii
in
j xxn
0
.
Démonstration : • Soit : N ∈ , et : F = j0, …jN.
Puisque les termes de la famille sont positifs, on a donc : ∑∑∑∈∈=
≤=Ji
iFi
i
N
nj xxxn
0
.
Donc les sommes partielles de la série (à termes positifs) ∑≥0n
jnx sont majorées et la série converge.
De plus, en passant à la limite : ∑∑∈
+∞
=
≤Ji
in
j xxn
0
.
• Soit maintenant F une partie finie de J et soit : N ∈ , tel que : F ⊂ j0, …, jN. Un tel entier N existe puisque l’application : n a jn, est une énumération de J.
On a alors : ∑∑∑+∞
==∈
≤≤00 n
j
N
nj
Fii nn
xxx , puisque les réels sont positifs, et ceci étant vrai pour toute partie F
incluse dans J, on en déduit que : ∑∑+∞
=∈
≤0n
jJi
i nxx .
Chapitre 10 : Variables aléatoires – Cours complet. - 30 -
On obtient bien finalement l’égalité.
Théorème 8.3 : opérations sur les familles sommable s de réels positifs. Soient (xi)i∈I et (yi)i∈I deux familles de réels positifs. • si : ∀ i ∈ I, xi ≤ yi, et si la famille (yi)i∈I est sommable, alors (xi)i∈I est également sommable et :
∑∑∈∈
≤Ii
iIi
i yx .
• si (xi)i∈I et (yi)i∈I sont sommables, alors (xi + yi) est sommable et : ∑∑∑∈∈∈
+=+Ii
iIi
iIi
ii yxyx )( .
• si (xi)i∈I est sommable, alors : ∀ a ∈ +, (a.xi)i∈I est sommable et : ∑∑∈∈
=Ii
iIi
i xaxa .. .
Démonstration : • si (yi)i∈I est sommable, alors : ∀ F ⊂ I, finie, ∑∑∑
∈∈∈
≤≤Ii
iFi
iFi
i yyx , donc ∑∈Fi
ix , F finie, F ⊂ I est
majoré, la famille (xi)i∈I est sommable et : sup∑∈Fi
ix , F finie, F ⊂ I = ∑∑∈∈
≤Ii
iIi
i yx .
• Si (xi)i∈I et (yi)i∈I sont sommables alors : ∀ F ⊂ I, finie, ∑∑∑∑∑
∈∈∈∈∈
+≤+=+Ii
iIi
iFi
iFi
iFi
ii yxyxyx )( , et : ∑∈
+Fi
ii yx )( , F finie, F ⊂ I est majoré,
donc la famille (xi + yi)i∈I est sommable et : sup∑
∈
+Fi
ii yx )( , F finie, F ⊂ I = ∑∑∑∈∈∈
+≤+Ii
iIi
iIi
ii yxyx )( .
Soit par ailleurs deux parties finies F et G incluses dans I. Alors : ∑∑∑∑
∈∪∈∈∈
+≤+≤+Ii
iiGFi
iiGi
iFi
i yxyxyx )()( , d’où : ∑∑∑∈∈∈
−+≤Gi
iIi
iiFi
i yyxx )( .
Ceci étant vrai pour toute partie finie : F ⊂ I, et le majorant étant indépendant de F, on en déduit que :
∑∑∑∈∈∈
−+≤Gi
iIi
iiIi
i yyxx )( , d’où de plus : ∑∑∑∈∈∈
−+≤Ii
iIi
iiGi
i xyxy )( .
Enfin, cette dernière égalité est vraie pour toute partie finie : G ⊂ I, le majorant étant cette fois indépendant de G, donc on en déduit que : ∑∑∑
∈∈∈
−+≤Ii
iIi
iiIi
i xyxy )( , et finalement :
∑∑∑∈∈∈
+≤+Ii
iiIi
iIi
i yxyx )( .
Les deux inégalités obtenues permettent de conclure à l’égalité voulue. • Pour le dernier point, on raisonne de la même façon : ∀ F ⊂ I, finie, ∑∑∑
∈∈∈
≤=Ii
iFi
iFi
i xaxaxa ... ,
donc la famille (a.xi)i∈I est sommable et : ∑∑∈∈
≤Ii
iIi
i xaxa .. .
Si par ailleurs a est nul, l’égalité voulue est immédiate, et si a est non nul, alors la famille ( ixaa
..1
)i∈I est
sommable, avec ce qu’on vient d’établir et : ∑∑∑∈∈∈
≤=Ii
iIi
iIi
i xaa
xaa
x ..1
..1
.
Les deux inégalités donnent finalement l’égalité annoncée. Théorème 8.4 : sous-familles d’une famille sommable de réels positifs.
Soit (xi)i∈I une famille sommable de réels positifs. • si A est une partie de I, alors (xi)i∈A est sommable et : ∑∑∑
∈∈∈
≤=Ii
iIi
iAAi
i xxix ).(1 , où 1A est la fonction
indicatrice de A dans I (valant 1 ou 0 suivant que i appartient ou pas à A). • si : A ⊂ B ⊂ I, alors : ∑∑
∈∈
≤Bi
iAi
i xx .
• si A et B sont des parties disjointes de I (telles que : A∩B = ∅), alors : ∑∑∑∈∈∪∈
+=Bi
iAi
iBAi
i xxx .
Démonstration : • Notons que : ∀ i ∈ I, 0 ≤ 1A(i).xi ≤ xi, et donc (xi)∈I étant sommable, (1A(i).xi)i∈I l’est aussi.
Chapitre 10 : Variables aléatoires – Cours complet. - 31 -
De plus, soit : F ⊂ A, finie. Alors : ∀ i ∈ F, xi = 1A(i).xi, et donc : ∑∑∑
∈∈∈
≤=Ii
iAFi
iAFi
i xixix ).(1).(1 ,
ceci étant vrai pour toute partie finie F de A, on en déduit que (xi)i∈A est sommable puis que : ∑∑
∈∈
≤Ii
iAAi
i xix ).(1 .
D’autre part : ∀ G ⊂ I, finie, on a : ∑∑∑∈∩∈∈
≤=Ai
iGAi
iGi
iA xxxi).(1 , puisque G ∩ A est une partie finie de A.
Ceci étant vrai pour toute partie G finie incluse dans A, on en déduit que : ∑∑∈∈
≤Ai
iIi
iA xxi).(1 , et
finalement, on conclut avec l’égalité annoncée. • Si : A ⊂ B ⊂ I, il suffit de remarquer que : ∀ i ∈ I, 1A(i).xi ≤ 1B(i).xi, pour en déduire l’inégalité. • Pour ce dernier point, on remarque que : ∀ i ∈ I, 1A(i) + 1B(i) = 1A∪B(i).
Théorème 8.5 : sommation par paquets d’une famille sommable de réels positifs. Soit (xi)i∈I une famille de réels positifs et soit (Aj)j∈J une partition quelconque de I. La famille (xi)i∈I est sommable si et seulement si pour tout : j ∈ J, la famille (xi)
jAi∈ est sommable et si la
famille
JjAi
i
j
x∈∈
∑ est elle-même sommable.
Dans ce cas, on a alors : ∑ ∑∑∈ ∈∈
=
Jj Aii
Iii
j
xx ,
autrement dit, on peut d’abord sommer des sous-familles puis additionner les résultats. Démonstration :
• Supposons que (xi)i∈I est sommable. Alors puisque : ∀ j ∈ J, Aj ⊂ I, le théorème 8.4 montre que (xi)
jAi∈ est sommable.
On peut alors noter : ∀ j ∈ J, ∑∈
=jAi
ij xS .
Considérons alors : J0 ⊂ J, finie et notons : U0Jj
jAA∈
= , cette union étant disjointe.
Le théorème 8.4 généralisé par récurrence à un nombre fini d’ensembles disjoints donne :
∑∑∑ ∑∑∈∈∈ ∈∈
≤=
=
Iii
Aii
Jj Aii
Jjj xxxS
j00
.
La famille (Sj)j∈J est donc sommable et : ∑∑ ∑∑∈∈ ∈∈
≤
=
Iii
Jj Aii
Jjj xxS
j
.
• Supposons réciproquement que pour tout : j ∈ J, la famille (xi)jAi∈ est sommable et que la famille
JjAi
i
j
x∈∈
∑ est elle-même sommable.
Alors : ∀ F ⊂ I, finie, F a une intersection non vide avec un nombre fini d’ensembles Aj, dont on regroupe les indices dans l’ensemble fini JF.
On peut donc écrire F comme l’union disjointe : UFJj
jAFF∈
∩= )( , et : ∑ ∑∑∈ ∩∈∈
=
F jJj FAii
Fii xx , puisque
toutes les sommes sont en fait finies.
De plus, puisque : ∀ j ∈ JF, Aj ∩ F ⊂ Aj, on en déduit que : ∑∑ ∑∑∈∈ ∈∈
=
≤
FF j Jjj
Jj Aii
Fii Sxx , comme somme
finie de réels. JF étant finie incluse dans J, la sommabilité de la famille (Sj)j∈J permet d’écrire :
Chapitre 10 : Variables aléatoires – Cours complet. - 32 -
∑ ∑∑∑∈ ∈∈∈
=≤
Jj Aii
Jjj
Fii
j
xSx .
Enfin, ceci étant vrai pour tout : F ⊂ I, F finie, on conclut que la famille (xi)i∈I est sommable, puis que :
∑ ∑∑∈ ∈∈
≤
Jj Aii
Iii
j
xx .
• En regroupant les deux inégalités obtenues dans le cas où (xi)i∈I est sommable, on conclut bien à
l’égalité : ∑ ∑∑∑∈ ∈∈∈
==
Jj Aii
Jjj
Iii
j
xSx .
Définition 8.2 : famille sommable de réels quelconq ues, somme d’une famille sommable. Soit I un ensemble quelconque et (xi)i∈I une famille de réels. Pour tout réel x, on pose : • x+ = x, si : x ≥ 0, et : x+ = 0, si : x < 0, • x- = 0, si : x ≥ 0, et : x- = |x|, si : x < 0. On dit que la famille (xi)i∈I est sommable lorsque les familles de réels positifs (xi
+)i∈I et (xi-)i∈I sont
sommables. On pose alors : ∑∑∑
∈
−
∈
+
∈
−=Ii
iIi
iIi
i xxx .
Remarques :
• Cette définition est cohérente avec la définition de la sommabilité pour une famille de réels positifs. • On a l’égalité classique : ∀ x ∈ , x = x+ – x-, d’où la définition de la somme ∑
∈Iiix .
Théorème 8.6 : définition équivalente de la sommabi lité d’une famille de réels. Soit (xi)i∈I une famille de réels. La famille (xi)i∈I est sommable si et seulement si la famille ( ix )i∈I est sommable.
Dans ce cas, on a : ∑∑∑∈
−
∈
+
∈
+=Ii
iIi
iIi
i xxx .
Démonstration : • Supposons que la famille ( ix )i∈I soit sommable.
Alors les deux familles de réels positifs (xi+)i∈I et (xi
-)i∈I sont sommables car : ∀ x ∈ , 0 ≤ x+ ≤ x , et : 0 ≤ x- ≤ x ,
et en utilisant le th 8.3. • Supposons que (xi)i∈I soit sommable. Alors les deux familles de réels positifs (xi
+)i∈I et (xi-)i∈I sont sommables et la famille ( ix )i∈I est sommable
comme somme de familles sommables puisque : ∀ x ∈ , −+ += xxx .
La dernière égalité résulte elle aussi du th 8.3. Théorème 8.7 : sommabilité et séries absolument con vergentes, convergence commutative.
Soit (xi)i∈I une famille de réels. Si la famille (xi)i∈I soit sommable, l’ensemble J des indices i de I tels que xi soit non nul, est au plus dénombrable. Si J est dénombrable et infini et si (jn)n∈ est une énumération de J, alors la série ∑
≥0njn
x est absolument
convergente et : ∑∑∈
+∞
=
=Ii
in
j xxn
0
.
En particulier, si on considère une autre énumération de J, la nouvelle série obtenue est encore absolument convergente et sa somme est identique à la précédente : on parle alors de « convergence commutative » de la série qui signifie qu’on peut modifier comme on veut l’ordre de ses termes sans modifier son absolue convergence ou sa somme.
Chapitre 10 : Variables aléatoires – Cours complet. - 33 -
Démonstration : • Si (xi)i∈I est sommable, le théorème 8.1 montre que l’ensemble des indices i tels que ix soit non nul
est au plus dénombrable et cet ensemble coïncide avec l’ensemble J indiqué. • Si (jn)n∈ est une énumération de J, puisque (xi)i∈I est sommable, les familles (xi
+)i∈I et (xi-)i∈I le sont
aussi et en leur appliquant le th 8.2, les séries ∑≥
+
0njn
x et ∑≥
+
0njn
x sont convergentes, donc la série ∑≥0n
jnx
est convergente comme somme de ces deux séries.
De plus, puisque toujours d’après le th 8.2 on a : ∑∑∈
++∞
=
+ =Ii
in
j xxn
0
, et : ∑∑∈
−+∞
=
− =Ii
in
j xxn
0
, on en déduit que :
∑∑∑∑∑∑∈∈
−
∈
++∞
=
−+∞
=
++∞
=
=−=−=Ii
iIi
iIi
in
jn
jn
j xxxxxxnnn
000
.
Remarques :
• On aurait pu montrer que lorsque l’ensemble J précédent est au plus dénombrable, il y a équivalence entre sommabilité de la famille (xi)i∈I et absolue convergence de la série ∑
≥0njn
x pour toute énumération
de J • Si une série n’est que semi-convergente au contraire, modifier l’ordre des termes de la série peut faire perdre la convergence et même en cas de conservation de la convergence on peut ainsi modifier la somme de la série initiale en en permutant les termes. • Un théorème (technique) permet même de démontrer que si une série de réels ∑
≥0nnu est semi-
convergente , alors quelque soit : α ∈ , il existe une permutation σ de telle que la série ∑≥0
)(n
nuσ ait
pour somme α.
Théorème 8.8 : sous-familles de familles de réels s ommables. Soit (xi)i∈I une famille sommable de réels. • si A est une partie de I, alors (xi)i∈A est sommable. • si A et B sont des parties disjointes de I, alors : ∑∑∑
∈∈∪∈
+=Bi
iAi
iBAi
i xxx .
Démonstration : • Le premier point est une conséquence immédiate de la sommabilité et du th 8.4. • Pour le deuxième point, on commence par écrire que : ∑∑∑
∪∈
−
∪∈
+
∪∈
−=BAi
iBAi
iBAi
i xxx , de même pour les
sommes sur A et B, et on applique toujours le th 8.4 aux familles (xi+) et (xi
-), indexées par A, B et A∪B.
Théorème 8.9 : linéarité. Soient (xi)i∈I et (yi)i∈I des familles sommables de réels. • la famille (xi + yi)i∈I est sommable, et : ∑∑∑
∈∈∈
+=+Ii
iIi
iIi
ii yxyx )( .
• pour : (λ,µ) ∈ 2, (λ.xi + µ.yi)i∈I est sommable et : ∑∑∑∈∈∈
+=+Ii
iIi
iIi
ii yxyx ..)..( µλµλ .
Démonstration : • On a : ∀ i ∈ I, iiii yxyx +≤+ , ce qui prouve que famille (xi + yi)i∈I est sommable.
• De plus notons A, B, C, D, E et F les ensembles définis par : A = i ∈ I, xi ≥ 0, yi ≥ 0, B = i ∈ I, xi < 0, yi < 0, C = i ∈ I, xi ≥ 0, yi < 0, xi + yi ≥ 0, D = i ∈ I, xi ≥ 0, yi < 0, xi + yi < 0, E = i ∈ I, xi < 0, yi ≥ 0, xi + yi ≥ 0, F = i ∈ I, xi < 0, yi ≥ 0, xi + yi < 0. Pour A (tous les termes sont positifs), le th 8.3 donne : ∑∑∑
∈∈∈
+=+Ai
iAi
iAi
ii yxyx )( .
Pour B (tous les termes sont négatifs), le th 8.3 permet d’écrire :
Chapitre 10 : Variables aléatoires – Cours complet. - 34 -
∑∑∑∑∑∑∑∈∈∈
−
∈
−
∈
−−
∈
−
∈
+=−−=+−=+−=+Bi
iBi
iBi
iBi
iBi
iiBi
iiBi
ii yxyxyxyxyx )()()( .
En effet, on a bien : ∀ i ∈ B, −−− +=−−=+−=+ iiiiiiii yxyxyxyx )()( , et les termes sont cette fois
positifs d’où la possibilité d’appliquer le th 8.3. Pour C, on écrit : ∀ i ∈ C, iiii xyyx =−++ )()( .
Mais la famille (yi)i∈I est sommable donc également (– yi)i∈I puis (– yi)i∈C, et l’argument utilisé pour A s’applique (tous les termes sont positifs) pour donner : ∑∑∑
∈∈∈
−++=Ci
iCi
iiCi
i yyxx )()( .
On termine en remarquant que : ∑∑∑∑∈∈
−
∈
+
∈
−==−=−Ci
iCi
iCi
iCi
i yyyy )()( ce qui donne finalement :
∑∑∑∈∈∈
−+=Ci
iCi
iiCi
i yyxx )( , soit : ∑∑∑∈∈∈
+=+Ci
iCi
iCi
ii yxyx )( .
On démontre suivant des principes similaires, les mêmes égalités pour D, E et F. Par réunion de ces 6 ensembles disjoints et avec le th 8.8, on en déduit l’égalité voulue. • Soit maintenant : λ ∈ . Si : λ = 0, (λ.xi)i∈I est sommable et : 0.. == ∑∑
∈∈ Iii
Iii xx λλ .
Si : λ > 0, on a : ∀ i ∈ I, ++ = ii xx .).( λλ , et : −− = ii xx .).( λλ .
Donc le th 8.3 garantit que ( +).( ixλ )i∈I et ( −).( ixλ )i∈I sont sommables puis que :
∑∑∈
+
∈
+ =Ii
iIi
i xx .. λλ , et : ∑∑∈
−
∈
− =Ii
iIi
i xx .. λλ ,
d’où on déduit que (λ.xi)i∈I est sommable et : ∑∑∈∈
=Ii
iIi
i xx .. λλ .
Si enfin : λ < 0, alors : ∀ i ∈ I, −+ = ii xx .).( λλ , et : +− = ii xx .).( λλ , et en raisonnant de la même façon, on
en déduit à nouveau que (λ.xi)i∈I est sommable, puis l’égalité : ∑∑∈
−
∈
− =Ii
iIi
i xx .. λλ .
• Le cas où on envisage (λ.xi + µ.yi)i∈I, résulte des deux points que l’on vient de démontrer.
Théorème 8.10 : sommation par paquets d’une famille sommable de réels. Soit (xi)i∈I une famille de réels et soit (Aj)j∈J une partition quelconque de I. La famille (xi)i∈I est sommable si et seulement si : • ∀ j ∈ J, la famille (xi)
jAi∈ est sommable et :
• la famille Jj
Aii
j
x∈∈
∑ est elle-même sommable.
Dans ce cas, on a encore : ∑ ∑∑∈ ∈∈
=
Jj Aii
Iii
j
xx ,
autrement dit, on peut d’abord sommer des sous-familles puis additionner les résultats. Démonstration :
Le premier résultat est une conséquence directe de l’équivalence prouvée dans le th 8.5. Si maintenant on suppose que (xi)i∈I est sommable, alors : ∀ j ∈ J, (xi)
jAi∈ est sommable et :
∀ j ∈ J, ∑∑∑∈∈
−
∈
+ =−jjj Ai
iAi
iAi
i xxx .
De plus, les deux familles (xi+)i∈I et (xi
-)i∈I sont sommables et à termes positifs donc le th 8.5 permet
d’affirmer que les familles
JjAi
i
j
x∈∈
+
∑ et
JjAi
i
j
x∈∈
−
∑ sont sommables et que :
∑ ∑∑∈ ∈
+
∈
+
=
Jj Aii
Iii
j
xx , et : ∑ ∑∑∈ ∈
−
∈
−
=
Jj Aii
Iii
j
xx .
Chapitre 10 : Variables aléatoires – Cours complet. - 35 -
Le th 8.9 garantit alors que
JjAi
iAi
i
jj
xx∈∈
−
∈
+
−∑∑ est encore sommable et que :
∑ ∑∑ ∑∑ ∑∑∈ ∈
−
∈ ∈
+
∈ ∈
−
∈
+
−
=
−
Jj Aii
Jj Aii
Jj Aii
Aii
jjjj
xxxx .
En regroupant les résultats précédents, on conclut que :
∑ ∑∑ ∑∑∑ ∑∑ ∑∑∑∑∈ ∈∈ ∈
−
∈
+
∈ ∈
−
∈ ∈
+
∈
−
∈
+
∈
=
−=
−
=−=
Jj Aii
Jj Aii
Aii
Jj Aii
Jj Aii
Iii
Iii
Iii
jjjjj
xxxxxxxx .
Remarque :
Dans cette équivalence, la présence des valeurs absolues dans Jj
Aii
j
x∈∈
∑ est essentielle.
En effet, si on considère la série ∑≥
−0
)1(n
n , et les ensembles : Aj = 2.j, 2.j+1, avec ; j ∈ , alors toute
famille (xj)jAi∈ est sommable (avec deux éléments : 1 + |– 1| = 2, pour tout j) mais la famille
JjAi
i
j
x∈∈
∑ n’est pas sommable alors que
JjAi
i
j
x∈∈
∑ l’est (famille nulle).
La série considérée n’étant pas absolument convergente, la famille globale ne peut être sommable.
Théorème 8.11 : théorème de Fubini pour les famille s sommables de réels. Soit (xi,j)(i,j)∈I×J une famille « double » de réels. Il y a équivalence entre : • la famille (xi,j)i,j∈I×J est sommable,
• ∀ j ∈ J, la famille (xi,j)i∈I est sommable et la famille JjIi
jix∈∈
∑ , est sommable,
• ∀ i ∈ I, la famille (xi,j)j∈J est sommable et la famille IiJj
jix∈∈
∑ , est sommable.
Si l’une de ces trois affirmations est vérifiée, alors : ∑ ∑∑ ∑∑∈ ∈∈ ∈×∈
=
=Ii Jj
jiJj Ii
jiJIji
ji xxx ,,),(
, .
Démonstration : Il suffit d’appliquer deux fois le th 8.10 avec les partitions : I×J = UU
JjIi
jIJi∈∈
×=× .