Chapitre 6 Couples et suites de variables aléatoires discrètes

publicité
ECE 2 - Mathématiques
Mr Dunstetter - ENC-Bessières 2014\2015
Couples et suites de vad
Chapitre 6
Couples et suites de variables
aléatoires discrètes
I Couples de variables aléatoires discrètes : dénitions
Dans toute cette partie, on considère X et Y deux variables aléatoires réelles discrètes dénies sur le
même espace probabilisé (Ω, A, P ).
1
Lois
a) Loi conjointe ou loi du couple
Dénition 1
On appelle loi conjointe de (X, Y ) ou loi du couple (X, Y ) la donnée de :
- l'ensemble (X, Y )(Ω) = X(Ω) × Y (Ω) = {(i, j) i ∈ X(Ω), j ∈ Y (Ω)}, appelé le support du couple.
- pour tout (i, j) ∈ (X, Y )(Ω), la probabilité P (X = i) ∩ (Y = j) .
Exemple : Cas ni et présentation en tableau.
On lance successivement deux dés, et on note X1 le résultat du premier lancer et X2 la somme des deux résultats.
PP
P
X
2
3
4
5
6
7
1
1
36
1
36
1
36
1
36
1
36
2
0
1
36
1
36
1
36
3
0
0
1
36
4
0
0
5
0
6
Loi de X2
X1
PP 2
PP
8
9
10
11
12
Loi de X1
1
36
0
0
0
0
0
1
6
1
36
1
36
1
36
0
0
0
0
1
6
1
36
1
36
1
36
1
36
1
36
0
0
0
1
6
0
1
36
1
36
1
36
1
36
1
36
1
36
0
0
1
6
0
0
0
1
36
1
36
1
36
1
36
1
36
1
36
0
1
6
0
0
0
0
0
1
36
1
36
1
36
1
36
1
36
1
36
1
6
1
36
1
18
1
12
1
9
5
36
1
6
5
36
1
9
1
12
1
18
1
18
H
HH 1
H
H
1
1
ECE 2 - Mathématiques
Mr Dunstetter - ENC-Bessières 2014\2015
Couples et suites de vad
b) Lois marginales
Dénition 2
On appelle lois marginales du couple (X, Y ) les lois de X et de Y .
Méthode : obtenir les lois marginales à partir de la loi du couple
Soit xi ∈ X(Ω), on cherche P (X = xi ).
La valeur X = xi peut être obtenue avec en même temps n'importe quelle valeur de Y = yj . On va sommer
toutes ces possibilités grâce à la formule des probabilités totales :
Le système (Y = yj )yj ∈Y (Ω) est un système complet d'évènements, car il représente toutes les issues
possibles de la variable aléatoire Y .
La formule des probabilités totales donne alors :
P
P (X = xi ) =
P (X = xi ) ∩ (Y = yj )
yj ∈Y (Ω)
et la donnée de la loi de couple permet de remplacer chaque terme de la somme par sa valeur, puis de
calculer la probabilité cherchée.
De même pour tout yj ∈ Y (Ω) on a :
P
P (Y = yj ) =
P (X = xi ) ∩ (Y = yj )
xi ∈X(Ω)
.
Exemple : Cas ni et présentation en tableau.
Les lois marginales s'obtiennent en sommant les probabilités des diérentes lignes et colonnes du tableau de la loi
conjointe.
c) Lois conditionnelles
Dénition 3
Soit (X = xi ) un évènement élémentaire de la variable X .
On appelle loi conditionnelle de Y sachant (X = xi ) et on note P(X=xi ) la loi :
P(X=xi ) (Y = yj ) =
P (X=xi )∩(Y =yj )
P (X=xi )
qui représente les probabilités, si l'évènement (X = xi ) est arrivé, que chacun des évènements de la loi
de Y soient arrivés simultanément.
Méthode : obtenir la loi du couple à partir des lois marginales et conditionnelles.
Dans la plupart des cas, les couples considérés sont obtenues après deux épreuves successives : c'est alors
la connaissance, à l'aide de l'étude du problème, de la loi de la première épreuve et des lois conditionnelles
de la deuxième épreuve sachant la première qui permettront d'obtenir la loi du couple.
On utilisera toujours avec prot une représentation en arbre au brouillon pour modéliser ce type de
situation.
On
avec la formule de Bayes :
rédigera ensuite proprement
P (X = xi ) ∩ (Y = yj ) = P (X = xi ) × P(X=xi ) (Y = yj ) = . . . .
Exemple : Cas ni et présentation en tableau.
La loi conditionnelle sachant (X = xi ) est la ligne (ou la colonne) (X = xi ), pondérée par le total de la colonne,
égal à P (X = xi ).
xi
Loi de X1 sachant X2 = 4
:
1
2
3
4
5
6
PX2 =4 (X1 = xi )
1
3
1
3
1
3
0
0
0
.
2
ECE 2 - Mathématiques
Mr Dunstetter - ENC-Bessières 2014\2015
Couples et suites de vad
Loi de X2 sachant (X1 = 4) :
yj
P(X1 =4) (X2 = yj )
2
2
3
4
0
0
0
5
1
6
6
1
6
7
1
6
8
1
6
9
1
6
10
11
12
1
6
0
0
Indépendance de deux variables aléatoires réelles discrètes
a) Rappel : Indépendance de deux évènements
Dénition 4
Deux évènements A et B non négligeables (c'est-à-dire de probabilité non nulle) sont dits indépendants
lorsque P (A ∩ B) = P (A)P (B), ou encore P (A) = PB (A), ou encore P (B) = PA (B).
Intuitivement, cela correspond au fait que les évènements A et B n'ont aucune inuence l'un sur
l'autre.
b) Indépendance de variables aléatoires réelles
Dénition 5
Deux variables aléatoires réelles sont dites indépendantes si pour tout x ∈ X(Ω) et tout y ∈ Y (Ω), les
évènements (X = x) et (Y = y) sont indépendants, c'est-à-dire :
∀x ∈ X(Ω), ∀y ∈ Y (Ω), P (X = x) ∩ (Y = y) = P (X = x)P (Y = y)
Cela signie que le résultat de chaque variable aléatoire, quel qu'il soit, n'inue pas sur le résultat de
l'autre.
3
Covariance de deux variables aléatoires
a) Dénition
Dénition 6
Soit (X, Y ) un couple de variables aléatoires discrètes, telles que X et Y admettent un moment d'ordre
deux.
Alors la variable aléatoire XY admet une espérance, et on pose :
cov(X, Y ) = E [X − E(X)] × [Y − E(Y )]
b) Théorème de Koenig-Huyghens
Propriété 1
cov(X, Y ) = E(XY ) − E(X)E(Y )
Preuve
cov(X, Y ) = E XY − XE(Y ) − E(X)Y + E(X)E(Y ) = E(XY ) − E XE(Y ) − E E(X)Y + E(X)E(Y )
= E(XY ) − E(X)E(Y ) − E(X)E(Y ) + E(X)E(Y ) = E(XY ) − E(X)E(Y ).
c) Propriétés
Symétrie : cov(X, Y ) = cov(Y, X).
Lien avec la (
variance : pour toute variable aléatoire réelle X , cov(X, X) = V (X).
cov(aX + bY, Z) = a cov(X, Z) + b cov(Y, Z)
Bilinéarité :
: il y a linéarité par rapport à chaque
cov(X, aY + bZ) = a cov(X, Y ) + b cov(X, Z)
variable ; la covariance se traite comme une distributivité d'un produit de facteurs.
3
ECE 2 - Mathématiques
Mr Dunstetter - ENC-Bessières 2014\2015
Couples et suites de vad
d) Coecient de corrélation linéaire
Dénition 7
Soit (X, Y ) un couple de variables aléatoires discrètes, telles que X et Y admettent une espérance et
une variance non nulle.
Alors (X, Y ) admet une covariance et on pose :
ρ(X, Y ) =
cov(X,Y )
σ(X)σ(Y )
le coecient de corrélation linéaire de X et Y .
Propriété 2
Pour tout couple de variables aléatoires réelles discrètes (X, Y ), on a :
−1 ≤ ρ(X, Y ) ≤ 1.
si ρ(X, Y ) = 1, alors il existe a > 0 et b ∈ R tel que Y = aX + b.
si ρ(X, Y ) = −1, alors il existe a < 0 et b ∈ R tel que Y = aX + b.
Preuve
La preuve de cette propriété, pas évidente mais absolument remarquable, sera réalisée en exercice dicile (des résultats
similaires sont déjà tombés à l'Essec et à HEC).
e) Cas de variables aléatoires indépendantes
Propriété 3
Si X et Y sont des variables aléatoires indépendantes, on verra que E(XY ) = E(X)E(Y ).
On en déduit alors :
cov(X, Y ) = ρ(X, Y ) = 0
Remarque
Cela résultat permet de prouver que des variables ne sont pas indépendantes, mais pas l'inverse :
Si cov(X, Y ) 6= 0, les deux variables ne peuvent pas être indépendantes.
En revanche, si cov(X, Y ) = 0, X et Y peuvent être indépendantes !
Exemple
Dans l'exemple précédent on a :
E(X1 ) = 3, 5 (assez simple) et E(X2 ) = 7 (un peu plus lourd à calculer).
Pour calculer E(XP
1 X2 ), on va anticiper sur la suite et utiliser le théorème de transfert à deux variables :
xyP (X = x) ∩ (Y = y)
E(X1 X2 ) =
(x,y)∈(X,Y )(Ω)
1
1 × (2 + 3
36
+ 4 + 5 + 6 + 7) + 2 × (3 + 4 + 5 + 6 + 7 + 8) + 3 × (4 + 5 + 6 + 7 + 8 + 9) + 4 × (5 + 6 +
E(X1 X2 ) =
7 + 8 + 9 + 10) + 5 × (6 + 7 + 8 + 9 + 10 + 11) + 6 × (7 + 8 + 9 + 10 + 11 + 12)
1
E(X1 X2 ) = 36
27 + 2 × 33 + 3 × 39 + 4 × 45 + 5 × 51 + 6 × 57
1
E(X1 X2 ) = 36
27 + 66 + 117 + 180 + 255 + 342 = 210+435+342
= 987
= 329
.
6
36
12
Enn on obtient cov(X1 , X2 ) =
indépendantes.
329
12
−7×
7
2
=
329
12
−
49×6
2×6
=
329−294
12
=
35
12
6= 0 donc X1 et X2 ne sont pas
On aurait aussi pu écrire, avec X et Y les deux lancers indépendants :
cov(X1 , X2 ) = cov(X, X + Y ) = cov(X, X) + cov(X, Y ) = V (X) + 0 = V (X).
Or V (X) = 16 × (1−3, 5)2 +(2−3, 5)2 +(3−3, 5)2 +(4−3, 5)2 +(5−3, 5)2 +(6−3, 5)2 =
70
35
= 24 = 12 , et on retrouve (beaucoup plus vite) le résultat.
1
× 25
+ 94 + 41 + 14 + 94 + 25
2
4
4
4
ECE 2 - Mathématiques
Mr Dunstetter - ENC-Bessières 2014\2015
Couples et suites de vad
II Variables aléatoires g(X, Y )
Dans toute cette partie, (X, Y ) désigne un couple de variables aléatoires réelles discrètes et g une fonction
de deux variables, dénie en tout élément du support (X, Y )(Ω) de (X, Y ).
1
Loi de
g(X, Y )
Méthode
Pour obtenir la loi d'une variable Z = g(X, Y ) on applique les deux points suivants :
On détermine en premier lieu les valeurs possibles Z(Ω).
Pour chaque valeur z ∈ Z(Ω), on cherche alors la probabilité P (Z = z) = P (g(X, Y ) = z) :
Le problème vient du fait que l'évènement dont on cherche la probabilité met en jeu deux variables
aléatoires.
Comme pour les lois marginales, on se ramène à la loi du couple à l'aide des probabilités totales,
en utilisant le système complet d'évènements d'une des deux variables aléatoires.
On a alors une somme et on transforme l'intersection habilement pour se ramener à un évènement
de la forme (X = x) ∩ (Y = y) de la loi du couple.
On peut enn remplacer puis calculer les probabilités puis la somme.
a) Cas général
Pour tout couple (X, Y ) on a g(X, Y )(Ω) = {g(x, y) x ∈ X(Ω), y ∈ Y (Ω)}.
De plus avec le système complet
d'évènement (X = xi )xi ∈X(Ω) , pour tout z ∈ g(X, Y )(Ω) on a :
P
P
P g(X, Y ) = z =
P (X = xi ) ∩ (g(X, Y ) = z) =
P (X = xi ) ∩ (g(xi , Y ) = z) .
xi ∈X(Ω)
xi ∈X(Ω)
Enn on résout selon la fonction g pour écrire l'évènement g(xi , Y ) = z sous la forme Y = .... et on
peut utiliser la loi du couple.
On peut évidemment faire la même opération avec le système complet d'évènement de Y :
P g(X, Y ) = z =
P
P (Y = yj ) ∩ (g(X, Y ) = z) =
yj ∈Y (Ω)
P (Y = yj ) ∩ (g(X, yj ) = z) .
P
yj ∈X(Ω)
b) Somme
Pour tout couple (X, Y ) on a (X + Y )(Ω) = {x + y x ∈ X(Ω), y ∈ Y (Ω)}.
De plus pour tout z ∈ (X + Y )(Ω) avec le système complet
(X = xi )xi ∈X(Ω) on a :
P
P
P X +Y =z =
P (X = xi ) ∩ (X + Y = z) =
P (X = xi ) ∩ (Y = z − xi ) .
xi ∈X(Ω)
xi ∈X(Ω)
Ou avec le système complet (Y = yj )yj ∈Y (Ω) on a :
P
P X +Y =z =
P (Y = yj ) ∩ (X + Y = z) =
yj ∈Y (Ω)
P
P (Y = yj ) ∩ (X = z − yj ) .
yj ∈Y (Ω)
Il convient alors de faire attention au fait que l'évènement (Y = z − xi ) (ou (X = z − yj )) peuvent
être impossibles si la valeur z − xi (ou z − yj ) n'est pas dans Y (Ω) ( X(Ω) ). On restreint donc les valeurs
sur lesquelles on somme avant de remplacer avec la loi du couple.
c) Produit
Pour tout couple (X, Y ) on a (XY )(Ω) = {xy x ∈ X(Ω), y ∈ Y (Ω)}.
De plus pour
(X = xi )xi ∈X(Ω) on a : )(Ω) avec le système complet
toutPz ∈ (XY
P
P XY = z =
P (X = xi ) ∩ (XY = z) =
P (X = xi ) ∩ (Y = xzi ) .
xi ∈X(Ω)
xi ∈X(Ω)
Ou avec le système complet (Y = yj )yj ∈Y (Ω) on a :
P
P
P XY = z =
P (Y = yj ) ∩ (XY = z) =
yj ∈Y (Ω)
yj ∈Y (Ω)
P (Y = yj ) ∩ (X =
z
yj )
.
5
ECE 2 - Mathématiques
Mr Dunstetter - ENC-Bessières 2014\2015
Couples et suites de vad
d) Somme de lois binomiales
Propriété 4
Soient deux variables aléatoires réelles dénies sur le même espace probabilisé, avec X ,→ B(n, p) et
Y ,→ B(n0 , p), et X et Y indépendantes.
Alors X + Y ,→ B(n + n0 , p)
Preuve
Cela revient à eectuer n + n0 tirages de Bernouilli indépendants, et à compter le nombre de succès car on ajoute le nombre
de succès sur les n premiers tirages et le nombre de succès sur les n0 suivants.
Conséquences
- Si X1 ,→ B(n1 , p), . . . , Xk ,→ B(nk , p) sont indépendantes, alors
k
P
Xi
,→ B
i=1
k
P
ni , p .
i=1
- Si X1 , . . . , Xn suivent des lois de Bernouilli de paramètres p et sont indépendantes, alors :
n
P
X=
Xi ,→ B(n, p).
i=1
e) Sommes de lois de Poisson
Propriété 5
Soient deux variables aléatoires réelles dénies sur le même espace probabilisé, avec X ,→ P(λ) et
Y ,→ P(λ0 ), et X et Y indépendantes.
Alors X + Y ,→ B(λ + λ0 ).
Preuve
- (X + Y )(Ω) = N.
Pour le calcul des probabilités, on paramètre par X : avec la formule des probabilités totales appliquée au système complet
d'évènement (X = i)i∈N on a :
- ∀k ∈ N, P (X + Y = k) =
+∞
P
P (X + Y = k) ∩ (X = i)
i=0
=
+∞
P
+∞
P P (i + Y = k) ∩ (X = i) =
P (Y = k − i) ∩ (X = i)
=
i=0
+∞
P
P (X = i)P (Y = k − i) =
i=0
i=0
k
P
i=0
0
= e−λ−λ
k
P
i=0
k
i
×
1
k!
λi −λ
e
i!
×
(λ0 )k−i −λ0
e
(k−i)!
0
× λi × (λ0 )k−i = e−(λ+λ
0 k
) (λ+λ )
k!
+
+∞
P
i=k+1
λi −λ
e
i!
×0
, et on reconnaît bien la loi de Poisson de paramètre λ + λ0 .
Conséquence
Si X1 ,→ P(λ1 ), . . . , Xn ,→ P(λn ) sont indépendantes, alors
n
P
i=1
2
Espérance de
Xi
,→ P
n
P
λi .
i=1
g(X, Y )
a) Cas général : théorème de transfert
Propriété 6
Soit (X, Y ) un couple de variables aléatoires discrètes. Sous réserve de convergence, on a :
E[g(X, Y )]
g(x, y)P (X = x) ∩ (Y = y)
x∈X(Ω) y∈Y (Ω)
P
P
=
g(x, y)P (X = x) ∩ (Y = y)
=
P
P
y∈Y (Ω) x∈X(Ω)
6
ECE 2 - Mathématiques
Mr Dunstetter - ENC-Bessières 2014\2015
Couples et suites de vad
b) Linéarité de l'espérance
Propriété 7
Soit (X, Y ) un couple de variables aléatoires discrètes. Sous réserve de convergence, on a :
E[λX + µY ] = λE(X) + µE(Y )
Preuve
PP
E(λX + µY ) =
(λx + µy)P (X = x) ∩ (Y = y)
x y
P P P P = λ x P (X = x) ∩ (Y = y) + µ y
P (X = x) ∩ (Y = y)
x
y
y
x
P
P
= λ x × P (X = x) + µ y × P (Y = y)
x
= λE(X) + µE(Y ).
y
Conséquence
En posant Y la variable constante égale à b, on a E(Y ) = b puis :
E(aX + b) = E(aX + Y ) = aE(X) + E(Y ) = aE(X) + b, et on prouve donc la linéarité de l'espérance
dans sa forme partielle, vue en première année.
c) Espérance d'un produit de variables aléatoires réelles discrètes indépendantes
Propriété 8
Soit (X, Y ) un couple de variables aléatoires réelles discrètes indépendantes. Alors :
E(XY ) = E(X)E(Y )
Preuve
PP
E(X + Y ) =
xyP (X = x) ∩ (Y = y)
x y
P P
=
x
yP (X = x)P (Y = y) par indépendance de X et Y
x
y
P
P
=
xP (X = x)
y × P (Y = y)
x
y
P
P
=
xP (X = x) × E(Y ) = E(Y ) xP (X = x) = E(Y )E(X) = E(X)E(Y ).
x
3
x
Variance d'une somme
a) Cas général
Propriété 9
Soit (X, Y ) un couple de variables aléatoires réelles discrètes admettant des moments d'ordre deux.
Alors X + Y admet une variance et :
V (X + Y ) = V (X) + V (Y ) + 2 cov(X, Y )
Preuve
On utilise astucieusement la covariance :
V (X + Y ) = cov(X + Y, X + Y ) = cov(X, X) + cov(X, Y ) + cov(Y, X) + cov(Y, Y ) = V (X) + V (Y ) + 2 cov(X, Y ).
Remarque
Cette formule est très importante, en particulier pour calculer... des covariances !
En eet il est très dicile de calculer E(XY ) dès que les variables X et Y admettent plus de quelques valeurs possibles. Mais le résultat ci-dessus permet de l'obtenir lorsqu'on connaît la variance de X + Y , qui se calcule
assez bien grâce à la loi de X + Y (voir paragraphes précédents), notamment dans le cas de lois usuelles.
Cette formule permettra de déduire que cov(X, Y ) = 21 [V (X + Y ) − V (X) − V (Y )].
7
ECE 2 - Mathématiques
Mr Dunstetter - ENC-Bessières 2014\2015
Couples et suites de vad
b) Cas de variables indépendantes
Propriété 10
Soit (X, Y ) un couple de variables aléatoires réelles discrètes indépendantes admettant des moments
d'ordre deux. Alors :
V (X + Y ) = V (X) + V (Y )
Preuve
On applique le résultat précédent, et l'indépendance des variables X et Y donne cov(X, Y ) = 0, et le résultat est obtenu.
III Suites de variables aléatoires réelles discrètes
1
Indépendance d'une suite de variables aléatoires
a) Cas ni
Dénition 8
Si X1 , . . . , Xn sont n variables aléatoires discrètes dénies sur un même espace probabilisé, on
dit qu'elles sont indépendantes si :
∀(x1 , . . . , xn ) ∈ Rn , P
n
T
[Xi = xi ]
=
i=1
n
Q
P (Xi = xi )
i=1
On parle aussi de variables mutuellement indépendantes pour faire la diérence avec des variables
deux à deux indépendantes, ce qui est une propriété moins forte (et jamais utilisée dans le cadre de
l'ECE).
b) Cas inni
Dénition 9
Si (Xn )n∈N une suite de variables aléatoires discrètes dénies sur un même espace probabilisé,
on dit qu'elles sont indépendantes si pour tout sous-ensemble ni J de N, les variables (Xj )j∈J sont
indépendantes, au sens précédent puisqu'elles sont en nombre ni.
Cela donne en mathématiques :
!
∀J ⊂ N ni, ∀(xj )j∈J ∈ RJ , P
T
j∈J
[Xj = xj ]
=
Q
P (Xj = xj )
j∈J
c) Lemme des coalitions.
Propriété 11
Soient X1 , . . . , Xn sont n variables aléatoires discrètes indépendantes.
Alors pour toutes fonctions f et g on a :
f (X1 , . . . , Xp ) et g(Xp+1 , . . . , Xn ) sont indépendantes.
Remarque
Cette propriété est admise, mais elle semble évidente avec la notion "intuitive" d'indépendance ; elle est cependant
très pénible à prouver rigoureusement.
8
ECE 2 - Mathématiques
Mr Dunstetter - ENC-Bessières 2014\2015
2
Couples et suites de vad
Linéarité de l'espérance
Propriété 12
Si X1 , . . . , Xn sont n variables aléatoires discrètes dénies
admettant toutes une espérance.
n
P
Alors la variable X =
Xi admet une espérance, et on a :
sur un même espace probabilisé,
i=1
n
P
E(X) = E
Xi
=
i=1
n
P
E(Xi )
i=1
Preuve
On eectue une récurrence a partir de la linéarité avec deux variables, prouvée précédemment.
3
Variance d'une somme
a) Cas général
Propriété 13
Si X1 , . . . , Xn sont n variables aléatoires discrètes dénies
admettant toutes une variance.
n
P
Xi admet une variance, et on a :
Alors la variable X =
sur un même espace probabilisé,
i=1
V (X) = V
n
P
Xi
=
i=1
n
P
V (Xi ) +
i=1
P
cov(Xi , Xj )
i6=j
Remarques
1. Cette propriété n'est a priori jamais utilisée, sauf peut-être dans le cas de 3 variables (et encore...)
Elle se prouve, sur le même modèle
! que la variance d'une somme de deux variables, en développant
V
n
P
i=1
Xi
n
P
= cov
Xi ,
i=1
n
P
j=1
Xj .
2. Pour n = 2, on retrouve bien entendu la formule fondamentale V (X + Y ) = V (X) + V (Y ) + 2 cov(X, Y ).
b) Cas indépendant
Propriété 14
Si X1 , . . . , Xn sont n variables aléatoires discrètes indépendantes, admettant toutes une variance.
n
P
Alors la variable X =
Xi admet une variance, et on a :
i=1
V (X) = V
n
P
i=1
Xi
=
n
P
V (Xi )
i=1
Remarque
Attention, même dans le cas de variables indépendantes, il n'y a pas de linéarité de la variance.
Par exemple, on remarquera que V (X − Y ) = V (X) + V (−Y ) = V (X)+V (Y ).
9
Téléchargement