chap7_vecteurs_aleatoires

publicité
BCPST 2
Lycée Sainte Geneviève
Chapitre 7 : Vecteurs aléatoires discrets
1
1.1
Lois associées à un vecteur aléatoire
Définitions
Définition 1. Soit (Ω, T ) un espace probabilisable. On appelle vecteur aléatoire toute application
Z : Ω → Rn de la forme Z = (X1 , . . . , Xn ) où X1 , . . . , Xn sont des variables aléatoires réelles. Plus précisément :
Ω →
Rn
Z:
ω → (X1 (ω), . . . , Xn (ω))
Définition 2. Soit Z = (X1 , . . . , Xn ) un vecteur aléatoire réel. Si ses composantes sont des VA réelles
discrètes alors Z est dit discret. L’ensemble des valeurs prises par le vecteur est alors au plus dénombrable.
L’application :
ImX1 × . . . × ImXn →
[0, 1]
πZ :
(x1 , . . . , xn )
→ P ((X1 = x1 ) ∩ . . . ∩ (Xn = xn ))
est appelée loi du vecteur Z ou encore loi conjointe des variables aléatoires X1 , . . . , Xn .
Définition 3. Soit Z = (X1 , . . . , Xn ) un vecteur aléatoire réel. Pour tout i ∈ J1, nK, on appelle i-ème loi
marginale de Z la loi de Xi .
Proposition 1. Lois marginales en fonction de la loi conjointe
Soit (X, Y ) un couple de variables aléatoires réelles dicrètes. Si on note X(Ω) = {xi , i ∈ I} et
Y (Ω) = {yj , j ∈ J} avec I et J des parties de N, on retrouve les lois marginales de X et de Y de la façon
suivante :
X
X
∀i ∈ I, P (X = xi ) =
P ((X = xi ) ∩ (Y = yj )) et ∀j ∈ J, P (Y = yj ) =
P ((X = xi ) ∩ (Y = yj ))
j∈J
i∈I
Définition 4. Pour tout couple (X, Y ) de VA réelles discrètes, et pour tout γ ∈ Y (Ω) tel que P (Y = γ) 6= 0,
on définit la loi conditionnelle de X sachant (Y = γ) comme étant l’application

[0, 1]
 X(Ω) →
P ((X = α) ∩ (Y = γ))
→
 α
P (Y = γ)
P ((X = α) ∩ (Y = γ))
.
P (Y = γ)
De même on définit, pour tout α ∈ X(Ω) tel que P (X = α) =
6 0, la loi conditionnelle de Y sachant
(X = α), par
P ((X = α) ∩ (Y = γ))
P(X=α) (Y = γ) =
P (X = α)
et on note P(Y =γ) (X = α) =
1
Proposition 2. Liens entre les différentes lois liées à un couple discret
Soit (X, Y ) un couple de variables aléatoires réelles dicrètes. On note X(Ω) = {xi , i ∈ I} et Y (Ω) =
{yj , j ∈ J} avec I et J des parties de N. On suppose que pour tout (i, j) ∈ I × J, P (X = xi ) 6= 0 et
P (Y = yj ) 6= 0. On a, pour tout (i, j) ∈ I × J :
P ((X = xi ) ∩ (Y = yj )) = P(Y =yj ) (X = xi ) P (Y = yj ) = P(X=xi ) (Y = yj ) P (X = xi )
et
P (X = xi ) =
X
P(Y =yk ) (X = xi ) P (Y = yk )
P (Y = yj ) =
k∈J
1.2
X
P(X=xk ) (Y = yj ) P (X = xk )
k∈I
Formule de transfert
Théorème 1. Formule de transfert
Pour tout couple (X, Y ) de VA réelles discrètes, telles que X(Ω) = {xi , i ∈ I} et Y (Ω) = {yj , j ∈ J}
avec I et J des parties de N et pour toute fonction f définie sur X(Ω)
X × Y (Ω), la VA réelle discrète
f (xi , yj )P ((X = xi ) ∩ (Y = yj ))
Z = f (X, Y ) admet une espérance si et seulement si la série double
i,j
converge absolument. Et dans ce cas
XX
XX
E(Z) =
f (xi , yj )P ((X = xi ) ∩ (Y = yj )) =
f (xi , yj )P ((X = xi ) ∩ (Y = yj ))
j∈J i∈I
i∈I j∈J
2
Indépendance
Définition 5. Deux VA aléatoires réelles discrètes sur un même espace probabilisé (Ω, T , P ) sont dites
indépendantes si :
∀(α, γ) ∈ ImX × ImY, P ((X = α) ∩ (Y = γ)) = P (X = α)P (Y = γ)
Proposition 3. Soient X et Y deux VA réelles discrètes. Si elles sont indépendantes alors pour toutes
parties A ⊂ X(Ω) et B ⊂ Y (Ω), les événements (X ∈ A) et (Y ∈ B) sont indépendants
Définition 6. Soient X1 , . . . , Xn des VA réelles discrètes sur un même espace probabilisé (Ω, T , P ).
• Elles sont dites indépendantes deux à deux si pour tout (i, j) ∈ J1, nK2 avec i 6= j, Xi et Xj sont
indépendantes.
• Elles sont dites mutuellement indépendantes si pour tout (α1 , . . . , αn ) ∈ Im(X1 ) × . . . × Im(Xn ) :
P ((X1 = α1 ) ∩ . . . ∩ (Xn = αn )) = P (X1 = α1 ) . . . P (Xn = αn )
2
Théorème 2. Soient X1 , . . . , Xn des VA réelles discrètes mutuellement indépendantes sur un même espace
probabilisé (Ω, T , P ). Pour toutes fonctions f1 , . . . , fn telles que fk est définie sur Im(Xk ) à valeurs dans R,
f1 (X1 ), . . . , fn (Xn ) sont des VA réelles discrètes mutuellement indépendantes.
Théorème 3. Lemme des coalitions
Soient X1 , . . . , Xn des VA réelles discrètes mutuellement indépendantes sur un même espace probabilisé
k
X
(Ω, T , P ). Soient n1 , . . . , nk des entiers tels que
ni = n et ϕ1 , . . . , ϕk des fonctions telles que ϕi est définie
i=1
sur Rni à valeurs réelles.
Alors les VA ϕ1 (X1 , . . . , Xn1 ), ϕ2 (Xn1 +1 , . . . , Xn1 +n2 ), . . . , ϕk (Xn1 +...+nk−1 +1 , . . . Xn ) sont mutuellement indépendantes.
Définition 7. Si (Xn )n∈N est une suite de VA réelles discrètes définies sur un même espace probabilisé
(Ω, T , P ). On dit que c’est une suite de VA mutuellement indépendantes si pour toute partie finie I ⊂ N, les
VA (Xn )n∈I sont mutuellement indépendantes.
Si, de plus les (Xn )n∈N ont toutes la même loi, on dit que qu’elles sont indépendantes et identiquement
distribuées (iid).
3
Sommes, minimum, maximum
Proposition 4. Pour (X, Y ) un couple de VA réelles discrètes et g une fonction définie sur Im(X) × Im(Y )
à valeurs dans R, la loi de la VA réelle discrète G = g(X, Y ) est donnée par
X
∀z ∈ G(Ω), P (G = z) =
P ((X = α) ∩ (Y = γ))
(α,γ)∈Im(X)×Im(Y )
g(α,γ)=z
Remarques
1. On utilise donc la loi conjointe du couple (X, Y ).
2. Si X et Y sont indépendantes, on peut écrire
X
∀z ∈ G(Ω), P (G = z) =
P (X = α)P (Y = γ))
(α,γ)∈Im(X)×Im(Y )
g(α,γ)=z
3.1
Sommes
Proposition 5. Convolution discrète
Soient X et Y deux VA réelles discrètes. Pour tout z ∈ Im(X + Y ) on a
X
P (X + Y = z) =
P ((X = α) ∩ (Y = z − α))
α∈Im(X)
Si de plus X et Y sont à valeurs dans N et indépendantes, alors pour tout k ∈ Im(X + Y ) :
P (X + Y = k) =
k
X
P (X = i)P (Y = k − i)
i=0
3
Théorème 4. Stabilité des lois usuelles
On suppose que X et Y sont deux VA réelles discrètes indépendantes.
• Loi binomiale : si X ,→ B(n, p) et si Y ,→ B(m, p) alors X + Y ,→ B(n + m, p)
• Loi de Poisson : si X ,→ P(λ) et si Y ,→ P(µ) alors X + Y ,→ P(λ + µ)
• Loi de pascal : si X ,→ PA(r1 , p) et si Y ,→ PA(r2 , p) alors X + Y ,→ PA(r1 + r2 , p)
• Loi binomiale négative : X ,→ BN (r1 , p) et si Y ,→ BN (r2 , p) alors X + Y ,→ BN (r1 + r2 , p)
Remarque On obtient les mêmes résultats pour une somme de n variables aléatoires mutuellement
indépendantes.
Théorème 5.
• Si X1 , . . . , Xn sont n variables aléatoires mutuellement indépendantes suivant toute une loi de bernoulli
de paramètre p, alors
X1 + . . . + Xn ,→ B(n, p)
• Si X1 , . . . , Xn sont n variables aléatoires mutuellement indépendantes suivant toute une loi géométrique de paramètre p, alors
X1 + . . . + Xn ,→ PA(n, p)
3.2
Min, max
Proposition 6.
probabilisé. On a
Soient X et Y deux VA réelles discrètes à valeurs dans Z définies sur un même espace
∀k ∈ Z, (min(X, Y ) ≥ k) = (X ≥ k) ∩ (Y ≥ k) et (max(X, Y ) ≤ k) = (X ≤ k) ∩ (Y ≤ k)
Si, de plus X et Y sont indépendantes, on trouve :
P (min(X, Y ) ≥ k) = P (X ≥ k)P (Y ≥ k) et P (max(X, Y ) ≤ k) = P (X ≤ k)P (Y ≤ k)
Remarque
Une fois effectués les calculs précédents on trouve la loi du min ou du max en utilisant :
P (min(X, Y ) = k) = P (min(X, Y ) ≥ k) − P (min(X, Y ) ≥ k + 1)
Et pour la calcul de l’espérance, si la VA min ou max en admet une, on peut aussi utiliser la formule très
classique dite de "sommation des queues" qu’il est fortement conseillé de savoir redémontrer :
X
E(X) =
P (X ≥ k)
k∈N∗
4
4.1
Covariance, corrélation
Covariance
Proposition 7. Soient X et Y des VA réelles discrètes sur un même espace probabilisé.
Si X et Y admettent des moments d’ordre 2 alors XY admet une espérance.
4
Définition 8. Soient X et Y des VA réelles discrètes sur un même espace probabilisé admettant une
espérance. Si la VA (X − E(X))(Y − E(Y )) admet une espérance, on appelle covariance de X et Y le réel :
Cov (X, Y ) = E ((X − E(X))(Y − E(Y )))
Théorème 6. Koenig-Huygens
Soient X et Y des VA réelles discrètes sur un même espace probabilisé. On suppose que X, Y et XY admettent
une espérance (par exemple si X et Y admettent un moment d’ordre 2). Alors (X, Y ) admet une covariance
et :
Cov (X, Y ) = E(XY ) − E(X)E(Y )
Proposition 8. Propriétés de la covariance
Soient X, X 0 , Y, Y 0 des VA admettant des moments d’ordre 2 et λ un réel. On a
1. Symétrie : Cov (X, Y ) = Cov (Y, X)
2. Bilinéarité : Cov (λX + X 0 , Y ) = λCov (X, Y ) + Cov (X 0 , Y )
et Cov (X, λY + Y 0 ) = λCov (X, Y ) + Cov (X, Y 0 )
3. Positivité : Cov (X, X) = V (X) ≥ 0
4. Cov (X, X) = 0 si et seulement si X est presque sûrement constante.
Théorème 7. Variance d’une somme
• Si X et Y sont des VA réelles discrètes admettant un moment d’ordre 2, alors X + Y admet une
variance et :
V (X + Y ) = V (X) + V (X) + 2Cov (X, Y )
• On peut généraliser à une famille de n VA réelles discrètes admettant un moment d’ordre 2,
n
X
X1 , . . . , Xn . Alors
Xk admet une variance et
k=1
V
n
X
k=1
!
Xk
=
n
X
V (Xk ) + 2
X
Cov (Xi , Xj )
1≤i<j≤n
k=1
Théorème 8. Cauchy-Schwarz (HP mais très classique)
Si X et Y sont des VA réelles discrètes admettant un moment d’ordre 2, on a
|Cov (X, Y )| ≤ σ(X)σ(Y )
Dans le cas où σ(X) 6= 0, on a égalité dans l’inégalité de Cauchy-Schwarz si et seulement si X et Y sont
presque sûrement affinement liées i.e. s’il existe (a, b) ∈ R2 tels que P (Y = aX + b) = 1.
5
4.2
Corrélation
Définition 9. Soient X et Y des VA réelles discrètes admettant des variances non nulles. On appelle
coefficients de corrélation linéaire de X et Y , le réel :
ρ(X, Y ) =
Cov (X, Y )
σ(X)σ(Y )
Théorème 9. Cauchy-Schwarz bis
Si X et Y sont des VA réelles discrètes admettant un coefficient de corrélation linéaire, alors
−1 ≤ ρ(X, Y ) ≤ 1
et |ρ(X, Y )| = 1 si et seulement si X et Y sont presque sûrement affinement liées.
4.3
Décorrélation et indépendance
Théorème 10. Soient X et Y des VA réelles discrètes admettant un moment d’ordre 2. Si X et Y sont
indépendantes alors
1. E(XY ) = E(X)E(Y )
2. Cov (X, Y ) = 0
3. V (X + Y ) = V (X) + V (Y )
Définition 10.
Cov (X, Y ) = 0.
On dit que deux VA réelles discrètes X et Y sont non corrélées si elles vérifient
Proposition 9.
est FAUSSE.
Si 2 VA réelles discrètes sont indépendantes alors elles sont non corrélées. La réciproque
Théorème 11. Loi faible des grands nombres
Soit (Xn )n∈N une suite de VA réelles discrètes définies sur un même espace probabilisé. On suppose que ces
VA ont toutes la même espérance m et la même variance σ 2 et qu’elles sont 2 à 2 non corrélées (par exemple
une suite de VA i.i.d. admettant un moment d’ordre 2). On pose
n
1X
Yn =
Xk
n
k=1
Pour tout ε > 0, on a
lim
n→+∞
P (|Yn − m| ≥ ε) = 0
6
Téléchargement