BCPST 2 Lycée Sainte Geneviève Chapitre 7 : Vecteurs aléatoires discrets 1 1.1 Lois associées à un vecteur aléatoire Définitions Définition 1. Soit (Ω, T ) un espace probabilisable. On appelle vecteur aléatoire toute application Z : Ω → Rn de la forme Z = (X1 , . . . , Xn ) où X1 , . . . , Xn sont des variables aléatoires réelles. Plus précisément : Ω → Rn Z: ω → (X1 (ω), . . . , Xn (ω)) Définition 2. Soit Z = (X1 , . . . , Xn ) un vecteur aléatoire réel. Si ses composantes sont des VA réelles discrètes alors Z est dit discret. L’ensemble des valeurs prises par le vecteur est alors au plus dénombrable. L’application : ImX1 × . . . × ImXn → [0, 1] πZ : (x1 , . . . , xn ) → P ((X1 = x1 ) ∩ . . . ∩ (Xn = xn )) est appelée loi du vecteur Z ou encore loi conjointe des variables aléatoires X1 , . . . , Xn . Définition 3. Soit Z = (X1 , . . . , Xn ) un vecteur aléatoire réel. Pour tout i ∈ J1, nK, on appelle i-ème loi marginale de Z la loi de Xi . Proposition 1. Lois marginales en fonction de la loi conjointe Soit (X, Y ) un couple de variables aléatoires réelles dicrètes. Si on note X(Ω) = {xi , i ∈ I} et Y (Ω) = {yj , j ∈ J} avec I et J des parties de N, on retrouve les lois marginales de X et de Y de la façon suivante : X X ∀i ∈ I, P (X = xi ) = P ((X = xi ) ∩ (Y = yj )) et ∀j ∈ J, P (Y = yj ) = P ((X = xi ) ∩ (Y = yj )) j∈J i∈I Définition 4. Pour tout couple (X, Y ) de VA réelles discrètes, et pour tout γ ∈ Y (Ω) tel que P (Y = γ) 6= 0, on définit la loi conditionnelle de X sachant (Y = γ) comme étant l’application [0, 1] X(Ω) → P ((X = α) ∩ (Y = γ)) → α P (Y = γ) P ((X = α) ∩ (Y = γ)) . P (Y = γ) De même on définit, pour tout α ∈ X(Ω) tel que P (X = α) = 6 0, la loi conditionnelle de Y sachant (X = α), par P ((X = α) ∩ (Y = γ)) P(X=α) (Y = γ) = P (X = α) et on note P(Y =γ) (X = α) = 1 Proposition 2. Liens entre les différentes lois liées à un couple discret Soit (X, Y ) un couple de variables aléatoires réelles dicrètes. On note X(Ω) = {xi , i ∈ I} et Y (Ω) = {yj , j ∈ J} avec I et J des parties de N. On suppose que pour tout (i, j) ∈ I × J, P (X = xi ) 6= 0 et P (Y = yj ) 6= 0. On a, pour tout (i, j) ∈ I × J : P ((X = xi ) ∩ (Y = yj )) = P(Y =yj ) (X = xi ) P (Y = yj ) = P(X=xi ) (Y = yj ) P (X = xi ) et P (X = xi ) = X P(Y =yk ) (X = xi ) P (Y = yk ) P (Y = yj ) = k∈J 1.2 X P(X=xk ) (Y = yj ) P (X = xk ) k∈I Formule de transfert Théorème 1. Formule de transfert Pour tout couple (X, Y ) de VA réelles discrètes, telles que X(Ω) = {xi , i ∈ I} et Y (Ω) = {yj , j ∈ J} avec I et J des parties de N et pour toute fonction f définie sur X(Ω) X × Y (Ω), la VA réelle discrète f (xi , yj )P ((X = xi ) ∩ (Y = yj )) Z = f (X, Y ) admet une espérance si et seulement si la série double i,j converge absolument. Et dans ce cas XX XX E(Z) = f (xi , yj )P ((X = xi ) ∩ (Y = yj )) = f (xi , yj )P ((X = xi ) ∩ (Y = yj )) j∈J i∈I i∈I j∈J 2 Indépendance Définition 5. Deux VA aléatoires réelles discrètes sur un même espace probabilisé (Ω, T , P ) sont dites indépendantes si : ∀(α, γ) ∈ ImX × ImY, P ((X = α) ∩ (Y = γ)) = P (X = α)P (Y = γ) Proposition 3. Soient X et Y deux VA réelles discrètes. Si elles sont indépendantes alors pour toutes parties A ⊂ X(Ω) et B ⊂ Y (Ω), les événements (X ∈ A) et (Y ∈ B) sont indépendants Définition 6. Soient X1 , . . . , Xn des VA réelles discrètes sur un même espace probabilisé (Ω, T , P ). • Elles sont dites indépendantes deux à deux si pour tout (i, j) ∈ J1, nK2 avec i 6= j, Xi et Xj sont indépendantes. • Elles sont dites mutuellement indépendantes si pour tout (α1 , . . . , αn ) ∈ Im(X1 ) × . . . × Im(Xn ) : P ((X1 = α1 ) ∩ . . . ∩ (Xn = αn )) = P (X1 = α1 ) . . . P (Xn = αn ) 2 Théorème 2. Soient X1 , . . . , Xn des VA réelles discrètes mutuellement indépendantes sur un même espace probabilisé (Ω, T , P ). Pour toutes fonctions f1 , . . . , fn telles que fk est définie sur Im(Xk ) à valeurs dans R, f1 (X1 ), . . . , fn (Xn ) sont des VA réelles discrètes mutuellement indépendantes. Théorème 3. Lemme des coalitions Soient X1 , . . . , Xn des VA réelles discrètes mutuellement indépendantes sur un même espace probabilisé k X (Ω, T , P ). Soient n1 , . . . , nk des entiers tels que ni = n et ϕ1 , . . . , ϕk des fonctions telles que ϕi est définie i=1 sur Rni à valeurs réelles. Alors les VA ϕ1 (X1 , . . . , Xn1 ), ϕ2 (Xn1 +1 , . . . , Xn1 +n2 ), . . . , ϕk (Xn1 +...+nk−1 +1 , . . . Xn ) sont mutuellement indépendantes. Définition 7. Si (Xn )n∈N est une suite de VA réelles discrètes définies sur un même espace probabilisé (Ω, T , P ). On dit que c’est une suite de VA mutuellement indépendantes si pour toute partie finie I ⊂ N, les VA (Xn )n∈I sont mutuellement indépendantes. Si, de plus les (Xn )n∈N ont toutes la même loi, on dit que qu’elles sont indépendantes et identiquement distribuées (iid). 3 Sommes, minimum, maximum Proposition 4. Pour (X, Y ) un couple de VA réelles discrètes et g une fonction définie sur Im(X) × Im(Y ) à valeurs dans R, la loi de la VA réelle discrète G = g(X, Y ) est donnée par X ∀z ∈ G(Ω), P (G = z) = P ((X = α) ∩ (Y = γ)) (α,γ)∈Im(X)×Im(Y ) g(α,γ)=z Remarques 1. On utilise donc la loi conjointe du couple (X, Y ). 2. Si X et Y sont indépendantes, on peut écrire X ∀z ∈ G(Ω), P (G = z) = P (X = α)P (Y = γ)) (α,γ)∈Im(X)×Im(Y ) g(α,γ)=z 3.1 Sommes Proposition 5. Convolution discrète Soient X et Y deux VA réelles discrètes. Pour tout z ∈ Im(X + Y ) on a X P (X + Y = z) = P ((X = α) ∩ (Y = z − α)) α∈Im(X) Si de plus X et Y sont à valeurs dans N et indépendantes, alors pour tout k ∈ Im(X + Y ) : P (X + Y = k) = k X P (X = i)P (Y = k − i) i=0 3 Théorème 4. Stabilité des lois usuelles On suppose que X et Y sont deux VA réelles discrètes indépendantes. • Loi binomiale : si X ,→ B(n, p) et si Y ,→ B(m, p) alors X + Y ,→ B(n + m, p) • Loi de Poisson : si X ,→ P(λ) et si Y ,→ P(µ) alors X + Y ,→ P(λ + µ) • Loi de pascal : si X ,→ PA(r1 , p) et si Y ,→ PA(r2 , p) alors X + Y ,→ PA(r1 + r2 , p) • Loi binomiale négative : X ,→ BN (r1 , p) et si Y ,→ BN (r2 , p) alors X + Y ,→ BN (r1 + r2 , p) Remarque On obtient les mêmes résultats pour une somme de n variables aléatoires mutuellement indépendantes. Théorème 5. • Si X1 , . . . , Xn sont n variables aléatoires mutuellement indépendantes suivant toute une loi de bernoulli de paramètre p, alors X1 + . . . + Xn ,→ B(n, p) • Si X1 , . . . , Xn sont n variables aléatoires mutuellement indépendantes suivant toute une loi géométrique de paramètre p, alors X1 + . . . + Xn ,→ PA(n, p) 3.2 Min, max Proposition 6. probabilisé. On a Soient X et Y deux VA réelles discrètes à valeurs dans Z définies sur un même espace ∀k ∈ Z, (min(X, Y ) ≥ k) = (X ≥ k) ∩ (Y ≥ k) et (max(X, Y ) ≤ k) = (X ≤ k) ∩ (Y ≤ k) Si, de plus X et Y sont indépendantes, on trouve : P (min(X, Y ) ≥ k) = P (X ≥ k)P (Y ≥ k) et P (max(X, Y ) ≤ k) = P (X ≤ k)P (Y ≤ k) Remarque Une fois effectués les calculs précédents on trouve la loi du min ou du max en utilisant : P (min(X, Y ) = k) = P (min(X, Y ) ≥ k) − P (min(X, Y ) ≥ k + 1) Et pour la calcul de l’espérance, si la VA min ou max en admet une, on peut aussi utiliser la formule très classique dite de "sommation des queues" qu’il est fortement conseillé de savoir redémontrer : X E(X) = P (X ≥ k) k∈N∗ 4 4.1 Covariance, corrélation Covariance Proposition 7. Soient X et Y des VA réelles discrètes sur un même espace probabilisé. Si X et Y admettent des moments d’ordre 2 alors XY admet une espérance. 4 Définition 8. Soient X et Y des VA réelles discrètes sur un même espace probabilisé admettant une espérance. Si la VA (X − E(X))(Y − E(Y )) admet une espérance, on appelle covariance de X et Y le réel : Cov (X, Y ) = E ((X − E(X))(Y − E(Y ))) Théorème 6. Koenig-Huygens Soient X et Y des VA réelles discrètes sur un même espace probabilisé. On suppose que X, Y et XY admettent une espérance (par exemple si X et Y admettent un moment d’ordre 2). Alors (X, Y ) admet une covariance et : Cov (X, Y ) = E(XY ) − E(X)E(Y ) Proposition 8. Propriétés de la covariance Soient X, X 0 , Y, Y 0 des VA admettant des moments d’ordre 2 et λ un réel. On a 1. Symétrie : Cov (X, Y ) = Cov (Y, X) 2. Bilinéarité : Cov (λX + X 0 , Y ) = λCov (X, Y ) + Cov (X 0 , Y ) et Cov (X, λY + Y 0 ) = λCov (X, Y ) + Cov (X, Y 0 ) 3. Positivité : Cov (X, X) = V (X) ≥ 0 4. Cov (X, X) = 0 si et seulement si X est presque sûrement constante. Théorème 7. Variance d’une somme • Si X et Y sont des VA réelles discrètes admettant un moment d’ordre 2, alors X + Y admet une variance et : V (X + Y ) = V (X) + V (X) + 2Cov (X, Y ) • On peut généraliser à une famille de n VA réelles discrètes admettant un moment d’ordre 2, n X X1 , . . . , Xn . Alors Xk admet une variance et k=1 V n X k=1 ! Xk = n X V (Xk ) + 2 X Cov (Xi , Xj ) 1≤i<j≤n k=1 Théorème 8. Cauchy-Schwarz (HP mais très classique) Si X et Y sont des VA réelles discrètes admettant un moment d’ordre 2, on a |Cov (X, Y )| ≤ σ(X)σ(Y ) Dans le cas où σ(X) 6= 0, on a égalité dans l’inégalité de Cauchy-Schwarz si et seulement si X et Y sont presque sûrement affinement liées i.e. s’il existe (a, b) ∈ R2 tels que P (Y = aX + b) = 1. 5 4.2 Corrélation Définition 9. Soient X et Y des VA réelles discrètes admettant des variances non nulles. On appelle coefficients de corrélation linéaire de X et Y , le réel : ρ(X, Y ) = Cov (X, Y ) σ(X)σ(Y ) Théorème 9. Cauchy-Schwarz bis Si X et Y sont des VA réelles discrètes admettant un coefficient de corrélation linéaire, alors −1 ≤ ρ(X, Y ) ≤ 1 et |ρ(X, Y )| = 1 si et seulement si X et Y sont presque sûrement affinement liées. 4.3 Décorrélation et indépendance Théorème 10. Soient X et Y des VA réelles discrètes admettant un moment d’ordre 2. Si X et Y sont indépendantes alors 1. E(XY ) = E(X)E(Y ) 2. Cov (X, Y ) = 0 3. V (X + Y ) = V (X) + V (Y ) Définition 10. Cov (X, Y ) = 0. On dit que deux VA réelles discrètes X et Y sont non corrélées si elles vérifient Proposition 9. est FAUSSE. Si 2 VA réelles discrètes sont indépendantes alors elles sont non corrélées. La réciproque Théorème 11. Loi faible des grands nombres Soit (Xn )n∈N une suite de VA réelles discrètes définies sur un même espace probabilisé. On suppose que ces VA ont toutes la même espérance m et la même variance σ 2 et qu’elles sont 2 à 2 non corrélées (par exemple une suite de VA i.i.d. admettant un moment d’ordre 2). On pose n 1X Yn = Xk n k=1 Pour tout ε > 0, on a lim n→+∞ P (|Yn − m| ≥ ε) = 0 6