ECE 2 - Mathématiques Mr Dunstetter - ENC-Bessières 2014\2015 Couples et suites de vad Chapitre 6 Couples et suites de variables aléatoires discrètes I Couples de variables aléatoires discrètes : dénitions Dans toute cette partie, on considère X et Y deux variables aléatoires réelles discrètes dénies sur le même espace probabilisé (Ω, A, P ). 1 Lois a) Loi conjointe ou loi du couple Dénition 1 On appelle loi conjointe de (X, Y ) ou loi du couple (X, Y ) la donnée de : - l'ensemble (X, Y )(Ω) = X(Ω) × Y (Ω) = {(i, j) i ∈ X(Ω), j ∈ Y (Ω)}, appelé le support du couple. - pour tout (i, j) ∈ (X, Y )(Ω), la probabilité P (X = i) ∩ (Y = j) . Exemple : Cas ni et présentation en tableau. On lance successivement deux dés, et on note X1 le résultat du premier lancer et X2 la somme des deux résultats. PP P X 2 3 4 5 6 7 1 1 36 1 36 1 36 1 36 1 36 2 0 1 36 1 36 1 36 3 0 0 1 36 4 0 0 5 0 6 Loi de X2 X1 PP 2 PP 8 9 10 11 12 Loi de X1 1 36 0 0 0 0 0 1 6 1 36 1 36 1 36 0 0 0 0 1 6 1 36 1 36 1 36 1 36 1 36 0 0 0 1 6 0 1 36 1 36 1 36 1 36 1 36 1 36 0 0 1 6 0 0 0 1 36 1 36 1 36 1 36 1 36 1 36 0 1 6 0 0 0 0 0 1 36 1 36 1 36 1 36 1 36 1 36 1 6 1 36 1 18 1 12 1 9 5 36 1 6 5 36 1 9 1 12 1 18 1 18 H HH 1 H H 1 1 ECE 2 - Mathématiques Mr Dunstetter - ENC-Bessières 2014\2015 Couples et suites de vad b) Lois marginales Dénition 2 On appelle lois marginales du couple (X, Y ) les lois de X et de Y . Méthode : obtenir les lois marginales à partir de la loi du couple Soit xi ∈ X(Ω), on cherche P (X = xi ). La valeur X = xi peut être obtenue avec en même temps n'importe quelle valeur de Y = yj . On va sommer toutes ces possibilités grâce à la formule des probabilités totales : Le système (Y = yj )yj ∈Y (Ω) est un système complet d'évènements, car il représente toutes les issues possibles de la variable aléatoire Y . La formule des probabilités totales donne alors : P P (X = xi ) = P (X = xi ) ∩ (Y = yj ) yj ∈Y (Ω) et la donnée de la loi de couple permet de remplacer chaque terme de la somme par sa valeur, puis de calculer la probabilité cherchée. De même pour tout yj ∈ Y (Ω) on a : P P (Y = yj ) = P (X = xi ) ∩ (Y = yj ) xi ∈X(Ω) . Exemple : Cas ni et présentation en tableau. Les lois marginales s'obtiennent en sommant les probabilités des diérentes lignes et colonnes du tableau de la loi conjointe. c) Lois conditionnelles Dénition 3 Soit (X = xi ) un évènement élémentaire de la variable X . On appelle loi conditionnelle de Y sachant (X = xi ) et on note P(X=xi ) la loi : P(X=xi ) (Y = yj ) = P (X=xi )∩(Y =yj ) P (X=xi ) qui représente les probabilités, si l'évènement (X = xi ) est arrivé, que chacun des évènements de la loi de Y soient arrivés simultanément. Méthode : obtenir la loi du couple à partir des lois marginales et conditionnelles. Dans la plupart des cas, les couples considérés sont obtenues après deux épreuves successives : c'est alors la connaissance, à l'aide de l'étude du problème, de la loi de la première épreuve et des lois conditionnelles de la deuxième épreuve sachant la première qui permettront d'obtenir la loi du couple. On utilisera toujours avec prot une représentation en arbre au brouillon pour modéliser ce type de situation. On avec la formule de Bayes : rédigera ensuite proprement P (X = xi ) ∩ (Y = yj ) = P (X = xi ) × P(X=xi ) (Y = yj ) = . . . . Exemple : Cas ni et présentation en tableau. La loi conditionnelle sachant (X = xi ) est la ligne (ou la colonne) (X = xi ), pondérée par le total de la colonne, égal à P (X = xi ). xi Loi de X1 sachant X2 = 4 : 1 2 3 4 5 6 PX2 =4 (X1 = xi ) 1 3 1 3 1 3 0 0 0 . 2 ECE 2 - Mathématiques Mr Dunstetter - ENC-Bessières 2014\2015 Couples et suites de vad Loi de X2 sachant (X1 = 4) : yj P(X1 =4) (X2 = yj ) 2 2 3 4 0 0 0 5 1 6 6 1 6 7 1 6 8 1 6 9 1 6 10 11 12 1 6 0 0 Indépendance de deux variables aléatoires réelles discrètes a) Rappel : Indépendance de deux évènements Dénition 4 Deux évènements A et B non négligeables (c'est-à-dire de probabilité non nulle) sont dits indépendants lorsque P (A ∩ B) = P (A)P (B), ou encore P (A) = PB (A), ou encore P (B) = PA (B). Intuitivement, cela correspond au fait que les évènements A et B n'ont aucune inuence l'un sur l'autre. b) Indépendance de variables aléatoires réelles Dénition 5 Deux variables aléatoires réelles sont dites indépendantes si pour tout x ∈ X(Ω) et tout y ∈ Y (Ω), les évènements (X = x) et (Y = y) sont indépendants, c'est-à-dire : ∀x ∈ X(Ω), ∀y ∈ Y (Ω), P (X = x) ∩ (Y = y) = P (X = x)P (Y = y) Cela signie que le résultat de chaque variable aléatoire, quel qu'il soit, n'inue pas sur le résultat de l'autre. 3 Covariance de deux variables aléatoires a) Dénition Dénition 6 Soit (X, Y ) un couple de variables aléatoires discrètes, telles que X et Y admettent un moment d'ordre deux. Alors la variable aléatoire XY admet une espérance, et on pose : cov(X, Y ) = E [X − E(X)] × [Y − E(Y )] b) Théorème de Koenig-Huyghens Propriété 1 cov(X, Y ) = E(XY ) − E(X)E(Y ) Preuve cov(X, Y ) = E XY − XE(Y ) − E(X)Y + E(X)E(Y ) = E(XY ) − E XE(Y ) − E E(X)Y + E(X)E(Y ) = E(XY ) − E(X)E(Y ) − E(X)E(Y ) + E(X)E(Y ) = E(XY ) − E(X)E(Y ). c) Propriétés Symétrie : cov(X, Y ) = cov(Y, X). Lien avec la ( variance : pour toute variable aléatoire réelle X , cov(X, X) = V (X). cov(aX + bY, Z) = a cov(X, Z) + b cov(Y, Z) Bilinéarité : : il y a linéarité par rapport à chaque cov(X, aY + bZ) = a cov(X, Y ) + b cov(X, Z) variable ; la covariance se traite comme une distributivité d'un produit de facteurs. 3 ECE 2 - Mathématiques Mr Dunstetter - ENC-Bessières 2014\2015 Couples et suites de vad d) Coecient de corrélation linéaire Dénition 7 Soit (X, Y ) un couple de variables aléatoires discrètes, telles que X et Y admettent une espérance et une variance non nulle. Alors (X, Y ) admet une covariance et on pose : ρ(X, Y ) = cov(X,Y ) σ(X)σ(Y ) le coecient de corrélation linéaire de X et Y . Propriété 2 Pour tout couple de variables aléatoires réelles discrètes (X, Y ), on a : −1 ≤ ρ(X, Y ) ≤ 1. si ρ(X, Y ) = 1, alors il existe a > 0 et b ∈ R tel que Y = aX + b. si ρ(X, Y ) = −1, alors il existe a < 0 et b ∈ R tel que Y = aX + b. Preuve La preuve de cette propriété, pas évidente mais absolument remarquable, sera réalisée en exercice dicile (des résultats similaires sont déjà tombés à l'Essec et à HEC). e) Cas de variables aléatoires indépendantes Propriété 3 Si X et Y sont des variables aléatoires indépendantes, on verra que E(XY ) = E(X)E(Y ). On en déduit alors : cov(X, Y ) = ρ(X, Y ) = 0 Remarque Cela résultat permet de prouver que des variables ne sont pas indépendantes, mais pas l'inverse : Si cov(X, Y ) 6= 0, les deux variables ne peuvent pas être indépendantes. En revanche, si cov(X, Y ) = 0, X et Y peuvent être indépendantes ! Exemple Dans l'exemple précédent on a : E(X1 ) = 3, 5 (assez simple) et E(X2 ) = 7 (un peu plus lourd à calculer). Pour calculer E(XP 1 X2 ), on va anticiper sur la suite et utiliser le théorème de transfert à deux variables : xyP (X = x) ∩ (Y = y) E(X1 X2 ) = (x,y)∈(X,Y )(Ω) 1 1 × (2 + 3 36 + 4 + 5 + 6 + 7) + 2 × (3 + 4 + 5 + 6 + 7 + 8) + 3 × (4 + 5 + 6 + 7 + 8 + 9) + 4 × (5 + 6 + E(X1 X2 ) = 7 + 8 + 9 + 10) + 5 × (6 + 7 + 8 + 9 + 10 + 11) + 6 × (7 + 8 + 9 + 10 + 11 + 12) 1 E(X1 X2 ) = 36 27 + 2 × 33 + 3 × 39 + 4 × 45 + 5 × 51 + 6 × 57 1 E(X1 X2 ) = 36 27 + 66 + 117 + 180 + 255 + 342 = 210+435+342 = 987 = 329 . 6 36 12 Enn on obtient cov(X1 , X2 ) = indépendantes. 329 12 −7× 7 2 = 329 12 − 49×6 2×6 = 329−294 12 = 35 12 6= 0 donc X1 et X2 ne sont pas On aurait aussi pu écrire, avec X et Y les deux lancers indépendants : cov(X1 , X2 ) = cov(X, X + Y ) = cov(X, X) + cov(X, Y ) = V (X) + 0 = V (X). Or V (X) = 16 × (1−3, 5)2 +(2−3, 5)2 +(3−3, 5)2 +(4−3, 5)2 +(5−3, 5)2 +(6−3, 5)2 = 70 35 = 24 = 12 , et on retrouve (beaucoup plus vite) le résultat. 1 × 25 + 94 + 41 + 14 + 94 + 25 2 4 4 4 ECE 2 - Mathématiques Mr Dunstetter - ENC-Bessières 2014\2015 Couples et suites de vad II Variables aléatoires g(X, Y ) Dans toute cette partie, (X, Y ) désigne un couple de variables aléatoires réelles discrètes et g une fonction de deux variables, dénie en tout élément du support (X, Y )(Ω) de (X, Y ). 1 Loi de g(X, Y ) Méthode Pour obtenir la loi d'une variable Z = g(X, Y ) on applique les deux points suivants : On détermine en premier lieu les valeurs possibles Z(Ω). Pour chaque valeur z ∈ Z(Ω), on cherche alors la probabilité P (Z = z) = P (g(X, Y ) = z) : Le problème vient du fait que l'évènement dont on cherche la probabilité met en jeu deux variables aléatoires. Comme pour les lois marginales, on se ramène à la loi du couple à l'aide des probabilités totales, en utilisant le système complet d'évènements d'une des deux variables aléatoires. On a alors une somme et on transforme l'intersection habilement pour se ramener à un évènement de la forme (X = x) ∩ (Y = y) de la loi du couple. On peut enn remplacer puis calculer les probabilités puis la somme. a) Cas général Pour tout couple (X, Y ) on a g(X, Y )(Ω) = {g(x, y) x ∈ X(Ω), y ∈ Y (Ω)}. De plus avec le système complet d'évènement (X = xi )xi ∈X(Ω) , pour tout z ∈ g(X, Y )(Ω) on a : P P P g(X, Y ) = z = P (X = xi ) ∩ (g(X, Y ) = z) = P (X = xi ) ∩ (g(xi , Y ) = z) . xi ∈X(Ω) xi ∈X(Ω) Enn on résout selon la fonction g pour écrire l'évènement g(xi , Y ) = z sous la forme Y = .... et on peut utiliser la loi du couple. On peut évidemment faire la même opération avec le système complet d'évènement de Y : P g(X, Y ) = z = P P (Y = yj ) ∩ (g(X, Y ) = z) = yj ∈Y (Ω) P (Y = yj ) ∩ (g(X, yj ) = z) . P yj ∈X(Ω) b) Somme Pour tout couple (X, Y ) on a (X + Y )(Ω) = {x + y x ∈ X(Ω), y ∈ Y (Ω)}. De plus pour tout z ∈ (X + Y )(Ω) avec le système complet (X = xi )xi ∈X(Ω) on a : P P P X +Y =z = P (X = xi ) ∩ (X + Y = z) = P (X = xi ) ∩ (Y = z − xi ) . xi ∈X(Ω) xi ∈X(Ω) Ou avec le système complet (Y = yj )yj ∈Y (Ω) on a : P P X +Y =z = P (Y = yj ) ∩ (X + Y = z) = yj ∈Y (Ω) P P (Y = yj ) ∩ (X = z − yj ) . yj ∈Y (Ω) Il convient alors de faire attention au fait que l'évènement (Y = z − xi ) (ou (X = z − yj )) peuvent être impossibles si la valeur z − xi (ou z − yj ) n'est pas dans Y (Ω) ( X(Ω) ). On restreint donc les valeurs sur lesquelles on somme avant de remplacer avec la loi du couple. c) Produit Pour tout couple (X, Y ) on a (XY )(Ω) = {xy x ∈ X(Ω), y ∈ Y (Ω)}. De plus pour (X = xi )xi ∈X(Ω) on a : )(Ω) avec le système complet toutPz ∈ (XY P P XY = z = P (X = xi ) ∩ (XY = z) = P (X = xi ) ∩ (Y = xzi ) . xi ∈X(Ω) xi ∈X(Ω) Ou avec le système complet (Y = yj )yj ∈Y (Ω) on a : P P P XY = z = P (Y = yj ) ∩ (XY = z) = yj ∈Y (Ω) yj ∈Y (Ω) P (Y = yj ) ∩ (X = z yj ) . 5 ECE 2 - Mathématiques Mr Dunstetter - ENC-Bessières 2014\2015 Couples et suites de vad d) Somme de lois binomiales Propriété 4 Soient deux variables aléatoires réelles dénies sur le même espace probabilisé, avec X ,→ B(n, p) et Y ,→ B(n0 , p), et X et Y indépendantes. Alors X + Y ,→ B(n + n0 , p) Preuve Cela revient à eectuer n + n0 tirages de Bernouilli indépendants, et à compter le nombre de succès car on ajoute le nombre de succès sur les n premiers tirages et le nombre de succès sur les n0 suivants. Conséquences - Si X1 ,→ B(n1 , p), . . . , Xk ,→ B(nk , p) sont indépendantes, alors k P Xi ,→ B i=1 k P ni , p . i=1 - Si X1 , . . . , Xn suivent des lois de Bernouilli de paramètres p et sont indépendantes, alors : n P X= Xi ,→ B(n, p). i=1 e) Sommes de lois de Poisson Propriété 5 Soient deux variables aléatoires réelles dénies sur le même espace probabilisé, avec X ,→ P(λ) et Y ,→ P(λ0 ), et X et Y indépendantes. Alors X + Y ,→ B(λ + λ0 ). Preuve - (X + Y )(Ω) = N. Pour le calcul des probabilités, on paramètre par X : avec la formule des probabilités totales appliquée au système complet d'évènement (X = i)i∈N on a : - ∀k ∈ N, P (X + Y = k) = +∞ P P (X + Y = k) ∩ (X = i) i=0 = +∞ P +∞ P P (i + Y = k) ∩ (X = i) = P (Y = k − i) ∩ (X = i) = i=0 +∞ P P (X = i)P (Y = k − i) = i=0 i=0 k P i=0 0 = e−λ−λ k P i=0 k i × 1 k! λi −λ e i! × (λ0 )k−i −λ0 e (k−i)! 0 × λi × (λ0 )k−i = e−(λ+λ 0 k ) (λ+λ ) k! + +∞ P i=k+1 λi −λ e i! ×0 , et on reconnaît bien la loi de Poisson de paramètre λ + λ0 . Conséquence Si X1 ,→ P(λ1 ), . . . , Xn ,→ P(λn ) sont indépendantes, alors n P i=1 2 Espérance de Xi ,→ P n P λi . i=1 g(X, Y ) a) Cas général : théorème de transfert Propriété 6 Soit (X, Y ) un couple de variables aléatoires discrètes. Sous réserve de convergence, on a : E[g(X, Y )] g(x, y)P (X = x) ∩ (Y = y) x∈X(Ω) y∈Y (Ω) P P = g(x, y)P (X = x) ∩ (Y = y) = P P y∈Y (Ω) x∈X(Ω) 6 ECE 2 - Mathématiques Mr Dunstetter - ENC-Bessières 2014\2015 Couples et suites de vad b) Linéarité de l'espérance Propriété 7 Soit (X, Y ) un couple de variables aléatoires discrètes. Sous réserve de convergence, on a : E[λX + µY ] = λE(X) + µE(Y ) Preuve PP E(λX + µY ) = (λx + µy)P (X = x) ∩ (Y = y) x y P P P P = λ x P (X = x) ∩ (Y = y) + µ y P (X = x) ∩ (Y = y) x y y x P P = λ x × P (X = x) + µ y × P (Y = y) x = λE(X) + µE(Y ). y Conséquence En posant Y la variable constante égale à b, on a E(Y ) = b puis : E(aX + b) = E(aX + Y ) = aE(X) + E(Y ) = aE(X) + b, et on prouve donc la linéarité de l'espérance dans sa forme partielle, vue en première année. c) Espérance d'un produit de variables aléatoires réelles discrètes indépendantes Propriété 8 Soit (X, Y ) un couple de variables aléatoires réelles discrètes indépendantes. Alors : E(XY ) = E(X)E(Y ) Preuve PP E(X + Y ) = xyP (X = x) ∩ (Y = y) x y P P = x yP (X = x)P (Y = y) par indépendance de X et Y x y P P = xP (X = x) y × P (Y = y) x y P P = xP (X = x) × E(Y ) = E(Y ) xP (X = x) = E(Y )E(X) = E(X)E(Y ). x 3 x Variance d'une somme a) Cas général Propriété 9 Soit (X, Y ) un couple de variables aléatoires réelles discrètes admettant des moments d'ordre deux. Alors X + Y admet une variance et : V (X + Y ) = V (X) + V (Y ) + 2 cov(X, Y ) Preuve On utilise astucieusement la covariance : V (X + Y ) = cov(X + Y, X + Y ) = cov(X, X) + cov(X, Y ) + cov(Y, X) + cov(Y, Y ) = V (X) + V (Y ) + 2 cov(X, Y ). Remarque Cette formule est très importante, en particulier pour calculer... des covariances ! En eet il est très dicile de calculer E(XY ) dès que les variables X et Y admettent plus de quelques valeurs possibles. Mais le résultat ci-dessus permet de l'obtenir lorsqu'on connaît la variance de X + Y , qui se calcule assez bien grâce à la loi de X + Y (voir paragraphes précédents), notamment dans le cas de lois usuelles. Cette formule permettra de déduire que cov(X, Y ) = 21 [V (X + Y ) − V (X) − V (Y )]. 7 ECE 2 - Mathématiques Mr Dunstetter - ENC-Bessières 2014\2015 Couples et suites de vad b) Cas de variables indépendantes Propriété 10 Soit (X, Y ) un couple de variables aléatoires réelles discrètes indépendantes admettant des moments d'ordre deux. Alors : V (X + Y ) = V (X) + V (Y ) Preuve On applique le résultat précédent, et l'indépendance des variables X et Y donne cov(X, Y ) = 0, et le résultat est obtenu. III Suites de variables aléatoires réelles discrètes 1 Indépendance d'une suite de variables aléatoires a) Cas ni Dénition 8 Si X1 , . . . , Xn sont n variables aléatoires discrètes dénies sur un même espace probabilisé, on dit qu'elles sont indépendantes si : ∀(x1 , . . . , xn ) ∈ Rn , P n T [Xi = xi ] = i=1 n Q P (Xi = xi ) i=1 On parle aussi de variables mutuellement indépendantes pour faire la diérence avec des variables deux à deux indépendantes, ce qui est une propriété moins forte (et jamais utilisée dans le cadre de l'ECE). b) Cas inni Dénition 9 Si (Xn )n∈N une suite de variables aléatoires discrètes dénies sur un même espace probabilisé, on dit qu'elles sont indépendantes si pour tout sous-ensemble ni J de N, les variables (Xj )j∈J sont indépendantes, au sens précédent puisqu'elles sont en nombre ni. Cela donne en mathématiques : ! ∀J ⊂ N ni, ∀(xj )j∈J ∈ RJ , P T j∈J [Xj = xj ] = Q P (Xj = xj ) j∈J c) Lemme des coalitions. Propriété 11 Soient X1 , . . . , Xn sont n variables aléatoires discrètes indépendantes. Alors pour toutes fonctions f et g on a : f (X1 , . . . , Xp ) et g(Xp+1 , . . . , Xn ) sont indépendantes. Remarque Cette propriété est admise, mais elle semble évidente avec la notion "intuitive" d'indépendance ; elle est cependant très pénible à prouver rigoureusement. 8 ECE 2 - Mathématiques Mr Dunstetter - ENC-Bessières 2014\2015 2 Couples et suites de vad Linéarité de l'espérance Propriété 12 Si X1 , . . . , Xn sont n variables aléatoires discrètes dénies admettant toutes une espérance. n P Alors la variable X = Xi admet une espérance, et on a : sur un même espace probabilisé, i=1 n P E(X) = E Xi = i=1 n P E(Xi ) i=1 Preuve On eectue une récurrence a partir de la linéarité avec deux variables, prouvée précédemment. 3 Variance d'une somme a) Cas général Propriété 13 Si X1 , . . . , Xn sont n variables aléatoires discrètes dénies admettant toutes une variance. n P Xi admet une variance, et on a : Alors la variable X = sur un même espace probabilisé, i=1 V (X) = V n P Xi = i=1 n P V (Xi ) + i=1 P cov(Xi , Xj ) i6=j Remarques 1. Cette propriété n'est a priori jamais utilisée, sauf peut-être dans le cas de 3 variables (et encore...) Elle se prouve, sur le même modèle ! que la variance d'une somme de deux variables, en développant V n P i=1 Xi n P = cov Xi , i=1 n P j=1 Xj . 2. Pour n = 2, on retrouve bien entendu la formule fondamentale V (X + Y ) = V (X) + V (Y ) + 2 cov(X, Y ). b) Cas indépendant Propriété 14 Si X1 , . . . , Xn sont n variables aléatoires discrètes indépendantes, admettant toutes une variance. n P Alors la variable X = Xi admet une variance, et on a : i=1 V (X) = V n P i=1 Xi = n P V (Xi ) i=1 Remarque Attention, même dans le cas de variables indépendantes, il n'y a pas de linéarité de la variance. Par exemple, on remarquera que V (X − Y ) = V (X) + V (−Y ) = V (X)+V (Y ). 9