Vecteurs aléatoires I Couples de variables aléatoires 1 II Covariance et coecient de corrélation linéaire 5 I.A I.B I.C I.D I.E I.F Loi conjointe, lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Calcul des lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Loi conditionnelle, indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Indépendance et image par une application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Somme de deux variables aléatoires indépendantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Généralisation aux n-uplets de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . II.A Espérance de la somme et du produit de deux variables aléatoires . . . . . . . . . . . . . . . . . . . . . . II.B Espérance du produit de deux variables aléatoires indépendantes . . . . . . . . . . . . . . . . . . . . . . II.C Inégalité de Cauchy-Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . II.D Covariance de deux variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . II.E Coecient de corrélation linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 3 4 4 4 5 6 6 6 8 Dans tout le chapitre, on note (Ω, P ) un espace probabilisé. X est une variable aléatoire sur Ω telle que X(Ω) est un ensemble ni . X et X sont évidemment d'espérance nie et on pourra calculer l'espérance et la variance de X . 2 Remarque : Le programme mentionne que X(Ω) est ni mais, dans certains exercices, nous étendrons sans grande diculté les notions exposées au cas où X(Ω) est dénombrable. I Couples de variables aléatoires I.A Loi conjointe, lois marginales Dénition 1. Soient X et Y des variables aléatoires réelles dénies sur Ω. L'application : (X, Y ) : Ω ω → 7 → R2 X(ω), Y (ω) est appelée couple de variables aléatoires X et Y . Dénition 2. La loi P du couple (X, Y ) est appelée loi conjointe de X et Y . C'est l'application dénie pour par : X,Y (x, y) ∈ X(Ω) × Y (Ω) PX,Y {(x, y)} = P (X, Y ) = (x, y) = P (X = x) ∩ (Y = y) Les lois X et Y sont appelées loi marginales du couple (X, Y ). On note par la suite X(Ω) = {x , . . . , x } et Y (Ω) = {y , . . . , y } où les x et y sont deux à deux distincts. Dans ce cas, on peut représenter la loi conjointe de X et Y dans un tableau du type suivant : 1 n X \Y y1 x1 PX,Y {(x1 , y1 )} 1 x2 ... xn PX,Y {(xn , y1 )} ... m i j y2 ··· ym PX,Y {(x1 , y2 )} ··· PX,Y {(x1 , ym )} ··· Exercice 1 ... PX,Y {(xn , ym )} On considère un lancer de deux dés à 6 faces bien équilibrés et discernables. X désigne le résultat du premier dé et Y la somme des deux dés. 1 1. Pour (k, n) ∈ [[1, 6]] × [[2, 12]], donner P (X = k) ∩ (Y = n) (distinguer suivant les valeurs de n et k). 2. Représenter le tableau de la loi conjointe (X, Y ). [cv031] Théorème 1. Démonstration. L'application P est une probabilité sur X(Ω) × Y (Ω). X,Y On a clairement, pour tout (xk , yk ) ∈ X(Ω) × Y (Ω), PX,Y ({(x, y)} ∈ [0, 1]. De plus : X PX,Y (x, y) = n X = m X i=1 (x,y)∈X(Ω)×Y (Ω n X P (X = xi ∩ Y = yj ) j=1 P (X = xi ) = 1 d'après la formule des probabilités totales. i=1 En eet, les évènements {Y = yj } pour j ∈ [[1, m]] forment un système complet d'évènements de Ω. I.B Calcul des lois marginales Proposition 1. Si (X, Y ) est un couple de variables aléatoires, ses lois marginales P et P peuvent se calculer par : X ∀i ∈ [[1, n]] , P (X = xi ) = m X Y P (X = xi ) ∩ (Y = yj ) j=1 ∀j ∈ [[1, m]] , P (Y = yj ) = n X P (X = xi ) ∩ (Y = yj ) i=1 Démonstration. Vérions le premier point. Pour i xé, l'évènement {X = xi } est la réunion de la famille nie d'évènements deux à deux disjoints {(X = xi ) ∩ (Y = yj )} pour j ∈ [[1, m]]. On utilise alors la propriété d'additivité. La connaissance de P permet de calculer P et P mais la réciproque est fausse, comme le montre l'exemple qui suit. Remarque 2. Si on considère le tableau de la loi conjointe (X, Y ) ci-dessus, la somme des éléments de la i-ème ligne donne P (x ) et la somme des éléments de la j-ème colonne donne P (y ) (à vérier par soi-même). Exemple 1. On jette deux dés à 6 faces : un bleu et un rouge. X (resp. Y ) est le nombre de points indiqués par le dé bleu (resp. rouge). On pose Z = 7 − X . Il est clair que X, Y et Z suivent la loi uniforme sur {1, 2, 3, 4, 5, 6}. En revanche, les couples de variables aléatoires (X, Y ) et (X, Z) ne suivent pas la même loi : Remarque 1. X X,Y X i Y Y 1 2 3 4 5 6 1 2 3 4 5 6 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 1 36 j 1 2 3 4 5 6 1 0 0 0 0 0 1 6 2 0 0 0 0 1 6 0 3 0 0 0 1 6 0 0 0 0 1 6 0 0 0 5 0 1 6 0 0 0 0 6 1 6 0 0 0 0 0 4 Loi de (X, Y ) Loi de (X, Z) Ceci s'explique par le fait que les variables aléatoires X et Y sont indépendantes alors que les variables aléatoires X et Z ne le sont pas (cf dénition plus loin). 2 I.C Loi conditionnelle, indépendance Dénition 3. par : Soit x ∈ X(Ω) tel que P (X = x) > 0. On appelle loi conditionnelle de Y sachant X = x la loi dénie ∀y ∈ Y (Ω), P (Y = y|X = x) Exercice 2 Le nombre de clients journaliers X d'un magasin suit une loi de Poisson de paramètre λ > 0. On estime que chaque client a, de façon indépendante, une probabilité p d'acheter le produit α (et il en prend un alors en général). On note Y la variable aléatoire donnant le nombre de produits achetés dans la journée. 1. Donner la loi conditionnelle de Y sachant X = n. 2. Montrer que Y suit une loi de Poisson de paramètre λp. [cv026] Dénition 4. Deux variables aléatoires X et Y sont dites indépendantes si pour tout (x, y) ∈ X(Ω) × Y (Ω) : P (X = x ∩ Y = y) = P (X = x)P (Y = y) On rappelle que ceci revient à dire que pour tout (x, y) ∈ X(Ω) × Y (Ω) tel que P (X = x) > 0, on a . Exemple 2. On reprend l'exemple 1. Soit i ∈ [[1, 6]] xé. On a : Remarque 3. P (Y = y|X = x) = P (Y = y) P (Y = j|X = i) = et d'autre part : 1 = P (Y = j) ∀j ∈ [[1, 6]] 6 si j = 7 − i si j 6= 7 − i On voit dans cet exemple que les variables aléatoires X et Y sont indépendantes, alors que les variables aléatoires X et Z ne le sont pas. Plus précisément, on est dans un cas extrême : la connaissance de la valeur de X détermine complètement la connaissance de la valeur de Z . Remarque 4. Si les variables aléatoires X et Y sont indépendantes et qu'on connaît leurs lois marginales, alors on peut déterminer leur loi conjointe. En eet, pour tout (x, y) ∈ X(Ω) × Y (Ω) : P (Z = j|X = i) = 1 0 PX,Y {(x, y)} = P (X = x) ∩ (Y = y) = P (X = x)P (Y = y) Exercice 3 On jette un dé bleu et un dé rouge. On note X le nombre de points indiqués par le dé bleu, Y ceux du dé rouge et on dénit la variable aléatoire Z de la manière suivante : si X(ω) 6 3. X(ω) Y (ω) si X(ω) > 3 et Y (ω) > 3. Z(ω) = Y (ω) + 3 si X(ω) > 3 et Y (ω) 6 3. Déterminer les lois des couples (X, Y ) et (X, Z). Vérier que ces couples ont même loi marginale mais pas même loi conjointe. Les variables aléatoires X et Z sont elles indépendantes? [cv028] Proposition 2. Si les variables aléatoires X et Y sont indépendantes, alors pour tout (A, B) ⊂ X(Ω) × Y (Ω), on a : P (X, Y ) ∈ A × B = P (X ∈ A)P (Y ∈ B) 3 I.D Indépendance et image par une application Soient X et Y deux variables aléatoires indépendantes, f et g deux fonctions dont les domaines de dénition contiennent respectivement X(Ω) et Y (Ω). Alors les variables aléatoires f (X) et g(Y ) sont indépendantes. Proposition 3. Démonstration. Admis. I.E Somme de deux variables aléatoires indépendantes Si X et Y sont deux variables aléatoires indépendantes à valeurs dans N, la loi de la variable aléatoire est donnée par : Proposition 4. X +Y ∀n ∈ N, P (X + Y = n) X = P (X = i)P (Y = j) i+j=n n X P (X = i)P (Y = n − i) = i=0 Démonstration. Remarquons que {X + Y = n} = n [ {X = i ∩ Y = n − i} (réunion disjointe). Ainsi : i=0 P (X + Y = n) = n [ P ! {X = i ∩ Y = n − i} = n X P (X = i ∩ Y = n − i) i=0 i=0 = n X P (X = i)P (Y = n − i) i=0 La formule peut s'appliquer aux variables aléatoires X et Y de l'exemple 1 puisqu'elles sont indépendantes. Par exemple, la probabilité que la somme S = X + Y soit égale à 7 est donnée par la relation : Exemple 3. P (S = 7) = P (X + Y = 7) = 7 X P (X = i)P (Y = 7 − i) i=0 6 X 1 = i=1 1 × 6 6 = 6 1 = 36 6 Exercice 4 Soient X et Y deux variables aléatoires indépendantes suivant respectivement les lois B(p) et B(n, p). Écrire la loi de S = X + Y . Quelle loi retrouve t-on? [cv029] Exercice 5 Soient X et Y deux variables aléatoires indépendantes suivant des lois de Poisson de paramètres respectifs α et β. Écrire la loi de S = X + Y . Quelle loi retrouve t-on? [cv030] I.F Généralisation aux n-uplets de variables aléatoires Soient X , X , . . . , X des variables aléatoires réelles dénies sur Ω. On dit que ces variables aléatoires sont mutuellement indépendantes si pour tout (α , α , . . . , α ) ∈ X (Ω) × X (Ω) × · · · × X (Ω), Dénition 5. 1 2 n 1 P n \ 2 n ! (Xi = αi ) i=1 Si = 1 n Y 2 n P (Xi = αi ) i=1 sont des variables aléatoires réelles mutuellement indépendantes, alors quel que soit , les évènements (X ∈ A ) sont mutuellement indépendants. Théorème 2. X1 , X2, . . . , Xn (A1 , . . . , An ) ∈ P X1 (Ω) × · · · × P Xn (Ω) i 4 i Démonstration. Admis. Proposition 5. Soient X , . . . , X des variables aléatoires mutuellement indépendantes et p ∈ [[1, n]]. Si f et g sont deux fonctions à valeurs réelles dénies respectivement sur X (Ω) × . . . × X (Ω) et X (Ω) × . . . × X (Ω), alors les variables aléatoires f (X , . . . , X ) et g(X , · · · , X ) sont indépendantes. 1 n 1 1 Démonstration. p p+1 p p+1 n n Admis. Remarque 5. En particulier, si X , . . . , X sont des variables aléatoires mutuellement indépendantes, les variables aléatoires (X + · · · + X ) et X sont indépendantes. On en déduit l'application suivante : 1 1 n−1 n n Théorème 3. Une loi binomiale est une somme de lois de Bernoulli indépendantes. Plus précisément, si X , . . . , X sont mutuellement indépendantes de loi B(p), avec p ∈]0, 1[, alors X la loi B(n, p). 1 n 1 + · · · + Xn suit Exercice 6 Montrer ce résultat en utilisant une récurrence sur n ∈ N . ∗ [cv039] On retrouve ainsi la loi suivie lorsqu'on eectue une suite d'épreuves indépendantes de même probabilité . On peut considérer X la variable aléatoire donnant 1 en cas de succès à la i-ème épreuve et 0 sinon. Il est clair que X + · · · + X donne le nombre de succès lors des n premières épreuves, et on a déjà vu que ce nombre suivait la loi B(n, p) ! Remarque 6. p i 1 n II Covariance et coecient de corrélation linéaire II.A Espérance de la somme et du produit de deux variables aléatoires Remarque 7. réelles : On rappelle que l'espérance est linéaire, donc en particulier si X et Y sont deux variables aléatoires E(X + Y ) = E(X) + E(Y ) Proposition 6. Soient X et Y deux variables aléatoires réelles, alors : E(XY ) = X xi yj P (X = xi ) ∩ (Y = yj ) 16i6n 16j6m Démonstration. XY : Admis. Ceci provient de la formule du transfert pour un couple de variables aléatoires (hors programme), avec f (X, Y ) = E(XY ) = X xi yj P (X, Y ) = (xi , yj ) (xi ,yj )∈X(Ω)×Y (Ω) Exemple 4. On reprend les variables aléatoires X et Y de l'exemple 1. On a : E(XY ) = 6 X 6 X ijP (X = i) ∩ (Y = j) i=1 j=1 = 6 X 6 X ij 36 i=1 j=1 6 6 1 X X 1 49 i j= × 21 × 21 = 36 i=1 j=1 36 4 5 II.B Espérance du produit de deux variables aléatoires indépendantes Théorème 4. Si X et Y sont des variables aléatoires réelles indépendantes alors : E(XY ) = E(X)E(Y ) Démonstration. Il sut d'écrire : E(XY ) = n X m X xi yj P (X = xi ) ∩ (Y = yj ) = xi yj P (X = xi ) ∩ (Y = yj ) X i=1 j=1 16i6n 16j6m = n X m X xi yj P (X = xi )P (Y = yj ) car X et Y sont indépendantes. i=1 j=1 E(XY ) = n X ! m X xi P (X = xi ) yj P (Y = yj ) = E(X)E(Y ) i=1 Exemple 5. j=1 On reprend les variables aléatoires X et Y de l'exemple 1. On a : E(XY ) = E(X)E(Y ) = 21 21 49 × = 6 6 4 Attention car la réciproque est fausse. Par exemple, si X suit la loi uniforme sur {−1, 0, 1} et si est la loi dénie par 1 si X = 0 Y = 0 si X 6= 0 alors on a E(X) = 0 et d'autre part XY = 0 ce qui entraîne E(XY ) = 0, donc : Remarque 8. Y = 1{X=0} E(XY ) = E(X)E(Y ) Il est pourtant clair que X et Y ne sont pas indépendantes puisque : P (X = 0)|(Y = 1) = 1, alors que : P (X = 0) = II.C Inégalité de Cauchy-Schwarz Théorème 5. 1 3 Soient X et Y deux variables aléatoires, alors : |E(XY )| 6 p p E(X 2 ) E(Y 2 ) De plus, on a l'égalité si et seulement si X et Y sont colinéaires. Démonstration. Pour simplier, on suppose que Y 6= 0. Soit t ∈ R. Il sut de remarquer que E (X + tY )2 > 0, et d'autre part que : E (X + tY )2 = t2 E(Y 2 ) + 2tE(XY ) + E(X 2 ) > 0 Ce trinôme est positif ou nul si et seulement si son discriminant est négatif ou nul, c'est à dire si et seulement si : 2 E(XY ) − E(X 2 )E(Y 2 ) 6 0 ce qui fournit exactement l'inégalité recherchée. De plus, on a l'égalité si et seulement si le déterminant de l'expression est nul, ce qui équivaut à l'existence d'un zéro double pour le trinôme : ∃t0 ∈ R, E (X + t0 Y )2 = 0 Ceci n'est possible que si X + t0 Y = 0 (toutes les valeurs prises sur Ω étant nulles). II.D Covariance de deux variables aléatoires Dénition 6. Soient X et Y deux variables aléatoires réelles. On appelle covariance de X et Y le réel : Cov(X, Y ) = E(XY ) − E(X)E(Y ) Remarque 9. Pour X = Y , on a Cov(X, X) = V (X). 6 Exercice 7 Montrer que Cov(X, Y ) = E (X − E(X))(Y − E(Y )). Théorème 6. [cv038] Si X et Y sont des variables aléatoires réelles indépendantes alors : Cov(X, Y ) = 0 Démonstration. C'est immédiat avec le théorème 4. Remarque 10. La réciproque est fausse. Exercice 8 Soient A et B deux évènements indépendants et de même probabilité p. On dénit les variables aléatoires : 1 si x ∈ A 1 si x ∈ B 1 : x 7→ et 1 : x 7→ 0 si x ∈ / A 0 si x ∈ / B 1. Quelle est la loi de probabilité suivie par les variables aléatoires 1 et 1 ? 2. Vérier qu'elles sont indépendantes. Que peut-on en déduire sur Cov(1 , 1 ) ? 3. On pose X = 1 − 21 et Y = 41 + 21 . (a) Montrer que Cov(X, Y ) = 0. (b) Calculer P (X = 0), P (Y = 0) et P (X = 0 ∩ Y = 0). (c) Conclure. A B A B A A B A B B [cv037] Proposition 7. Si X et Y sont deux variables aléatoires, alors : V (aX + bY ) = a2 V (X) + b2 V (Y ) + 2ab Cov(XY ) Démonstration. On eectue le calcul en tenant compte de la linéarité de l'espérance : V (aX + bY ) = = = 2 E (aX + bY )2 − E(aX + bY ) 2 E a2 X 2 + 2abXY + b2 Y 2 − aE(X) + bE(Y ) a2 E(X 2 ) + 2abE(XY ) + b2 E(Y 2 ) − a2 (E(x))2 + 2abE(X)E(Y ) + b2 (E(Y ))2 En regroupant correctement les termes, on retrouve bien le résultat à prouver. En particulier, si X et Y sont indépendantes, la variance de la somme est la somme des variances. Corollaire 1. Si X et Y sont des variables aléatoires réelles indépendantes alors : Remarque 11. V (X + Y ) = V (X) + V (Y ) Démonstration. le théorème 6. D'après la proposition précédente, on a V (X + Y ) = V (X) + V (Y ) + 2 Cov(XY ), et le résultat est immédiat en utilisant On peut généraliser ce théorème par récurrence en utilisant la remarque 5 : si X , . . . , X sont des variables aléatoires mutuellement indépendantes, alors : Remarque 12. 1 n V (X1 + · · · + Xn ) = V (X1 ) + · · · + V (Xn ) Exercice 9 On suppose que X , . . . , X sont mutuellement indépendantes de loi B(p), avec p ∈]0, 1[, calculer l'espérance et la variance de X + · · · + X . Trouve-t-on les résultats attendus? 1 1 n [cv036] n 7 II.E Coecient de corrélation linéaire Dénition 7. Si X et Y sont deux variables aléatoires, on appelle coecient de corrélation linéaire de X et Y le réel : Cov(X, Y ) Cov(X, Y ) ρ(X, Y ) = p = σ(X)σ(Y ) V (X)V (Y ) Proposition 8. Si X et Y sont deux variables aléatoires, alors |ρ(X, Y )| 6 1. Démonstration. C'est immédiat avec le résultat de l'exercice ?? et le théorème de Cauchy-Schwarz puisque : |ρ(X, Y )| = q E (X − E(X))(Y − E(Y )) q 61 E (X − E(X))2 E (Y − E(Y ))2 En particulier : On a ρ(X, Y ) = 0 si et seulement si Cov(X, Y ) = 0 (en particulier, cela se produit lorsque X et Y sont indépendantes). On a |ρ(X, Y )| = 1 si et seulement si X − E(X) et Y − E(Y ) sont colinéaires, c'est à dire : Remarque 13. Proposition 9. On a ρ(X, Y ) tels que aX + bY + c = 0. Démonstration. = ±1 si et seulement s'il existe des réels À faire en exercice. 8 a, b, c , avec (a, b) 6= (0, 0) ,