Département de Mathématiques -Univ-Guelma Rappels de probabilité 1 Espace de probabilité Un espace de probabilité est un triplet ( ; F; P) oé : - est un ensemble, - F est une tribu (ou -algébre) sur , - P est une (mesure de) probabilité sur ( ; F). 1.1 Tribu Probabilités de base 1.2 2012-2013 Tribu engendrée par une famille d’événements Dé…nition 1.1.3. Soit A = fAi ; i 2 Ig une famille de sous-ensembles de . Alors la tribu engendrée par A est la plus petite tribu sur qui contient tous les sous-ensembles Ai ; i 2 I. Elle est notée (A) : Exemple 1.1.4. Reprenons l’exemple 1.1.2. - Soit = f1; :::; 6g. Si A1 = ff1gg ; alors (A1 ) = F1 . Si A2 = ff1; 3; 5gg ;alors (A2 ) = F2 : - Soit = [0; 1]. Si A = fI1 ; :::; In g ; alors (A) = G: Dé…nition 1.1.5. Soit = [0; 1]. La tribu borélienne sur [0; 1] est la tribu engendrée par la famille de sous-ensembles A = f]a; b[: 0 a < b 1g =fintervalles ouverts dans[0; 1]g. Elle est notée B([0; 1]). Elle contient un trés grand nombre de sous-ensembles de [0; 1], mais pas tous. Dé…nition 1.1.1. Une tribu (ou -algébre) sur est une famille F de sous-ensembles de (appelés “événements”) tels que 1.3 Sous-tribu 8 2F < i) Remarque 1.1.6. - Pour ensemble …ni, on choisit souvent F = P( ). ii) A 2 F =) Ac 2 F : 1 - Pour R ou Rn , on choisit souvent F = B( ). iii) (An )n=1 F =) [1 n=1 An 2 F Dé…nition 1.1.7. Une sous-tribu de F est une tribu G telle que si A 2 G En particulier : A; B 2 F =) A [ B 2 F: alors A 2 F. De méme, A; B 2 F =) A \ B 2 F: On note G F. Exemple 1.1.2. - Soit = f1; :::; 6g. On peut dé…nir plusieurs tribus Exemple 1.1.8. Reprenons l’exemple 1.1.2. On a F0 F1 F, sur : F0 F2 F, mais pas F1 F2 , ni F2 F1 . F = P ( ) = f ; f1g ; f2g ; :::; f1; 2g ; :::; g = tribu compléte (la plus Remarque importante : grande), Il est toujours vrai que A 2 G et G F =) A 2 F: F0 = f ; g= tribu triviale (la plus petite) ( = évén. impossible, Mais il est faux de dire que A B et B 2 F =) A 2 F: Contre-exemple évén. arbitraire), : F1 = f ; f1g ; f2; :::; 6g ; g ; F2 = f ; f1; 3; 5g ; f2; 4; 6g ; g ; etc. f1g f1; 3; 5g ; f1; 3; 5g 2 F2 , mais f1g 2 = F2 : - Soit = [0; 1] et I1 ; :::; In une famille d’intervalles formant une partition de . La famille de sous-ensembles dé…nie par 1.4 G = f ; I1 ; I2 ; :::; I1 [ I2 ; :::; I1 [ I2 [ I3 ; :::; g est une tribu sur . 1 ére Master: Probabilités et Applications Mesure de probabilité Dé…nition 1.1.9. Soit F une tribu sur . Une (mesure de) probabilité sur ( ; F) est une application P : F ! [0; 1] telle que théme : Probabilités de base -1- Département de Mathématiques -Univ-Guelma Probabilités de base 2012-2013 Mesure de Lebesgue : P (]a1 ; b1 [ ]a2 ; b2 [ ::: ]an ; bn [) = (b1 a1 ) (b2 a2 ) (bn an ) : Comme dans le cas uni-dimensionnel, P n’est dé…nie a priori que sur certains ensembles (les rectangles), mais est uniquement extensible é tout B 2 B( ) (p.ex. B = disque, ovale...). Notation : P(B) = jBj ; pour B 2 B( ): =) P(A [ B) = P(A) + P(B): 8 < i) P ( ) = 0 et P ( ) = 1; F disjoints (i.e.PAn \ Am = ; 8n 6= m) =) ii) (An )1 n=1 : 1 P ([1 n=1 An ) = n=1 P (An ) : - En particulier : A; B 2 F et A \ B = De 8 plus : i) Si (An )1 F; An An+1 et [1 > n=1 An = A; n=1 > < alors limn!1 P (An ) = P (A) ; 2 Variable aléatoire 1 1 F; A A et \ A = A; ii) Si (A ) > n n+1 n n n=1 n=1 > : alors limn!1 P (An ) = P (A) : Dé…nition 1.2.1. Soit ( ; F; P) un espace de probabilité. Une Pour d’autres propriétés, cf. exercices. variable aléatoire (souvent abrégé v.a. par la suite) est une application Exemple 1.1.10. Soient = f1; :::; 6g, F = P( ). On dé…nit : X : ! R telle que - P1 (fig) = 61 8i (mesure de probabilité associée é un dé équilibré). Dans ce cas, on voit p. ex. que P1 (f1; 3; 5g) = P1 (f1g) + P1 (f3g) + f! 2 : X (!) 2 Bg = fX 2 Bg 2 F; 8B 2 B(R): P1 (f5g) = 61 + 61 + 16 = 21 : Proposition 1.2.2. X est une v.a. ssi f! 2 : X (!) tg 2 F; 8t 2 R. - P2 (fig) = 0 8i 5; P2 (f6g) = 1 (mesure de probabilité associée é un dé pipé). Remarque 1.2.3. - X est aussi dite une fonction (ou v.a.) F-mesurable. Dé…nition 1.1.11. Soient = [0; 1] et F = B([0; 1]). On appelle - Si F = P( ), alors X est toujours F-mesurable. mesure de Lebesgue sur [0; 1] la mesure de probabilité dé…nie par - Si = R et F = B(R), alors X est dite une fonction borélienne. 1 si ! 2 A; Dé…nition 1.2.4. Pour A , on pose 1A (!) = P(]a; b[) = b a; 80 a < b 1: 0 sinon. On véri…e que la v.a. 1 est F-mesurable ssi A 2 F. A P n’est dé…nie a priori que sur les intervalles, mais est uniquement extenExemple 1.2.5. Soit ( ; F; P) l’espace de probabilité du dé équilibré sible é tout ensemble borélien B 2 B([0; 1]). Elle est notée P(B) = jBj ; B 2 (cf. exemple 1.1.10). B([0; 1]): X1 (!) = ! : P (f! 2 : X1 (!) = ig) = P (fig) = 16 : En utilisant la propriété (ii) ci-dessus, on déduit que pour tout x 2 [0; 1] : X2 (!) = 1f1;3;5g (!) : P (f! 2 : X2 (!) = 1g) = P (f1; 3; 5g) = 12 : 1 2 1 Soit F = P( ). X1 et X2 sont toutes deux F-mesurables. jfxgj = lim x = lim = 0: ;x + n!1 n!1 n n n Soit F2 = f ; f1; 3; 5g ; f2; 4; 6g ; g : Seule X2 est F2 -mesurable; X1 ne n l’est pas. En e¤et : Généralisation é n dimensions : Soit = [0; 1] . f! 2 : X2 (!) = 1g = f1; 3; 5g 2 F2 et f! 2 : X2 (!) = 0g = - Tribu borélienne : B( ) = (A), oé f2; 4; 6g 2 F2 A = f]a1 ; b1 [ ]a2 ; b2 [ ::: ]an ; bn [ ; 0 ai < bi 1g : A est la famille des ”rectangles" dans . tandis que f! 2 : X1 (!) = 1g = f1g 2 = F2 : 1 ére Master: Probabilités et Applications théme : Probabilités de base -2- Département de Mathématiques -Univ-Guelma Probabilités de base 2012-2013 Dé…nition 1.2.6. La tribu engendrée par une famille de v.a. 3.1 Fonction de répartition d’une variable aléatoire fXi ; i 2 Ig sur ( ; F; P) est dé…nie par Dé…nition 1.3.3. La fonction de répartition d’une v.a. X est l’application FX : R ! [0; 1] dé…nie par (Xi ; i 2 I) = (fXi 2 Bg ; i 2 I; B 2 B(R)) = (fXi tg ; i 2 I; t 2 R) : FX (t) = P(fX tg) = X (] 1; t]); t 2 R: Exemple 1.2.7. Reprenons l’exemple précédent : (X1 ) = F = Proposition 1.3.4. La donnée de FX équivaut à celle de X . P( ); (X2 ) = F2 = P( ): Cette derniére proposition est é rapprocher de la proposition 1.2.2. Proposition 1.2.8. Si g : R ! R est borélienne et X : ! R est une v.a., alors g(X) est une v.a. Démonstration. Soit B 2 B(R). On a 3.2 Deux types particuliers de variables aléatoires A) Variable aléatoire discréte : X prend ses valeurs dans un ensemble D dénombrable (X(!) 2 D; 8! 2 ). Dans ce cas, on a : (X) = (fX = xg ; x 2 D), p(x) = P(fX = xg) 0 Or g 1 (B) = fx 2 R : g(x) 2 Bg 2 B(R); car g est borélienne. Comme et P 2 Dg) = 1: x2D p(x) = P(fxP X est une v.a., on en déduit que f! 2 : X (!) 2 g 1 (B)g 2 F, et donc De plus, FX (t) = x2D:x t p(x): …nalement que g(X) est une v.a. B) Variable aléatoire continue : Proposition 1.2.9. Toute fonction continue est borélienne (et pratiqueP(X 2 B) = 0 si jBj = 0 (en part. P(X = x) = 0 8x). Sous cette ment toute fonction discontinue l’est aussi !). condition, le théoréme de Radon-Nikodym assure l’existence d’une fonction borélienne fX : R ! R (appelée densité) telle que fY 2 Bg = f! 2 3 : g (X (!)) 2 Bg = ! 2 : X (!) 2 g 1 (B) : Loi d’une variable aléatoire Dé…nition 1.3.1. La loi d’une v.a. X est l’application dé…nie par X (B) = P (fX 2 Bg) ; B 2 B(R): X : B(R) ! [0; 1] fX (x) NB : (R; B(R); X ) forme un nouvel espace de probabilité ! Exemple 1.3.2. - Soit = f1; :::; 6g, F = P( ); P (fig) = 61 ; 8i: X1 (!) = !; X (fig) = P (fX = ig) = P (fig) = 61 : 1 - Soit = f1; :::; 6g f1; :::; 6g, F = P( ); P (f(i; j)g) = 36 ; 8i; j 2 : X (!) = X (! 1 ; ! 2 ) = ! 1 + ! 2 : On a alors, p.ex : X (f7g) = P (fX = 7g) = P (f(1; 6) ; (2; 5) ; (3; 4) ; (4; 3) ; (5; 2) ; (6; 1)g) = 1 6 36 = 16 : 1 ére Master: Probabilités et Applications 0; 8x 2 R; Z fX (x)dx = 1 et R P (fX 2 Bg) = Rt De plus, FX (t) = 1 fX (x)dx et FX8 (t) = fX (t): Exemple 1.3.5. A) Loi binomiale B(n; p); n 1; p 2 [0; 1] : p(k) = P f(X = kg) = oé n k théme : Probabilités de base = n k pk (1 p)n k ; pour 0 Z fX (x)dx: B k n; n! : k!(n k)! -3- Département de Mathématiques -Univ-Guelma B) Loi gaussienne N ( ; 2 2012-2013 1) P(A) P(B), P si A B, A; B 2 F. 1 1 1 2) P ([n=1 Bn ) F: n=1 P (Bn ) ; si (Bn )n=1 ! 3) P (BnA) = P (B) P (A) ; si A B; A; B 2 F: (x )2 1 4) P(Ac ) = 1 P(A), si A 2 F. exp densité: fX (x) = p ; x 2 R: 2 2 2 2 5) P(A [ B) = P(A) + P (B) P (A \ B), si A; B 2 F. Exercice 4. Terminologie : - Si X suit une loi gaussienne (p.ex.), on écrit X Soit X une variable aléatoire dé…nie sur un espace de probabilité ( ; F; P) N ( ; 2 ). et Y la variable aléatoire dé…nie par Y (!) = exp(X(!)); ! 2 : - Si X et Y suivent une méme loi, on dit que X et Y sont identiquement 1) Quelles valeurs la variable aléatoire Y peut-elle prendre? Exprimer sa distribuées (i.d.) et on note X Y: fonction de répartition FY en fonction de FX . 2) Supposons que X soit une variable aléatoire continue. Y est alors également continue; exprimer sa densité fY en fonction de fX . Série 1 3) Supposons X N (0; 1); calculer fY et P(Y 1). Remarque: dans ce dernier cas, la loi de Y est appelée la loi log-normale; Exercice 1. Soient = f1; :::; 6g et A = ff1; 3; 5g ; f1; 2; 3gg : cette loi est fréquemment utilisée en …nance pour modéliser le prix des ac1) Décrire F = (A), la tribu engendrée par A. NB: Si est …ni, le nombre d’éléments d’une tribu sur est toujours tions. m égal à 2 , avec m entier. 2) Donner la liste des éléments non-vides G de F tels que 4 Espérance d’une variable aléatoire ); si F 2 F et F 2 R; Probabilités de base >0: G; alors F = ou G 4.1 Construction de l’espérance (= intégrale de Lebesgue !) Ces éléments sont appelés les atomes de la tribu F. Ils forment une partition de l’ensemble et engendrent également la tribu F. On procéde en trois étapes : P Exercice 2. Soit F une tribu (ou -algébre) dé…nie sur un ensemble 1 Etape 1. Soit X(!) = 0; Ai 2 F: On dé…nit i=0 xi 1Ai (!) ; xi . En se basant uniquement sur les axiomes de la dé…nition d’une tribu, l’espérance de telles v.a. (dites simples) comme suit : démontrer les propriétés suivantes: N 1 1) [N F: X n=1 An 2 F; si (An )n=1 E(X) = xi P (Ai ) 2 [0; +1] : 2) 2 F: 1 1 i=0 3) \n=1 An 2 F; si (An )n=1 F: N N 4) \n=1 An 2 F; si (An )n=1 F: Attention ! E(X) peut prendre la ”valeur" +1. Exemples : - Si X = 1A , P(A) = p, alors E(X) = P(A) = p. 5) BnA 2 F; si B A; A; B 2 F: - Si X = c1 = cte sur , alors E(X) = c: Exercice 3. Soit ( ; F; P) un espace de probabilité. En se basant Etape 2. Soit X une v.a. F-mesurable telle que X(!) 0 ; 8! 2 . On uniquement sur les axiomes de la dé…nition d’une mesure de probabilité, démontrer les propriétés suivantes: pose 1 ére Master: Probabilités et Applications théme : Probabilités de base -4- Département de Mathématiques -Univ-Guelma Xn (!) = 1 X i i=1 1 2n 1f i n1 2 Probabilités de base X< 2in g E(g (X)) = (!) : E(X) = lim E(Xn ) = lim n!1 n!1 i=1 1 2n P i 1 2n X< i 2n 2 [0; +1] : Etape 3. Soit X une v.a. F-mesurable quelconque. On pose X + (!) = max (0; X(!)) 0; X(!) = X + (!) X (!) avec X (!) = max (0; X(!)) 0: On a alors jX(!)j = X + (!) + X (!) 0: - Si E(jXj) < 1, alors on dé…nit E(X) = E(X + ) E(X ): - Si E(jXj) = 1, alors on dit que E(X) n’est pas dé…nie. Terminologie : - Si E(X) = 0, alors on dit que X est une v.a. centrée. - Si E(jXj) < 1, alors on dit que X est une v.a. intégrable. - Si E(X 2 ) < 1 alors on dit que X est une v.a. de carré intégrable. - On dit que X est une v.a. bornée s’il existe une cte K > 0 telle que jX(!)j K; 8! 2 . Remarque 1.4.1. X bornée =) E(X 2 ) < 1 =) E(jXj) < 1: On a les séries des implications suivantes: X est bornée =) X est de carré intégrable X est intégrable et Y est bornée =) XY est intégrable X; Y sont de carée intégrable =) XY est intégable Proposition 1.4.2. Soient X une v.a. et g : R ! R une fonction borélienne telle que E(jg(X)j) < 1. Alors A) Si X est une v.a. discréte (é valeurs dans D dénombrable), alors E(g (X)) = X g (x) P (fX = xg) : x2D B) Si X est une v.a. continue (avec densité fX ), alors 1 ére Master: Probabilités et Applications Z g (x) fX (x)dx: R Alors (Xn ) est une suite croissante de v.a. qui tend vers X. On dé…nit 1 X i 2012-2013 Ceci s’applique en particulier si g(x) = x. 4.2 Variance et covariance de variables aléatoires Dé…nition 1.4.3. Soient X; Y deux v.a. de carré intégrable. On pose V ar (X) = E (X Cov (X; Y ) = E ((X E(X))2 = E X 2 (E (X))2 E(X)) (Y E(Y ))) = E (XY ) 0 E (X) E (Y ) Terminologie : - Un événement A 2 F est dit négligeable si P(A) = 0. - Un événement A 2 F est dit presque sér (souvent abréegé p.s.) si P(A) = 1, i.e. si Ac est négligeable. Exemple 1.4.4. Soit X une v.a. telle que P (fX = cg) = 1. Alors on dit que X = c presque sérement (”X = c p.s.") Proposition 1.4.5. Si (An )1 F est une famille d’événements négn=1 1 ligeables (i:e: P(An ) = 0 8n), alors [n=1 An est négligeable. P1 Démonstration. P ([1 n=1 An ) n=1 P (An ) = 0: Exemple 1.4.6. L’ensemble A = [0; 1]\Q est négligeable pour la mesure le Lebesgue, car Q est dénombrable et jfxgj = 0 pour tout x 2 [0; 1]: 4.3 Propriétés de l’espérance Soient X; Y deux v.a. intégrables. - Linéarité : E(cX + Y ) = cE(X) + E(Y ); c 2 R et X; Y v.a. intégrables. - Positivité : si X 0 p.s., alors E(X) 0. - Positivité stricte : si X 0 p.s. et E(X) = 0, alors X = 0 p.s. - Monotonie : si X Y p.s., alors E(X) E(Y ). théme : Probabilités de base -5- Département de Mathématiques -Univ-Guelma 4.4 Probabilités de base Inégalités Comme Inégalité de Cauchy-Schwarz Soient X; Y deux v.a. de carré intégrable. Alors 5 i) XY est intégrable; ii) (E (jXY j))2 E (X 2 ) E (Y 2 ) : 2012-2013 (a) > 0, ceci permet de conclure. Indépendance 5.1 Indépendance d’événements E (X 2 ) (donc E (jXj) < 1 Dé…nition 1.5.1.Deux événements A et B(2 F) sont indépendants si P(A \ B) = P(A)P(B). Attention ! Ne pas confondre : A et B sont disjoints si A \ B = (=) P(A [ B) = P(A) + P(B)): Notation : Si A est indépendant de B, on note A ? B (de méme pour les tribus et les v.a. ; voir plus bas). E (jXj) + E (jY j) Conséquence : En posant Y 1, on trouve que (E (jXj))2 si E(X 2 ) < 1; cf. remarque 1.4.1). Inégalité triangulaire Soient X; Y deux v.a. intégrables. Alors E (jX + Y j) Inégalité de Jensen Soient X une v.a. et ' : R ! R une fonction borélienne et convexe telle que E (j' (X)j) < 1: Alors ' (E (X)) E (' (X)) : En particulier, jE (X)j E (jXj) : Exemple 1.4.7. Si X = a ou b avec prob. 12 ; 12 et ' est convexe, alors '(a)+'(b) = E (' (X)) : ' (E (X)) = ' a+b 2 2 Inégalité de Chebychev (ou Markov) Soient X une v.a. et : R ! R+ telle que est borélienne et croissante sur R+ , (a) > 0 pour tout a > 0 et E ( (X)) < 1: Alors P (fX ag) Démonstration. Du fait que E ( (X)) ; 8a > 0: (a) est croissante sur R+ , on a E ( (X)) E (X) 1fX ag E (a) E 1fX ag = (a) P (fX ag) : 1 ére Master: Probabilités et Applications (a) 1fX P(Ac \ B) = P(Bn(A \ B)) = P(B) P(A \ B) = P(B) P(A)P(B) = (1 P(A)) P(B) = P(Ac )P(B): De méme, on a P(A \ B c ) = P(A)P(B c ) et P(Ac \ B c ) = P(Ac )P(B c ): Dé…nition 1.5.2. n événements A1 ; :::; An 2 F sont indépendants si P (A1 \ ::: \ An ) = = P (Ai ) ; oé Ai = soit Ai ; soit Aci : i=1 Proposition 1.5.3. n événements A1 ; :::; An 2 F sont indépendants si ! \ Y P Ai = P (Ai ) ; 8I f1; :::; ng : i2I ag n Y i2I Remarque 1.5.4. - Pour n > 2, la condition P(A1 \ :::An ) = P(A1 ):::P(An ) ne su¢ t pas ! - L’indépendance de n événements telle que dé…nie ci-dessus est plus forte que l’indépendance deux é deux (Ai ? Aj ; 8i 6= j). théme : Probabilités de base -6- Département de Mathématiques -Univ-Guelma 5.2 Probabilités de base 2012-2013 Indépendance de tribus !). Cette propriété découle du fait que g(X) est (X)-mesurable (resp. que h(Y ) est (Y )-mesurable) et de la dé…nition d’indépendance pour les tribus. Dé…nition 1.5.5. Une famille (F1 :::Fn ) de sous-tribus de F est indépenProposition 1.5.12. Soient c 2 R et X; Y deux v.a. de carré intégrable. dante si Si X ? Y , alors P(A1 \ ::: \ An ) = P(A1 ):::P(An ); 8A1 2 F1 ; :::; An 2 Fn : Proposition 1.5.6. ( (A1 ); :::; (An )) est une famille de sous-tribus indépendantes ssi les événements (A1 ; :::; An ) sont indépendants. E (XY ) = E (X) E (Y ) et V ar (cX + Y ) = c2 V ar (X) + V ar (Y ) ; La premiére égalité dit que si deux v.a. sont indépendantes, alors elles sont décorrelées; la réciproque n’est pas vraie. Proposition 1.5.13. Si X ? Y et X; Y sont deux 5.3 Indépendance de variables aléatoires v.a. continues R R possédant une densité 2conjointe fX;Y (i.e. Dé…nition 1.5.7. Une famille (X1 ; :::; Xn ) de v.a. (F-mesurables) est in- P ((X; Y ) 2 B) = f (x; y) dxdy; 8B 2 B (R )), alors fX;Y (x; y) = B X;Y dépendante si fX (x) fY (y) ; 8x; y 2 R: ( (X1 ); :::; (Xn )) est indépendante. Série 2 Proposition 1.5.8. (X1 ; :::; Xn ) est une famille de v.a. indépendantes ssi les événements fX1 t1 g ; :::; fXn tn g sont indépendants Exercice 1. Véri…er que les lois suivantes sont bien des lois de probabilité 8 t1 ; :::; tn 2 R: et calculer, quand elles existent, l’espérance et la variance de ces lois. En particulier : X ? Y ssi P(fX t; Y sg) = A) Lois discrétes: P(fX tg)P(fY sg); 8 t; s 2 R: 1) Bernoulli B(1; p); p 2 [0; 1] : P(X = 1) = p; P(X = 0) = 1 p: 2) Binomiale B(n; p); n 1; p 2 [0; 1] : P(X = k) = Exemple 1.5.9. Soit = f1; :::; 6g f1; :::; 6g ; F = P( ); P (f(i; j)g) = n 1 pk (1 p)n k ; 0 k n: : On pose 36 k k 3) Poisson P( ); > 0 : P(X = k) = k! e ; k 0: X (!) = X (! 1 ; ! 2 ) = ! 1 ; X (!) = Y (! 1 ; ! 2 ) = ! 2 : B) Lois continues (on donne ici la densité de ces lois): 1 Calculons P(fX = ig) = P(! 2 : ! 1 = i) = P(f(i; 1); :::; (i; 6)g) = 6 = 4) Uniforme U([a; b]); a < b : fX (x) = b 1 a 1[a;b] (x) ; x 2 R: P(fY = jg): 5) Gaussienne N ( ; 2 ); 2 R; > 0 : fX (x) = 1 1 1 (x )2 1 = D’autre part, P(fX = i; Y = jg) = P(f(i; j)g) = 36 = 6 p exp ; x 2 R: 6 2 2 2 2 P (fX = ig) P (fY = jg) ; donc X et Y sont indépendantes. 6) Cauchy C( ); > 0 : fX (x) = 1 2 +x2 ; x 2 R: Exemple 1.5.10. Si X(!) = c; 8! 2 , alors X ? Y , 8Y (une v.a. 7) Exponentielle E( ); > 0 : fX (x) = e x ; x 2 R+ : constante est indépendante de toute autre v.a.). t 1 x 8) Gamma (t; ); t; > 0 : fX (x) = ( x) (t)e ; x 2 R+ ; oé Exemple 1.5.11. Si X ? Y et g; h sont des fonctions boréliennes, alors R1 g(X) ? h(Y ); c’est vrai en particulier si g = h (mais pas X = Y , bien sér (t) = 0 xt 1 e x dx: 1 ére Master: Probabilités et Applications théme : Probabilités de base -7- Département de Mathématiques -Univ-Guelma Probabilités de base 2012-2013 Exercice 2. Soit X une variable aléatoire centrée de variance 2 . En La fonction caractéristique d’une variable ne dépend que de sa distribuutilisant l’inégalité de Chebychev, démontrer que tion, les f.c de v.a ayant même distribution sont identiques. 2 2 2 Proposition: ' existe toujours et j' (t)j 1: 1) P (fjXj ag) a2 et P (fjXj ag) a2 + 2 2 2 E eitX = E (1) = 1 ce qui veut dire que la série En e¤et E eitX 2) P (fjXj ag) (utiliser (x) = (x + b) avec b 0, puis a2 + 2 ou l’intégrale que représente E converge. minimiser en b) Remarques a) Montrer, en utilisant l’inégalité de Cauchy-Schwarz avec X et Y = - Si X ne prend que des valeurs entiers positives ou nulles P (X = k) = pk . 1fX>tg , que Alors: 2 X (E(X) t) P (fX > tg) ' (t) = pk eitk = gX eit 2 X E (X ) k b) Véri…er directement cette inégalité pour X P( ) et t = 0. gX s’appelle la fonction génératrice (f.g) de X, où Exercise 4. Let X be a centered Gaussian random variable of variance X 2 . Compute: pk z k pour jzj 1: gX (z) = 4 a) E (X ) : k b) E (exp (X)) : - Si X prend d’autre valeurs que celle de N, sa f.g peut ne pas être dé…nie. c) E (exp ( X 2 )) : Alors sa f.c l’est toujours. Propriétés de la fonction quaractéristique 1) 'X est uniformément continue pour t 2 R: 6 Convergence des variables aléatoires Le théorème suivante est trés utile pour étudier la loi d’une somme de Lesprincipaux types de convergences sont la convergence enprobabilité (ou v.a indépendantes: Théorème 1: Soient X1 ; :::; Xn n variables aléatoires indépendantes stochastique),la convergence en moyenne d’ordre , la convergence presque sûrement et la convergence en loi. Ces modes de convergences sont à l’origine alors: des loi faible e tforte des grands nombres ainsi que le théorème de la limite centrale. Rappels sur les fonctions caractéristiques Nous avons déjà dit que la loi d’une v.a.r. X était caractérisée par sa fonction de répartition. On peut aussi déterminer PX en utilisant une fonction de R ! C: la fonction caractéristique. Dé…nition: Soit X un v.a.r on appelle fonction caractéristique (f.c) de X la fonction ' (t) tq ' (t) = E eitX : R itx - Si X est absolument continue: ' (t) = e f (x)dx R P itx k - Si X est discrète: ' (t) = k e P (X = xk ) : 1 ére Master: Probabilités et Applications 'X1 +:::+Xn (t) = n Y 'Xi (t) i=1 Remarque La réciproque est fausse, on peut avoir 'X1 +:X2 (t) = E eit(X1 +X2 ) = E eitX1 :E eitX2 = 'X1 (t) :'X2 (t) lorsque X1 et X2 sont dépendantes. Exemple: X1 = X2 = X est une v.a de cauchy; sa f.c est théme : Probabilités de base -8- Département de Mathématiques -Univ-Guelma 'X (t) = 1 Z +1 1 eitx dx = e 1 + x2 Probabilités de base 'Y (t) = E eit(aX+b) = eibt E eiatx jtj Alors, on le calcule par la méthode des résidus. '2X (t) = e 2jtj = 'X (t) :'X (t) et X n’est pas indépendante d’elle même biensûr. Théorème 2: Si X1 et X2 deux v.a.r indépendantes 8 (t1 ; t2 ) 2 R2 2012-2013 'Y (t) = eibt 'X (at) : Fonction caractéristique de quelques v.a.r Distribution Bernouli Binomiale Poisson Fonction caractéristique peit + q n (peit + q) exp ( (1 eit )) sin( 2t ) Uniforme sur [0; 1] exp it2 t '(X1 ;X2 ) (t1 ; t2 ) = 'X1 (t1 ) :'X2 (t2 ) = E eit1 X1 :E eit2 X2 : 2 Théorème 3: (Moments d’ordre k et f.g) Si k n premiers moments E X k , k 2 f0; 1; :::; ng existent, alors 'X est (k) n fois di¤érentiables et on a: 'X (0) = ik E X k : R +1 dans le cas absolument continu, si jxj f (x)dx < +1, 1 R +1 itx R 1 xe f (x)dx converge uniformément donc on peut dériver sous la signe : (1) 'X (0) = '8X (0) = iE (X) : R +1 (k) En répetant l’opération 'X (t) = ik 1 xeitx f (x)dx et la formule en resulte en faisant t = 0: Théorème 4: (Relation entre la f.d.r et la f.c) Toute fonction de répartition est entièrement déterminée par sa f.c(d’où le nom f.c) Théorème 5: R +1 Si 'X (t) est la f.c de X et si 1 ' (t) dt existe, alors X a la densité Z +1 1 ' (t) e itx dx f (x) = 2 1 Théorème 6:(Fonction caractéritique de (aX + b)) Si a et b sont des constantes réelles et si: Y = aX + b, alors: 1 ére Master: Probabilités et Applications Normale Cauchy Exponentielle 6.1 exp itm e ajtj 1 1 it 1 2 2 2 t Convergence en probabilité Dé…nition 6.1.1 (Convergence en probabilité) Soit (Xn )n 1 une suite de variables aléatoires. La suite (Xn )n 1 converge stochastiquement (ou en probabilité) vers la variable aléatoire X 8 > 0; 6.2 lim P [jXn n!+1 P Xn ! X si et seulement si: Xj > ] = 0 Convergence en moyenne d’ordre grands nombres et loi faible des Dé…nition 6.2.1 (Convergence en moyenne d’ordre ) Soit (Xn )n 1 une suite de variables aléatoires.La suite (Xn )n 1 converge en moyenne d’ordre si: ( théme : Probabilités de base 1) vers la variable aléatoire X L Xn ! X si et seulement -9- Département de Mathématiques -Univ-Guelma lim E [jXn n!+1 Probabilités de base 2012-2013 Xj ] = 0 P Remarques: L max 1 k n L 1. Xn ! X =) Xn ! X avec < puisque dans ce cas L L : 2. Si = 1, on dit simplement "convergence en moyenne". 3. Losque = 2, on parle souvent de "convergence en moyenne quadratique au lieu de convergence en moyenne d’ordre 2 qu’on note aussi m:q Xn ! X : Théorème 6.2.1 La convergence en moyenne d’ordre implique la convergence en probabilité. Soit: L P Xn ! X =) Xn ! X : (Xi a E [Xi ]) i=1 ! Pn V arXk a2 k=1 Si de plus il existe un réel positif C tel que pour tout k; jXk j P 6.4 max 1 k n k X (Xi E [Xi ]) ! a i=1 1 C, alors, (a + 2C)2 Pn k=1 V arXk Convergence presque sûre Dé…nition 6.4.1 (Convergence presque sûre) Soit ( ; F; P) un espace probabilisé. On dit que la suite (Xn )n 1 converge presque sûrement vers la variable Proposition 6.2.1 (Loi faible des grands nombres) Soit (Xn )n 1 une suite de variables aléatoires indépendantes, de même loi et de variance aléatoire X …nie, alors: X1 + X2 + ::: + Xn m:q ! E [X1 ] : n Noter que nous avons également dans ce cas la convergence en ProbabilYn = k X 9 0 p;s Xn ! X = P( si et eulement si: 0) = 1 et 8! 2 0; lim Xn (!) = X (!) : n!+1 Ceci n’est autre que la convergence simple des fonctions Xn (!) en tout point de (sauf aux points ! 2 ( 0 ) ensemble qui est de mesure nulle). Pour montrerl a convergence presque sûre d’une suite,on est souvent 6.3 Convergence presque sûre et loi forte des grands amené à utiliser le lemme de Borel-Cantelli, dérivé du théorème du même nombres nom. Lemme 6.4.2 (Lemme de Borel-Cantelli) Une condition su¢ sante 6.3.1 Inégalité de Kolmogorov de convergence presque sûre de la suite de variables aléatoires (Xn )n 1 vers L’inégalité de Kolmogorov est utilisée pour démontrer la loi forte des grands X est que la série de terme général un = P [jXn Xj > ] converge. Soit: nombres dans le cas de variables aléatoires indépendantes de variance …nie +1 mais non forcément identiquement réparties. X p;s 8 > 0; P [jXn Xj > ] < +1 =) Xn ! X : Théorème 6.3.1 Soit une suite Xi de n variables aléatoires indépenn=1 dantes telleque V arXk < +1. Alors pour tout réel positif a ité. 1 ére Master: Probabilités et Applications théme : Probabilités de base -10- Département de Mathématiques -Univ-Guelma 6.5 Probabilités de base Loi forte des grands nombres de Kolmogorov 2012-2013 L X Xn ! X si et seulement si les fonctions de répartition convergent La Convergence presque sûre est la convergence qui intervient dans la loi simplement en tout point de continuité, soit: forte des grands nombres. 8x 2 R; lim FXn (x) = FX (x) ; si FX est continue en x. Nous allons d’abord donner un théorème d’existence de la limite de la n!+1 somme de variables aléatoires indépendantes de distribution quelconque. Remarques: Théorème 6.5.1(Théorème d’existence de Kolmogorov) Soit 1. Les troi sconditions suivantes sont équivalentes: (Xn )n 1 une suite P de variables aléatoires indépendantes de moyennes nulles P –8x 2 R; lim FXn (x) = FX (x) ; si FX est continue en x. n 1 2 telle que la série n!+1 k=1 Xk converge presque k=1 E [Xk ] converge. Alors –8t 2 R; lim 'Xn (t) = 'X (t) sûrement vers une variable aléatoire lorsque n tend vers l’in…ni n!+1 Ce théorème permet de démontrer le suivant. –8g 2 C (continue, borné), lim E [g (Xn )] = E [g (X)] n!+1 Théorème 6.5.2 (Loi forte des grands nombres de Kolmogorov) Soit (Xn )n 1 une suite de variables aléatoires indépendantes telle que la série 2. Schéma de convergence: ( < ) P1 V arX k converge. Alors L P L 2 k=1 k =) Xn ! X =) Xn ! X Xn ! X n n * * 1 X 1 X p;s L Xk E [Xk ] ! 0: Xn ! X Xn ! X n k=1 n k=1 Théorème 6.6.2 (Thèorème de la limite centrale) Soit (Xn )n 1 une presque sûrement lorsque n tend vers l’in…ni. suite de variables aléatoires indépendantes, de même loi et de variance …nie, Dans le cas de variables en plus identiquement distribuées, nous pouvons ( 2 = var (X12 ) ; Xn 2 L2 ( ; F; P)), alors: énoncer la proposition suivante. Sn E [Sn ] L Proposition 6.5.3 (Loi forte des grands nombres) Soit (Xn )n 1 une ! N (0; 1) : (Sn ) suite de variables aléatoires indépendantes, de même loi et de moyenne …nie, p alors: où Sn = X1 + X2 + ::: + Xn et donc (Sn ) = n : Ceci peut se traduire par (m = E [X1 ]): X1 + X2 + ::: + Xn p:s Yn = ! E [X1 ] : n Z a x2 X1 + X2 + ::: + Xn nm 1 n!+1 p P a ! p e 2 dx: n 2 6.6 Convergence en Loi, théorème de la limite centrale 1 C’est la convergence la plus faible parmi celles présentées ici. Exercice Dé…nition 6.6.1 (Convergence en Loi) Soit (Xn )n 1 une suite de Soit X une variable aléatoire qui suit la loi de Cauchy don tla densité de variables aléatoires. La suite (Xn ) converge en loi vers la variable aléatoire probabilité est donnée par: 1 ére Master: Probabilités et Applications théme : Probabilités de base -11- Département de Mathématiques -Univ-Guelma Probabilités de base 1 1 + x2 Soit (Xi )i 1 une suite de variables aléatoires indépendantes et demême loi que celle de X . On dé…nit (Sn )n 1 une suite de variables aléatoires dé…nie par: fX (x) = Sn = 2012-2013 1 n X n n h t i Y Y i n Xj E e 'Yn (t) = = 'X j=1 = = e Xi 'X jtj j=1 t n n t = e jnj t n n = 'X (t) i=1 2. D’après la question précédente, on a: 8t 2 R; lim 'Xn (t) = 'X (t) ce 1. Calculer la fonction caractéristique de la variable aléatoire Snn : n!+1 Sn 2. Montrer que n converge en loi vers X: Sn L qui implique que n ! X: Remarquer que la loi faible (ou forte) des grands 3. Montrer que Snn2 converge en probabilité vers 0: nombres ne s’appliquent pasi ci puisque les moments d’ordre supérieur ou 4. Montrer que Snn3 converge presque-sûrement vers 0, (Utiliser le lemme égal à 1 n’existent pas. de Borel-Cantelli). P 3. Pour montrer que Snn2 ! 0; il faut montrer que : Correction 1. Calculons tout d’abord la fonction caractéristique de la v.a.X , on a: Sn Z 8 > 0; lim P 0 > =0 eitx 1 itX n!+1 n2 dx 'X (t) = E e = 2 R 1+x On a en e¤et:(on utilise le fait que Snn Cauchy) En utilisant le théorème des Résidus par intégration de la fonction comitz e plexe f (z) = 1+z origine des axes 2 sur le demi cercle supérieure de centre l’ et de rayon R, on trouve que: (t 2 R) Sn Sn P 0 > = P >n jtj 2 'X (t) = e n n Z +1 1 dx Soit maintenant Yn = Snn , on a: = 2 1 + x2 n h t Pn i 1 n!+1 = ( 2 arctan n ) ! 0: 'Yn (t) = E eitYn = E ei n j=1 Xj " n # h Pn t i Y t p:s ei n Xj = E e j=1 i n Xj = E 4. Pour montrer que Snn3 ! 0; on peut utiliser le lemme de Borel-Cantelli. P j=1 Sn Pour cela, il su¢ t de montrer que la série entière +1 0 > n=1 P n3 les (Xj )j 1 étant indépendantes, on a: converge. On a: 1 ére Master: Probabilités et Applications théme : Probabilités de base -12- Département de Mathématiques -Univ-Guelma Probabilités de base 2012-2013 Sn P ! : n n!+1 P = arctan n2 2 Exercice 3. Compute the characteristic function of the following random 2 1 variables: = arctan 2 n a) X B(n; p), with P(fX = kg) = Ckn pk (1 p)n k , k 2 f0; :::; ng 2 1 b) X Geom(p), with P(fX = kg) = (1 p)k 1 p; k 1: terme général d’une série entière convergente. < 2 n c) X has the exponential distribution on R with pdf fX (x) = exp( jxj); x 2 R: 2 d*) X has the Cauchy distribution on R with pdf fX (x) = ( 2 +x2 ) ; x 2 Série 3 R: Exercice 4. Rappel :X suit la loi de Poisson de paramètre > 0 Exercice 1. Let (Xn ; n 1) be a sequence of independent random k si 8k 2 N; P[X = k] = e k! . On a alors :E[X] = ; V [X] = et variables such that (eit 1) 8t; '(t) = e : Soit(Xn )n une suite de variables aléatoires indépendantes identiquement 1 1 P(Xn = n) = and P(Xn = 0) = 1 : distribuées de loi de Poisson de paramètre 1. n n 1. Quelle convergence donne le théorème limite central appliqué à la suite a) Show that Xn converges to X = 0 in probability, but that there is no (X n) ? quadratic convergence. 2. Quelle est la loi de X1 + ::: + Xn ? Here is yet another notion of convergence: we say that Xn con3. En utilisant les fonctions de répartition, montrer que verges towards X in mean if all these random variables are integrable and L1 n X lim E(jXn Xj) = 0: The notation for this is: Xn ! X. 1 nk n n!+1 ! : e k! n!+1 2 b) Does the above sequence converge in mean towards some random varik=0 able X ? c) Show that in general, Sn > n3 2 L2 Xn ! X L1 Xn ! X =) =) P Xn ! X: Exercice 2. Let (Xn ; n 1) be a sequence of square-integrable random variables such that E(Xn ) = 2 R, V ar(Xn ) = 2 > 0 for all n 1, and jCov (Xn ; Xm )j 2 exp ( jm nj) ; 8n; m 1: Let Sn = X1 + ::: + Xn . Show that 1 ére Master: Probabilités et Applications théme : Probabilités de base -13-