Université Paris–Dauphine DEMI2E Année 2014/2015 Probabilités Partie III Joseph Lehec Table des matières 8 Variables indépendantes 8.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Théorèmes limites 9.1 Loi des grands nombres . . . . 9.2 Convergence en loi . . . . . . . 9.3 Théorème de la limite centrale 9.4 Loi de l’arc sinus . . . . . . . . 9.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 3 3 5 5 7 8 10 11 8 8.1 Variables indépendantes Définition Définition 8.1. Soient X, Y des variables aléatoires. On dit que X et Y sont indépendantes si pour tous A, B ∈ B(R) P(X ∈ A, Y ∈ B) = P(X ∈ A)P(X ∈ B). Proposition 8.2. Soient X et Y des variables discrètes, X et Y sont indépendantes si et seulement si P(X = x, Y = y) = P(X = x)P(Y = y), ∀x, y ∈ R. (1) Remarque. Attention ceci ne marche que pour les variables discrètes. Par exemple si X et Y sont continues, on a toujours P(X = x, Y = y) = 0 = P(X = x)P(Y = y). Démonstration. On suppose qu’on a (1) et que X et Y sont à valeurs dans N (par exemple). Soient A, B des Boréliens de R, on a X P(X ∈ A, Y ∈ B) = P(X = i, Y = j) i∈A,j∈B = X P(X = i)P(Y = j) i∈A,j∈B = X P(X = i) i∈A X P(Y = j) j∈B = P(X ∈ A)P(X ∈ B), ce qui montre que X et Y sont indépendantes. La réciproque est évidente. Exemple 8.3. On lance deux dés, on appelle X et Y les résultats respectifs du premier et deuxième dé. On a 1 P(X = 2, Y = 3) = = P(X = 2)P(Y = 3). 36 Donc {X = 2} est indépendant de {Y = 3} et de même pour les autres valeurs de X et Y . Ainsi X est indépendant de Y . Proposition 8.4. Si X et Y sont indépendantes alors E[f (X)g(Y )] = E[f (X)] E[g(Y )], pour toutes fonctions f et g (telles que les espérances précédentes soient bien définies). Démonstration. C’est toujours la même histoire : on a la propriété pour les fonctions indicatrices, par linéarité on l’obtient pour les fonctions étagées, puis pour les fonctions positives par convergence monotone, etc. . . Proposition 8.5. Soient X, Y des variables aléatoires indépendantes. On a MX+Y = MX MY . Démonstration. On utilise la proposition précédente : MX+Y (t) = E(et(X+Y ) ) = E(etX etY ) = E(etX )E(etY ) = MX (t)MY (t). Exemple 8.6. Soit X, Y des variables indépendantes suivant des lois de Poisson de paramètres λ et µ, respectivement. On calcule la fonction génératrice des moments de X + Y : MX+Y (t) = MX (t)MY (t) = exp λ(et − 1) exp µ(et − 1) = exp (λ + µ)(et − 1) . On reconnaît la fonction génératrice des moments de la loi de Poisson de paramètre λ + µ. Comme la fonction génératrice des moments caractérise la loi, la variable X + Y suit la loi de Poisson de paramètre λ + µ. 2 Définition 8.7. On dit que (Xn )n∈N est une suite de variables aléatoires indépendantes si pour toute suite finie d’indices 0 ≤ i1 < i2 < · · · < in et de Boréliens B1 , . . . , Bn on a P(Xi1 ∈ B1 , . . . , Xin ∈ Bn ) = P(Xi1 ∈ B1 ) × · · · × P(Xin ∈ Bn ). Si on a seulement P(Xi ∈ A, Xj ∈ B) = P(Xi ∈ A)P(Xj ∈ B) pour tout i 6= j on dit que les variables (Xi )i≥1 sont deux à deux indépendantes. 8.2 Covariance Définition 8.8. On appelle covariance de deux variables de carré intégrable la quantité cov(X, Y ) = E(XY ) − E(X)E(Y ). Remarque. Comme 2|XY | ≤ X 2 + Y 2 , la covariance de X et Y est définie dès que X et Y sont de carré intégrable. La covariance sert à calculer la variance de la somme : var(X + Y ) = E[(X + Y )2 ] − [E(X + Y )]2 = E(X 2 ) + 2E(XY ) + E(Y 2 ) − (EX)2 − 2(EX)(EY ) = var(X) + var(Y ) + 2cov(X, Y ). Plus généralement on a var n X i=1 ! Xi = n X var(Xi ) + 2 i=1 X cov(Xi , Xj ) 1≤i<j≤n pour toute famille X1 , . . . , Xn de variables de carré intégrable. Lemme 8.9. Si X, Y sont indépendantes et de carré intégrable alors cov(X, Y ) = 0. Démonstration. Il suffit d’appliquer la Proposition 8.4 : on a E(XY ) = E(X)E(Y ). Remarque. La réciproque n’est pas vraie, on peut avoir cov(X, Y ) = 0 sans que X et Y soient indépendantes. Par conséquent si X et Y sont indépendantes on a var(X + Y ) = var(X) + var(Y ). Plus généralement, si X1 , X2 , . . . , Xn sont indépendantes var(X1 + · · · + Xn ) = var(X1 ) + · · · + var(Xn ). Exemple 8.10. On peut retrouver la variance de la binomiale ainsi. Soient X1 , .P . . , Xn des variables indépendantes suivant toutes la loi de Bernoulli de paramètre p. Alors X = i Xi suit une binomiale de paramètres n et p et var(X) = var(X1 ) + · · · + var(Xn ) = np(1 − p). Des variables qui, comme dans l’exemple précédent, sont indépendantes et de même loi sont dites i.i.d. (pour “indépendantes identiquement distribuées”). 8.3 Exercices Exercice 8.1. On considère une main de poker, le nombre d’as est–il indépendant du nombre de rois ? du nombre de trèfles ? Exercice 8.2. Soit X et Y des variables aléatoires indépendantes, prenant toutes les deux les valeurs 1 et −1 avec probabilité 1/2. Montrer que X, Y et XY sont deux à deux indépendantes. Sont–elles mutuellement indépendantes ? 3 Exercice 8.3 (loi faible des grands nombres). Soit (Xi )i≥1 une suite de variables i.i.d. de carré intégrable. On pose m = E(X1 ) et σ = var(X1 ). 1. Exprimer la variance de (X1 + · · · + Xn )/n en fonction de n et σ. 2. Montrer que pour tout > 0 on a X1 + · · · + Xn lim P − m ≥ = 0. n→+∞ n On dit que (X1 + · · · + Xn )/n converge vers m en probabilité. Exercice 8.4. Soient X, Y des variables indépendantes. 1. Exprimer la fonction de répartition de max(X, Y ) en fonction des répartitions de X et Y . Même question avec min(X, Y ). 2. On suppose maintenant que X et Y sont uniformes sur [0, 1], déterminer la loi de max(X, Y ). Exercice 8.5. Soient n, m des entiers, et p ∈ [0, 1]. Soient X et Y des variables indépendantes et binomiales de paramètres n, p et m, p, respectivement. 1. Calculer les fonctions génératrices des moments de X et Y . 2. Déterminer la fonction génératrice des moments de X + Y . 3. En déduire la loi de X + Y . Exercice 8.6. Soient X, Y des variables aléatoires indépendantes et de même loi géométrique de paramètre p. 1. Déterminer la loi de min(X, Y ). 2. Calculer la fonction de masse de X − Y . 3. Montrer que min(X, Y ) est indépendante de X − Y . Exercice 8.7. Soient X1 , X2 des variables indépendantes de lois respectives Γ(n1 , λ) et Γ(n2 , λ). 1. Calculer la fonction génératrice des moments de X1 + X2 et en déduire sa loi. 2. Quelle est la loi de Y1 + · · · + Yn si les Yi sont i.i.d de loi exponentielle ? Exercice 8.8. On considère n lancers de dés successifs. On appelle Aij l’événement “les résultats des i–ème et j–ème lancers sont égaux” et on pose X X= 1Aij . 1≤i<j≤n 1. Calculer l’espérance de X. 2. Montrer que les événements (Aij )1≤i<j≤n sont deux à deux indépendants. Sont–ils mutuellement indépendants ? 3. Déterminer la variance de X. Exercice 8.9. On modélise les durées qui s’écoulent entre deux passages successifs de bus à un arrêt par une suite (τi )i≥1 de variables i.i.d. de loi exponentielle de paramètre λ > 0 : le premier bus met un temps τ1 à arriver, puis il s’écoule un temps τ2 avant le passage du deuxième, etc. . . Pour tout entier n ≥ 1 on appelle n X Tn = τi i=1 le temps de passage du n-ième bus. 1. Soit n ≥ 1. Déterminer la loi de Tn . Indication : On pourra calculer sa fonction génératrice des moments. 2. Montrer que pour tout entier n ≥ 1 et pour tout t > 0, on a (λt)n e−λt + P(Tn+1 ≤ t). n! Indication : On pourra intégrer par parties. 3. On fixe t > 0. Déduire de la question précédente la loi du nombre N (t) de bus déjà passés à l’instant t. P(Tn ≤ t) = 4 9 Théorèmes limites 9.1 Loi des grands nombres Soit (Xn ) une suite de variables aléatoires i.i.d. de loi donnée par 1 2 P(Xi = 1) = P(Xi = −1) = et soit Sn = n X Xi k=1 la marche aléatoire simple symétrique sur Z. On a déjà vu précédemment que pour tout > 0 et tout n ≥ 1. Sn 1 P ≥ ≤ 2 n n Lemme 9.1. Soit > 0. Il existe une constante C telle que Sn C P ≥ ≤ 4 2. n n Par conséquent X n≥1 Sn P ≥ < +∞. n Démonstration. D’après l’inégalité de Markov P(|Sn | > n) = P(|Sn |4 > n4 4 ) ≤ 1 E[Sn4 ]. n4 4 (2) Rappelons que Sn = X1 + · · · + Xn , on a en développant et en utilisant la linéarité de l’espérance X X X E[Sn4 ] = E[Xi4 ] + 12 E[Xi3 Xj ] + 12 E[Xi2 Xj2 ] i + 24 i<j i6=j X E[Xi Xj Xk2 ] + 24 i<j,k6=i,j X E[Xi Xj Xk Xl ], i<j<k<l Comme les Xi sont d’espérance nulle et indépendantes on a E[Xi3 Xj ] = E[Xi3 ]E[Xj ] = 0. De même E[Xi Xj Xk2 ] = E[Xi ]E[Xj ]E[Xk2 ] = 0 et E[Xi Xj Xk Xl ] = 0. De plus comme E[Xi2 ] = 1 E[Xi2 Xj2 ] = E[Xi2 ]E[Xj2 ] = 1. On a aussi E[Xi4 ] = 1, et donc E[Sn4 ] = X E[Xi4 ] + 12 i X E[Xi2 Xj2 ] ≤ C n2 i<j pour une certaine constante C. En reportant ceci dans (2) on obtient le résultat. Lemme 9.2 (lemme de Borel–Cantelli). Soit (An ) une suite d’événements vérifiant X P(An ) < +∞, n≥1 alors presque surement l’événement An ne se produit que pour un nombre fini d’entiers n. 5 Démonstration. On note lim sup An l’événement « An se produit pour une infinité de n ». Alors \ [ lim sup An = An . k≥1 n≥k Par conséquent [ An & lim sup An . n≥k Et donc par convergence monotone P [ An & P(lim sup An ). n≥k Il suffit donc de montrer que lim P k→+∞ Mais comme la série P [ An = 0. n≥k P(An ) converge X lim k→+∞ P(An ) = 0. n≥k De plus on a l’inégalité P [ An ≤ n≥k X P(An ). n≥k D’où le résultat. En combinant les deux lemmes précédents, on en déduit qu’étant donné > 0, presque surement Sn ≤ , pour n suffisamment grand. n Comme une intersection dénombrable d’événements quasi–certains est un événement quasi–certain, on en déduit que presque surement Sn 1 ∀k ≥ 1, ≤ , pour n suffisamment grand. n k Autrement dit, avec probabilité 1 Sn → 0. n Autrement dit dans une suite infinie jeu de pile ou face, la proportion de piles obtenus tend vers 1/2, presque surement. De plus, on a seulement utilisé le fait que les Xi sont indépendantes de moyennes nulles et admettent un moment d’ordre 4. La même démonstration donnerait donc le résultat suivant : Soit (Xi ) une suite de variables i.i.d. telles que E[Xi4 ] < +∞. Alors presque surement n 1X Xi −→ E[X1 ]. n i=1 En fait l’hypothèse de moment d’ordre 4 est superflue. Théorème 9.3 (Loi forte des grands nombres). Soit (Xi ) une suite de variables i.i.d. intégrables : E[|Xi |] < +∞. Alors, presque surement n 1X Xi −→ E[X1 ]. n i=1 On admettra ce résultat. 6 9.2 Convergence en loi Soit X, X1 , X2 , . . . des variables aléatoires. En lisant entre les lignes de la section précédente on obtient le résultat suivant. Lemme 9.4. Il y a équivalence entre Xn −→ X, p.s. et la propriété ∀ > 0, lim P n→+∞ [ {|Xk − X| ≥ } = 0. k≥n Cette observation motive la définition suivante. Définition 9.5. On dit que (Xn ) converge vers X en probabilité si ∀ > 0, lim P(|Xn − X| ≥ ) = 0. n→+∞ Le lemme précédent montre que si Xn → X presque surement, alors Xn → X en probabilité. On va maintenant parler d’une troisième notion de convergence, la convergence en loi. Définition 9.6. Soient X, X1 , X2 , . . . des variables aléatoires et F, F1 , F2 , . . . leurs fonctions de répartition respectives. On dit que (Xn ) converge en loi vers X si lim Fn (x) = F (x) n pour tout x tel que F soit continue en x. Remarque. Cette définition peut sembler étrange : pourquoi ne demander la convergence qu’aux points de continuité de F ? En fait la définition serait trop restrictive si on demandait la convergence en tout point de R. Prenons par exemple Xn uniforme sur [0, 1/n]. Alors 0 ≤ Xn ≤ 1/n presque surement, ce qui implique Xn → 0, p.s. Soit Fn la fonction de répartition 0 nx Fn (x) = 1 de Xn et F celle de la variable constante égale à 0. On a si x < 0, si 0 ≤ x < si n1 ≤ x, 1 n, et F (x) = 0 1 si x < 0, si 0 ≤ x. On en déduit facilement que lim Fn (x) = F (x) n pour tout x 6= 0, donc en tout point de continuité de F . En revanche, on n’a pas convergence en 0, puisque Fn (0) = 0 pour tout n et F (0) = 1. Proposition 9.7. Si (Xn ) converge vers X en probabilité alors (Xn ) converge vers X en loi. Remarque. On a donc la chaine d’implication suivante convergence presque sure =⇒ convergence en probabilité =⇒ convergence en loi La réciproque de chacune de ces implications est en générale fausse. Démonstration. Soit x ∈ R et soit δ > 0. On écrit P(Xn ≤ x) = P(Xn ≤ x, X ≤ x + δ) + P(Xn ≤ X, X > x + δ) ≤ P(X ≤ x + δ) + P(|Xn − X| ≥ δ). 7 Et de même P(X ≤ x − δ) ≤ P(Xn ≤ x) + P(|Xn − X| ≥ δ). On en déduit que F (x − δ) − P(|Xn − X| ≥ δ) ≤ Fn (x) ≤ F (x + δ) + P(|Xn − X| ≥ δ) (3) pour tout x ∈ R et tout δ > 0. Supposons maintenant que F est continue en x. Étant donné > 0 il existe δ > 0 tel que F (x − δ) ≥ F (x) − et F (x + δ) ≤ F (x) + . De plus comme Xn → X en probabilité P(|Xn − X| ≥ δ) ≤ pour n assez grand. L’inégalité (3) devient donc F (x) − 2 ≤ Fn (x) ≤ F (x) + 2, pour n assez grand, ce qu’il fallait démontrer. Remarque. On aurait en fait pu montrer le résultat suivant qui est un peu plus précis. Si Xn → X en probabilité, alors pour tout x ∈ R F (x−) ≤ lim inf Fn (x) ≤ lim sup Fn (x) ≤ F (x), n→+∞ n→+∞ où F (x−) est la limite à gauche de F en x. On aura besoin du lemme suivant. Lemme 9.8. Soient X, X1 , X2 , . . . des variables aléatoires et F, F1 , F2 , . . . leurs fonctions de répartition respectives. Si Fn (x) − Fn (y) → F (x) − F (y), ∀x, y ∈ R, alors Fn (x) → F (x) pour tout x ∈ R. Et donc Xn → X en loi. Démonstration. Soit x ∈ R et soit > 0. Comme F (y) → 0 quand y → −∞ il existe y tel que F (y) ≤ . Comme Fn (x) − Fn (y) → F (x) − F (y) on a Fn (x) ≥ Fn (x) − Fn (y) ≥ F (x) − F (y) − ≥ F (x) − 2, pour n suffisamment grand. De même il existe z tel que F (z) ≥ 1 − . Par conséquent Fn (x) ≤ Fn (x) − Fn (z) + 1 ≤ F (x) − F (z) + + 1 ≤ F (x) + 2 pour n suffisamment grand. Donc |Fn (x) − F (x)| ≤ 2 pour n assez grand, ce qu’il fallait démontrer. 9.3 Théorème de la limite centrale Revenons à la marche aléatoire. On a vu que Sn −→ 0, n On va maintenant montrer que Sn √ n p.s. converge en loi. Lemme 9.9. Si n → +∞ et si |k| = o(n2/3 ) alors 2 1 P(S2n = 2k) = √ e−k /n (1 + o(1)). πn 8 Démonstration. Comme la loi de S2n est symétrique on peut supposer que k est positif. Soit k ∈ {0, . . . , n} Qk−1 Qk−1 2n 2n −2n i=0 (n − i) 2n −2n i=1 (1 − ni ) P(S2n = 2k) = 2−2n = 2 = 2 Qk Qk i n+k n n i=1 (n + i) i=1 (1 + ) n En utilisant 1+ i n = exp i +O n i2 n2 , et l’hypothèse k = o(n2/3 ) on obtient Qk−1 3 ! k−1 i X i k k i=1 1 − n − +O = exp −2 Qk 2 i n n n i=1 1 + n i=1 = e−k De plus on a vu précédemment que 2 /n (1 + o(1)). 2n −2n 1 2 = √ (1 + o(1)). n πn D’où le résultat. Théorème 9.10 (de Moivre–Laplace). On a S √n −→ N (0, 1), n en loi. Démonstration. D’après le Lemme 9.8 il suffit de montrer que Z y 2 Sn 1 P √ ∈]x, y] → √ e−t /2 dt, n 2π x √ √ pour tous réels x ≤ y ∈ R. On fixe x ≤ y. Si 2k/ 2n ∈]x, y] alors |k| = O( n) et le lemme précédent s’applique. Par conséquent X S2n P √ ∈]x, y] = P(S2n = 2k) √n √n 2n 2 = x<k≤ 2 y 2 1 √ ek /n (1 + o(1)). πn X √n 2 x<k≤ √n 2 y Appelons 2 1 φ(x) = √ e−x /2 2π q n la densité de la Gaussienne N (0, 1) et posons ak = n2 k. Pour n fixé, quand k parcourt les entiers q p p entre n2 x et n2 y la suite (ank ) parcourt une subdivision de l’intervalle ]x, y] de pas n2 . Comme φ est une fonction continue, la somme de Riemann r X X 2 1 2 √ ek /n = φ(ank ) n √n πn √n √n √n 2 x<k≤ 2 y 2 x<k≤ 2 y converge vers l’intégrale de φ sur [x, y]. On en déduit Z y S2n P √ ∈]x, y] → φ(t) dt, 2n x ce qui est le résultat cherché pour les entiers pairs. Les calculs sont similaires pour les entiers impairs. 9 √ Quand n tend vers l’infini Sn / n est à peu près Gaussienne. Ce résultat est en fait un cas particulier du théorème suivant. Théorème 9.11 (Théorème de la limite centrale). Soit (Xn ) une suite de variables i.i.d. de carré intégrable. On pose m = E[Xi ] et σ = var(Xi ). Alors Pn i=1 (Xi − m) √ −→ N (0, 1), en loi. nσ On dit que la Gaussienne a un caractère universel, au sens où quelle que soit la loi de départ des Xi (pourvu quelle admette un moment d’ordre 2) la somme des Xi se comporte comme une Gaussienne. 9.4 Loi de l’arc sinus Dans cette section, on va donner un autre exemple de convergence en loi. On revient à la marche simple symétrique sur Z. On considère Dn = sup{k ≤ n; Sk = 0}, le temps du dernier passage en 0 avant le temps n. On a vu au chapitre 3 que 2k 2(n − k) −2n P(D2n = 2k) = 2 . k n−k Théorème 9.12. Soient x, y des réels vérifiant 0 ≤ x ≤ y ≤ 1. On a Z y 1 Dn p ∈]x, y] −→ dt. P n π t(1 − t) x Démonstration. On va se contenter de faire les calculs pour n pair. On écrit X D2n P ∈]x, y] = P(D2n = 2k) 2n xn<k≤yn X 2k 2(n − k) = 2−2n . k n−k xn<k≤yn On sait que 2p −2p 1 2 = √ (1 + o(1)) πp p quand p tend vers l’infini. Supposons que 0 < x < y < 1. Alors pour k ∈]xn, yn] on a k → +∞ et (n − k) → +∞. Par conséquent Et donc 2k k P 2(n − k) −2n 1 2 = p (1 + o(1)). n−k π k(n − k) D2n ∈]x, y] = 2n De plus comme la fonction √ 1 t(1−t) π xn<k≤yn π xn<k≤yn p p k(n − k) (1 + o(1)). est continue sur [x, y], la somme de Riemann 1 X 1 X k(n − k) converge vers Z 1 X = xn<k≤yn y 1 π q k n 1 ×n 1− k n dt. π t(1 − t) On obtient donc le résultat, du moins si x > 0 et y < 1. Les cas x = 0 ou y = 1 se déduisent du cas précédent par argument similaire à celui du Lemme 9.8. Les détails sont laissés en exercice. x p 10 Autrement dit Dn /n converge en loi vers une variable continue de densité 1 p 1[0,1] (t). π t(1 − t) Cette loi est appelée loi de l’arc sinus, parce que sa fonction de répartition F vaut Z √ 1 x 1 2 p F (x) = dy = arcsin( x) π 0 π y(1 − y) pour tout x ∈ [0, 1]. Figure 1 – Densité de la loi de l’arc sinus 1 1 9.5 Exercices Exercice 9.1. Une pièce tombe 5 400 fois du côté pile sur 10 000 lancers. Peut–on raisonnablement penser qu’elle est truquée ? Exercice 9.2. Des catastrophes se produisent aux temps T1 , T2 , . . . . On suppose que les durées (Ti+1 − Ti )i≥1 qui s’écoulent entre deux catastrophes successives sont indépendantes et de même loi, et que cette loi est intégrable. On appelle Nt = card({n, Tn ≤ t}) le nombre de catastrophes qui se sont produites au temps t. 1. Montrer que Nt → +∞ p.s. 2. Montrer que Nt 1 → , t E[T1 ] p.s. Exercice 9.3. 1. Soient X, X1 , . . . , Xn , . . . des variables aléatoires à valeurs dans N. Montrer que la suite (Xn )n≥1 converge vers X en loi si et seulement si pour tout k ∈ N on a lim P(Xn = k) = P(X = k). n→∞ 2. Soit λ > 0 et pour tout n suffisamment grand, soit Xn une variable suivant une loi binomiale de paramètres n et λ/n. Étudier la convergence en loi de la suite (Xn ). Exercice 9.4. On s’intéresse à la vitesse de convergence dans le théorème de de Moivre–Laplace. 1. Reprendre l’exercice 4.9 et montrer que 2n −2n 1 1 . 2 =√ 1+O n n πn 11 2. Reprendre la démonstration du Théorème 9.10 et montrer que pour tout x ≤ y et pour tout n≥1 Z y C Sn 1 −t2 /2 ≤ √ P √ √ e dt ∈]x, y] − n n 2π x pour une constante C dépendant de x, y mais pas de n. Exercice 9.5. Soit λ > 0 et soit (Xn ) une suite de variables aléatoires telle que pour tout n la variable Xn suive une loi de Poisson de paramètre λn. 1. Soit (kn ) une suite d’entiers tendant vers l’infini de sorte que la suite (xn ) définie par xn = kn − λn √ λn soit bornée. Montrer que 2 e−xn /2 C P(Xn = kn ) − √ ≤ , n 2πλn pour une constante C dépendant de λ et supn {|xn |}. Indication : On pourra utiliser la formule de Stirling améliorée suivante : n n √ 1 n! = 2πn 1 + O e n 2. En déduire que la suite (Yn ) définie par Yn = Xn − λn √ λn converge en loi vers la Gaussienne standard. 3. Retrouver ce résultat à partir du théorème de la limite centrale, et en utilisant l’exemple 8.6. 12