Convergence de variables aléatoires 1) Convergence quadratique et convergence en probabilité Dé…nition : On dé…nit la norme quadratique d’une variable aléatoire par kXk2 = Remarque : Si X : ! R et est …ni et muni de la probabilité , alors kXk2 = p E(X 2 ): pP !2 X(!)2 (!): Remarque : La norme quadratique est la norme associée au produit scalaire hX; Y i = E(XY ): Dé…nition : On dit qu’une suite (Xn )n2N converge quadratiquement vers X ssi limn!+1 kXn Xk2 = 0: Dé…nition : On dit qu’une suite (Xn )n2N converge en probabilité vers X ssi pour tout " > 0, lim P (jXn n!+1 Xj ") = 0 a) Soit c réel. On suppose limn!+1 E(Xn ) = c et limn!+1 V (Xn ) = 0: Montrer que limn!+1 kXn ck2 = 0: b) Montrer que si (Xn )n2N converge quadratiquement vers X, alors (Xn )n2N converge en probabilité vers X: Solution : a) kXn e ck2 kXn E(Xn )k2 + kE(Xn ) En e¤et, la variable aléatoire E(Xn ) Xj ") = P ((Xn c)2 p V (Xn ) + jE(Xn ) c est constante, donc kE(Xn ) b) On applique l’inégalité de Markov à (Xn On a P (jXn ck2 = "2 ) cj : ck2 = jE(Xn ) cj : c)2 : kXn ck22 E((Xn c)2 ) = , donc limn!+1 P (jXn "2 "2 Xj ") = 0: 2) Un exemple : Nombre de points sans antécédent par une application On considère l’ensemble des nm applications f de f1; 2; :::; mg dans f1; 2; :::; ng, muni de la probabilité uniforme. utrement dit, l’image par f de tout j 2 f1; 2; :::; mg est choisi dans f1; 2; :::; ng avec la même probabilité, de sorte que chaque fonction f a la même probabilité d’être choisie. On note X : ! N la variable aléatoire donnant le nombre de points sans antécédent. Pour i 2 f1; 2; :::; ng, on note Yi la variable aléatoire valant 1 si i n’admet aucun antécédent, et 0 sinon. a) Préciser la loi de Yi et celle de Yi Yj , où i 6= j: b) Exprimer X à l’aide des Yi , et en déduire E(X) et V (X): c) On suppose m = n. On note désormais Xn au lieu de X, pour rappeler que X est fonction de n. Donner un équivalent de E(Xn ) lorsque n tend vers +1 et justi…er brièvement que V (Xn ) = O(n). d) En déduire que la suite Xn n converge en probabilité vers une variable Z qu’on précisera. n2N Solution : a) Les applications f pour lesquelles i n’a pas d’antécédent sont celles à valeurs dans f1; 2; :::; ng n fig: Donc on a P (Yi = 1) = 1)m (n nm = m 1 n 1 : 1 1 n Comme Yi Yj est à valeurs dans f0; 1g, Yi Yj suit la loi de Bernoulli B 1 Comme Yi est à valeurs dans f0; 1g, Yi suit la loi de Bernoulli B b) On a X = Et V (X) = Pn i=1 Yi , Pn i=1 E(Yi ) +2 P i6=j 1 n On en déduit notamment que E(Xn ) d) On a ainsi limn!+1 E 1+O Xn n Il résulte alors de a) et b) que m 2 n =e = exp n ln 1 2 2 n 1 m : 1 n +n 1 m n2 n n Et aussi V (Xn ) = n2 e = 1 n 1, 1 n et en fait on a : = exp ne m 2 n : 1+O 1 1 n 1 n 2m 1 n 1 : n =e =e 1 1 exp 1+O O 1 n 1 n : =e 1 1+O 1 n : 1: + n O (1) = limn!+1 Xn n : 1 m : n Pn P Pn 2 i=1 E(Yi ) = 2 i=1 V (Yi ): i6=j E(Yi Yj ) + E(Yi Yj ) 1) 1 1 n c) On sait que limn!+1 1 1 nm donc E(X) = n 1 On obtient donc V (X) = n(n En e¤et, 2)m (n Lorsque i 6= j, on a P (Yi Yj = 1) = m n2 e 2 1+O 1 n E(Xn ) = e et limn!+1 V n = O (n) : Xn n = limn!+1 V (Xn ) = 0: n2 converge en probabilité vers la variable Z constante de valeur e 1: n2N Ainsi, la probabilité qu’un élément de l’image n’ait pas d’antécédent converge vers e 1 lorsque n tend vers +1: