Comportement asymptotique de suites de variables aléatoire

publicité
Comportement asymptotique de suites de variables aléatoire à valeurs réelles
1) Di¤érentes convergences pour une suite de variables aléatoire à valeurs réelles
Soit (Xn )n2N une suite de variables aléatoires dé…nies de
à valeurs réelles. Posons an;k = P (Xn = k):
a) Convergence en loi
Def : (Xn )n2N converge en loi vers X ssi pour tout f : R ! R continue et bornée, limn!+1 E(f (Xn )) = E(f (X)):
Important : Dans le cas de variables aléatoires à valeurs dans Z, (Xn )n2N converge en loi vers X ssi
8k 2 Z, limn!+1 P (Xn = k) = P (X = k)
Remarque : Il su¢ t en e¤et de considérer une fonction qui vaut 1 en k et 0 sur les autres entiers.
b) Convergence en probabilité
Def : (Xn )n2N converge en probabilité vers X ssi pour tout " > 0, limn!+1 P (jXn
Xj
") = 0 .
Prop : La convergence en probabilité implique la convergence en loi.
Preuve : On se contente de la prouver pour les fonctions f lispchitziennes (de rapport k).
On a en e¤et, jE(f (Xn ))
Donc E(jf (Xn )
f (X)j)
E(f (X))j = jE(f (Xn )
P (jXn
Xj
Par pincement, limn!+1 E(jf (Xn )
")
f (X))j
k" + P (jXn
E(jf (Xn )
Xj
")
f (X)j):
sup jf j
k" + P (jXn
Xj
")
sup jf j :
f (X)j) = 0, donc limn!+1 E(f (Xn )) = E(f (X)):
c) Convergence en moyenne : limn!+1 kXn
Xk1 = 0 , où kXn
Xk1 = E(jXn
Xj):
Prop : La convergence en moyenne implique la convergence en probabilité.
Preuve : Par l’inégalité de Markov, on a : P (jXn
Xj
")
kXn
Xk1
"
:
d) Convergence en moyenne quadratique : limn!+1 kXn
Xk2 = 0, où kXn
p
Remarque : Par l’inégalité de Cauchy-Schwarz, kXn Xk1
kXn Xk2 .
D
E r
p
e
En e¤et, avec hX; Y i = E(XY ), on a kXk1 = X; e
1
1
kXk2 :
Xk2 =
p
E((Xn
X)2 ):
2
Donc la convergence en moyenne quadratique implique la convergence en moyenne, donc la convergence en loi.
Contre-exemple : Considérons Xn à valeurs dans N telle que P (Xn = n) =
1
n
et P (Xn = 0) = 1
1
n:
Alors (Xn )n2N converge en loi vers e
0, alors que V (Xn ) = n1 n2 = n, donc kXn k2 ! +1:
2) Loi faible des grands nombres
a) Loi faible des grands nombres
Théorème : Supposons X1 ; :::; Xn mutuellement indépendantes, de même loi X d’espérance …nie et admettant un
Sn
moment d’ordre 2 (donc une variance). On considère Sn = X1 + X2 + ::: + Xn et Mn =
:
n
Mn
" = 0.
Alors (Mn )n2N converge en probabilité vers e, c’est-à-dire 8" > 0, limn!+1 P
n
Preuve : En retranchant aux Xi , on se ramène au cas où = 0:
1
On a V (Mn ) = V (X):D’où par Bienaymé-Tchebychev, P (jMn j ")
n
Remarque culturelle : Le théorème central limite assure que
V (Mn )
V (X)
=
:
2
"
n"2
p1 (X1 + X2 + ::: + Xn )
n
converge en loi vers la loi normale
(= loi gaussienne) de même espérance et variance que X, c’est-à-dire que pour tous a et b réels (avec a
Z b
Sn n
1
t2
p
lim P a
b =p
exp
dt
n!+1
2
n
2 a
b), on a :
3) Convergence presque sûre (FF)
a) Convergence presque sûre d’une suite de variables aléatoires
Def : On dit que (Xn )n2N converge presque sûrement vers X ssi P (limn!+1 Xn = X) = 1.
Autrement dit, f! 2
j limn!+1 Xn (!) existe et vaut X(!)g est de probabilité 1 (un événemement presque sûr).
Remarque importante : Contrairement à la convergence en loi, la convergence presque sûre dépend des corrélations
des variables Xn entre elles, et pas seulement des lois des variables Xn .
Prop : La convergence presque sûre implique la convergence en probabilité.
Exemple : Soient (Xn )n2N une suite de v.a. indépendantes, où Xn suit une loi de Bernoulli B(pn ) sur f0; 1g:
(
(Xn )n2N converge en probabilité vers X = e
0 ssi limn!+1 pn = 0. En e¤et, fP (jXn Xj 1g = pn :
Alors
P
(Xn )n2N converge presque sûrement vers X = e
0 ssi +1
n=0 pn < +1:
Q
Q
En e¤et, P (8k n, Xk = 0) = +1
pk ), donc P (limn!+1 Xn = 0) = limn!+1 +1
pk ).
k=n (1
k=n (1
Q
P
Elle converge vers 1 ssi (1 pn ) converge, donc ssi
pn converge.
b) Loi forte des grands nombres (admis)
Théorème (Kolmogorov) : Soient X1 ; X2 ; :::; Xn des variables i.i.d. On pose Sn =
Alors (Sn )n2N converge presque sûrement vers , où
= E(X1 ):
X1 + X2 + ::: + Xn
:
n
Comportement asymptotique de suites de variables aléatoire à valeurs entières
1) Convergence simple des séries génératrices : Théorème de Lévy
Remarque : Le théorème permet de prouver la convergence en loi en utilisant la cv des séries génératrices.
On considère des v.a.d. Xn à valeurs dans N de loi P (Xn = k) = ak;n , de variance uniformément majorée :
P
v
2
v: En particulier,8n 2 N, 8k 2 N , ak;n
Il existe v tel que 8n 2 N, +1
:
k=0 k ak;n
k2
On considère aussi une v.a.d. X de loi P (X = k) = ak .
Théorème de Paul Lévy : Les assertions suivantes sont équivalentes :
i) Convergence en loi : 8k 2 N, limn!+1 ak;n = ak
ii) Convergence des séries génératrices complexes :
P
k
1, limn!+1 Gn (z) = G(z), où Gn (z) = +1
k=0 ak;n z :
v
Preuve : i) ) ii) : cv dominée ak;n z k
:
k2
P
1 R2
v
ii) ) i) : ak;n =
Fn (ei )e ik d , et cv dominée par '( ) = +1
k=0 2 (fonction cste).
0
2
k
2) Théorème des événements rares
P
Prop : Supposons Sn = ni=1 Xi;n , où les Xi;n sont indépendants et Xi;n B(pi;n ) loi de Bernoulli.
P
P
On suppose que limn!+1 ni=1 pi;n = et limn!+1 ni=1 (pi;n )2 = 0:
Pour tout jzj
Alors (Xn )n2N converge en loi vers la loi de Poisson P( ).
P
P
Remarque : Comme les Xi;n sont indépendants, V (Sn ) = ni=1 V (Xi;n ) = ni=1 pi;n ! :
Q
Idée de la preuve : La série génératrice de Sn est Fn (z) = ni=1 (1 + pi;n (z 1)):
Q
P
Qn
Pn
On a j ni=1 (1 + yi ) exp( ni=1 yi )j
(1 + jyi j)) :
i=1 (exp( i=1 jyi j)
Or, ln(1 + u)
u
1 2
2u
pour tout u
On montre alors que 8z de module
0:
1, on a : limn!+1 Fn (z) = e(z
1)
série génératrice de Poisson.
Téléchargement