Lemme de Slutsky, -méthode et loi de l’arcsinus.
Simon C.
bXc
1 Le lemme de Slutsky.
THÉORÈME 1.1 (Slutsky). Soient (Xn)et (Yn)deux suites de variables aléatoires à
valeurs dans Rd. Supposons que Xn Xet qu’il existe une constante ctelle que Ync
en probabilités. Alors, (Xn,Yn) φ(X,c).
Démonstration. Rappelons que pour qu’une variable aléatoire converge en loi, il suffit
de vérifier que pour tout fonction φ:D¡Rd×Rd¢, on a E[φ(Xn,Yn)] E[φ(X,c)].
On trouve une preuve dans [sto, 2010] ainsi que dans [jac, 2003].
2 La delta-méthode.
THÉORÈME 2.1. Soit (rn)une suite de nombres réels qui tend vers +∞. Soit Xnune
suite de variables aléatoires et x0un vecteur (déterministe) telles que rn(Xnx0) Z,
Zest une variable aléatoire. Soit enfin gune fonction C1. Alors,
rn¡g(Xn)g(x0)¢ 〈∇g(x0), Z
Démonstration. Posons Hn=rn¡g(Xn)g(x0)¢rn〈∇g(x0), Xnx0, de sorte que l’on
a
rn¡g(Xn)g(x0)¢=rn〈∇g(X), Xnx0+Hn
Il est clair que rn¡g(Xn)g(x0)¢ 〈∇g(x0), Zpar les propriétés de la convergence
en loi. Si l’on réussit à montrer que Hn
P
0, le lemme de Slutsky nous permettra de
conclure. Donnons-nous ε>0 et montrons que P¡||Hn||>ε)0 lorsque n.
D’autre part, la fonction gétant différentiable, pour tout α>0, il existe ηα>0 tel
que xtel que ||xx0||ηα, on ait
||g(x)g(x0)〈∇g(x0), xx0〉||α||xx0||
Choisissons un tel α>0 et introduisons les événements An=©||Xnx0||ηαªet Bn=
©||Xnx0||>ηαª. Ainsi,
P(||Hn||>ε)P³An©||Hn||>εª´+P³Bn©||Hn||>εª´
1
Haut de page.
Puis, par définition de ηα, on obtient
P(||Hn||>ε)P¡rn||Xnx0||rnηα¢+P¡αrn||Xnx0||>ε¢
Comme rn→ +∞, pour toute constante positive M, il existe Ntel que nN,
rnM. Donc, si nest grand, on obtient P¡rn||Xnx0|| ≥ rnηα¢P¡rn||Xnx0|| ≥
Mα). D’autre part, la définition de la convergence en loi implique que P¡rn||XnX||
Mα)P(ZMα). Si l’on choisit Mtrès grand, on obtient que cette quantité est très
petite. En particulier, limsupP¡rn||Xnx0||rnηα¢=0.
Il faut maintenant majorer le deuxième terme, qui est égal à P¡rn||Xnx0|| > ε
α¢.
Comme εest fixé, il suffit de choisir αsuffisamment petit pour avoir le résultat 1.
En recollant tous les morceaux, on obtient bien que
limsupP¡||Hn||>ε)=0
ce qui montre que Hn
P
0 et achève la preuve du théorème, moyennant une applica-
tion du lemme de Slutsky.
On trouve également une preuve dans [sto, 2010].
COROLLAIRE 1. — Si la suite (Xn)est asymptotiquement normale, c’est-à-dire si 1
pn(Xn
c) N(0,σ), alors pour toute fonction gcontinûment différentiable, on obtient
1
pn¡g(Xn)g(c)¢ N³0,〈∇g(c),σg(c)´
3 Application : réduction de la variance et loi de l’arcsi-
nus.
Ce paragraphe est issu de [sto, 2010], mais il y a aussi des choses intéressantes dans
[tas, 2004].
Soit (Xn) une suite de variables aléatoires i.i.d. selon une loi d’espérance θet de
variance σ2. On cherche à estimer θet l’on ne connaît pas σ. Par le théorème central-
limite,
ˆ
tn=pn
σ³Sn
nθ´ N(0,1)
Soit αun seuil de confiance petit et qαle quantile d’ordre 1α
2, c’est-à-dire P(|N|>
qα)=α. Alors,
Pµpn
σ¯¯¯¯
Sn
nθ¯¯¯¯>qαα
1. En fait, il fallait majorer le deuxième terme en premier, ce qui donne α, puis majorer le premier
terme.
2
Haut de page.
Et donc, l’intervalle
Iα,σ=
Sn
nqαsσ2
n,Sn
n+qαsσ2
n
est un intervalle de confiance asymptotique de niveau α. Le problème, c’est que 1{XnIα,σ}
n’est pas une statistique car, dépend explicitement de la variance σ. Il y a plusieurs
techniques pour dépasser ce problème.
Une majoration a priori.
Dans certains cas, on peut majorer la variance par quelque chose de connu. Par
exemple, si la loi cible est une B(p), alors σ2=p(1 p)1
4.
Estimation de la variance par le lemme de Slutsky.
Une des méthodes les plus utilisées est tout simplement de construire un estima-
teur ˆ
σnde σ: s’il est consistant (c’est-à-dire, s’il converge en probabilité vers σ), alors le
lemme de Slutsky nous indique que pour toute fonction continue, g¡ˆ
tn,ˆ
σn¢converge
en probabilité vers g(N,σ) où Nest de loi N(0,1). C’est en particulier le cas lorsque
g(x,y)=σx
yet donc, on a encore
ˆ
sn=pn
ˆ
σn³Sn
nθ´ N(0,1)
Ce qui permet de construire des intervalles de confiance asymptotiques de la forme
Iα,σ=
Sn
nqαsˆ
σ2
n
n,Sn
n+qαsˆ
σ2
n
n
La -méthode.
Par la delta-méthode, pour toute fonction φdérivable, on a
ˆ
sn=pnµφµSn
nφ(θ) N¡0,φ0(θ)2σ2¢
Si l’on trouve une telle fonction φtelle que φ0(θ)2σ2(θ) est connu et ne dépend pas
de σ(θ), alors on pourra faire des intervalles de confiance asymptotiques sans souci.
Par exemple, dans le cas d’un processus de Bernouilli de paramètre à estimer p, on a
la convergence en loi suivante :
pn¡ˆ
pnp¢ N¡0, p(1 p)¢
Par la delta-méthode, on obtient
pn¡φ(ˆ
pn)φ(p)¢ N¡0,φ0(p)2p(1 p)¢
On cherche donc φtel que φ0(x)=1
px(1x), ce qui est facilement donné par φ(x)=
2arcsin(x). On dispose alors d’un intervalle de confiance pour 2arcsinpp: comme la
fonction arcsin est une bijection de ]π/2, π/2[ dans ]1, 1[ d’inverse sin, il est possible
d’avoir un intervalle de confiance pour pdonné par ...
3
Haut de page.
Références
[jac, 2003] (2003). L’essentiel en théorie des probabilités. Jean Jacod et Phillip Protter.
[tas, 2004] (2004). Méthodes statistiques. Philippe Tassi.
[sto, 2010] (2010). Statistique mathématique en action. Vincent Rivoirard et Gilles
Stoltz.
4
1 / 4 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !