Lemme de Slutsky, ∆-méthode et loi de l`arcsinus.

publicité
Lemme de Slutsky, ∆-méthode et loi de l’arcsinus.
Simon C.
bXc
1 Le lemme de Slutsky.
T HÉORÈME 1.1 (Slutsky). — Soient (X n ) et (Yn ) deux suites de variables aléatoires à
valeurs dans Rd . Supposons que X n
X et qu’il existe une constante c telle que Yn → c
en probabilités. Alors, (X n , Yn ) φ(X , c).
Démonstration. Rappelons que pour qu’une
aléatoire converge en loi, il suffit
¡ d variable
¢
d
♥
de vérifier que pour tout fonction φ : D R × R , on a E[φ(X n , Yn )] → E[φ(X , c)].
On trouve une preuve dans [sto, 2010] ainsi que dans [jac, 2003].
2 La delta-méthode.
T HÉORÈME 2.1. — Soit (r n ) une suite de nombres réels qui tend vers +∞. Soit X n une
suite de variables aléatoires et x 0 un vecteur (déterministe) telles que r n (X n − x 0 )
Z,
1
où Z est une variable aléatoire. Soit enfin g une fonction C . Alors,
¡
¢
r n g (X n ) − g (x 0 )
⟨∇g (x 0 ), Z ⟩
¡
¢
Démonstration. Posons Hn = r n g (X n ) − g (x 0 ) − r n ⟨∇g (x 0 ), X n − x 0 ⟩, de sorte que l’on
a
¡
¢
r n g (X n ) − g (x 0 ) = r n ⟨∇g (X ), X n − x 0 ⟩ + Hn
¡
¢
Il est clair que r n g (X n ) − g (x 0 )
⟨∇g (x 0 ), Z ⟨ par les propriétés de la convergence
P
en loi. Si l’on réussit à montrer que Hn −
→ 0, le lemme
de Slutsky nous permettra de
¡
conclure. Donnons-nous ε > 0 et montrons que P ||Hn || > ε) → 0 lorsque n → ∞.
D’autre part, la fonction g étant différentiable, pour tout α > 0, il existe η α > 0 tel
que ∀x tel que ||x − x 0 || ≤ η α , on ait
||g (x) − g (x 0 ) − ⟨∇g (x 0 ), x − x 0 ⟩|| ≤ α||x − x 0 ||
©
ª
©Choisissons un tel
ª α > 0 et introduisons les événements A n = ||X n − x 0 || ≤ η α et B n =
||X n − x 0 || > η α . Ainsi,
³
³
©
ª´
©
ª´
P(||Hn || > ε) ≤ P A n ∩ ||Hn || > ε + P B n ∩ ||Hn || > ε
1
Q
Haut de page.
Q
Puis, par définition de η α , on obtient
¡
¢
¡
¢
P(||Hn || > ε) ≤ P r n ||X n − x 0 || ≥ r n η α + P αr n ||X n − x 0 || > ε
Comme r n → +∞, pour toute constante¡ positive M , il existe¢ N tel
¡ que ∀n ≥ N ,
r n ≥ M . Donc, si n est grand, on obtient P r n ||X n − x 0 || ≥ r n η α ≤ P r¡n ||X n − x 0 || ≥
M α). D’autre part, la définition de la convergence en loi implique que P r n ||X n − X || ≥
M α) → P(Z ≥ M α). Si l’on choisit
¡ M très grand, on¢ obtient que cette quantité est très
petite. En particulier, lim sup P r n ||X n − x 0 || ≥ r n η α = 0.
¢
¡
Il faut maintenant majorer le deuxième terme, qui est égal à P r n ||X n − x 0 || > αε .
Comme ε est fixé, il suffit de choisir α suffisamment petit pour avoir le résultat 1 .
En recollant tous les morceaux, on obtient bien que
¡
lim sup P ||Hn || > ε) = 0
P
ce qui montre que Hn −
→ 0 et achève la preuve du théorème, moyennant une application du lemme de Slutsky.
♥
On trouve également une preuve dans [sto, 2010].
C OROLLAIRE 1. — Si la suite (X n ) est asymptotiquement normale, c’est-à-dire si p1n (X n −
c) N (0, σ), alors pour toute fonction g continûment différentiable, on obtient
¢
1 ¡
p g (X n ) − g (c)
n
³
´
N 0, ⟨∇g (c), σ∇g (c)⟩
3 Application : réduction de la variance et loi de l’arcsinus.
Ce paragraphe est issu de [sto, 2010], mais il y a aussi des choses intéressantes dans
[tas, 2004].
Soit (X n ) une suite de variables aléatoires i.i.d. selon une loi d’espérance θ et de
variance σ2 . On cherche à estimer θ et l’on ne connaît pas σ. Par le théorème centrallimite,
p ³
´
n Sn
−θ
N (0, 1)
t̂ n =
σ n
Soit α un seuil de confiance petit et q α le quantile d’ordre 1− α2 , c’est-à-dire P(|N | >
q α ) = α. Alors,
¯
µp ¯
¶
¯
n ¯¯ S n
¯
P
− θ¯ > q α → α
σ ¯n
1. En fait, il fallait majorer le deuxième terme en premier, ce qui donne α, puis majorer le premier
terme.
2
Q
Q
Haut de page.
Et donc, l’intervalle

I α,σ = 
Sn
− qα
n
s
σ2
Sn
+ qα
n n
,
s
σ2

n

est un intervalle de confiance asymptotique de niveau α. Le problème, c’est que 1{X n ∈I α,σ }
n’est pas une statistique car, dépend explicitement de la variance σ. Il y a plusieurs
techniques pour dépasser ce problème.
Une majoration a priori.
Dans certains cas, on peut majorer la variance par quelque chose de connu. Par
exemple, si la loi cible est une B(p), alors σ2 = p(1 − p) ≤ 14 .
Estimation de la variance par le lemme de Slutsky.
Une des méthodes les plus utilisées est tout simplement de construire un estimateur σ̂n de σ : s’il est consistant (c’est-à-dire, s’il converge en probabilité
¡ vers ¢σ), alors le
lemme de Slutsky nous indique que pour toute fonction continue, g t̂ n , σ̂n converge
en probabilité vers g (N , σ) où N est de loi N (0, 1). C’est en particulier le cas lorsque
g (x, y) = σyx et donc, on a encore
p ³
´
n Sn
ŝ n =
−θ
N (0, 1)
σ̂n n
Ce qui permet de construire des intervalles de confiance asymptotiques de la forme

s
s 
2
Sn
σ̂n S n
σ̂2n 

I α,σ =
− qα
,
+ qα
n
n n
n
La ∆-méthode.
Par la delta-méthode, pour toute fonction φ dérivable, on a
µ µ ¶
¶
¡
¢
p
Sn
ŝ n = n φ
− φ(θ)
N 0, φ0 (θ)2 σ2
n
Si l’on trouve une telle fonction φ telle que φ0 (θ)2 σ2 (θ) est connu et ne dépend pas
de σ(θ), alors on pourra faire des intervalles de confiance asymptotiques sans souci.
Par exemple, dans le cas d’un processus de Bernouilli de paramètre à estimer p, on a
la convergence en loi suivante :
¢
¡
¢
p ¡
n p̂ n − p
N 0, p(1 − p)
Par la delta-méthode, on obtient
¢
p ¡
n φ(p̂ n ) − φ(p)
¡
¢
N 0, φ0 (p)2 p(1 − p)
1
On cherche donc φ tel que φ0 (x) = px(1−x)
, ce qui est facilement donné par φ(x) =
p
2 arcsin(x). On dispose alors d’un intervalle de confiance pour 2 arcsin p : comme la
fonction arcsin est une bijection de ]− π/2, π/2[ dans ]−1, 1[ d’inverse sin, il est possible
d’avoir un intervalle de confiance pour p donné par ...
3
Q
Haut de page.
Q
Références
[jac, 2003] (2003). L’essentiel en théorie des probabilités. Jean Jacod et Phillip Protter.
[tas, 2004] (2004). Méthodes statistiques. Philippe Tassi.
[sto, 2010] (2010). Statistique mathématique en action. Vincent Rivoirard et Gilles
Stoltz.
4
Téléchargement