Convergence et Estimation. 1 Convergence en probabilité. 2

publicité
Convergence et Estimation.
ÉCS2
1
Convergence en probabilité.
où on peut remplacer éventuellement N par Z ;
3. Le théorème limite central :
• soit (Xi )i∈N∗ une suite de variables aléatoires indépendantes, toutes de même
loi, possédant une espérance m et un écart-type non nul σ
n
X
1
• soit Sn =
Xi et Xn = Sn (nème moyenne empirique)
n
i=1
Soit (Xn )n∈N et X des v.a.r. sur (Ω, A, P). On dit que la suite (Xn ) converge en
P
probabilité vers X (et on note si Xn −→ X)
si : ∀ε > 0, lim P(Xn − X > ε) = 0.
n→+∞
P
Pour montrer que (Xn ) −→ k où k est une v.a.r. constante, on dispose de :
L
∗
Alors
Xn = S∗n −→ X où X ,→ N (0; 1).
∗
Remarque technique : savoir jongler avec S∗n et Xn .
1. Si (Xn ) est une suite de v.a.r. indépendantes possédant une même espérance m et
X1 + · · · + X n
un même écart-type σ et si Fn =
est la nème moyenne empirique
n
des Xn , alors
(Fn ) converge en probabilité vers m (Loi faible des grands nombres) ;
V(Xn )
2. ∀ε > 0, P(Xn − E(Xn ) > ε) 6
(Inégalité de Bienaymé-Tchebychev).
ε2
qui permet de conclure notamment si (∀n, E(Xn ) = k, et V(Xn ) −−−−−→ 0) ;
σ2
,
n
Xn − E(Xn ) √ Xn − m
nSn − nm
∗
√
Xn =
= n
=
= S∗n .
σ
nσ
σ(Xn )
4. La composition par une fonction continue : si Xn = f (Yn ) et si on arrive à montrer
lin.
L
n→+∞
4. La composition par une fonction continue : si Xn = f (Yn ) et si on arrive à montrer
P
P
que Yn −→ k, alors Xn −→ f (k)
6. Un cas très particulier : la loi de Poisson, limite de la loi binomiale.
Soit λ > 0. Toute suite (Xn )n>λ de v.a.r. de loi respective B(n, λ/n) converge en loi
vers une v.a.r. de loi de Poisson P(λ).
5. Si X est positive,
∀α > 0, P(X > α) 6
Convergence en loi.
Soit (Xn )n∈N et X des v.a.r. sur (Ω, A, P). On dit que la suite (Xn ) converge en loi
L
5. Le théorème de Slutsky (attention)à la(nature des convergences) :
P
L
Xn −→ c (constante)
Xn Yn −→ cY
⇒
L
L
Yn −→ Y
Xn + Yn −→ c + Y
n→+∞
2
indép.
que Yn −→ k, alors Xn −→ f (k)
3. La définition de la convergence en probabilité :
si on peut calculer P(Xn − X > ε), on montre que P(Xn − X > ε) −−−−−→ 0
E(X)
(Inégalité de Markov).
α
2
2
Peut s’appliquer à une variable bien choisie : par exemple X =
(Xn − k) et α = ε
2
E (Xn − k)
donnent P(|Xn − k| > ε) = P((Xn − k)2 > ε2 ) 6
...
ε2
indép.
lin.
E(Sn ) = nm, E(Xn ) = m, V(Sn ) = nσ 2 , V(Xn ) =
/ Une suite de v.a.r. à densité peut converger en loi vers une v.a.r. discrète.
/ Une suite de v.a.r. dicrètes peut converger en loi vers une v.a.r. à densité.
/ La convergence en loi des v.a.r. à densité (Xn ) vers une v.a.r. à densité X n’entraîne
pas a priori la convergence des densités fXn vers fX .
3
Approximations usuelles en probabilité.
L
vers X (et on note Xn −→ X) si :
en tout réel x où FX est continue, lim FXn (x) = FX (x).
Pour calculer des valeurs approchées de probabilités,
on peut :
n→+∞
L
1. approcher B(n, p) par P(np) si n > 30 et np 6 10 ;
Pour montrer que (Xn ) −→ X, on dispose de :
2. approcher B(n, p) par N (np; np(1 − p)) si n > 20, np > 5 et n(1 − p) > 5 ;
1. La définition : lim FXn (x) = FX (x) pour tout x où FX est continue ;
3. approcher P(λ) par N (λ; λ) si λ > 10.
n→+∞
2. Si (Xn )n∈N et X sont discrètes et vérifient ∀n ∈ N, Xn (Ω) ⊂ N et X(Ω) ⊂ N,
L
Xn −→ X ⇐⇒ ∀k ∈ N,
Lycée Henri Poincaré
lim P(Xn = k) = P(X = k)
n→+∞
/ Si l’on approche une loi discrète par une loi à densité, il convient d’effectuer la correction de continuité.
1/2
lo
Convergence et Estimation.
ÉCS2
5
/ Dans la pratique :
Si X ,→ B(45; 1/3), la loi de X peut être approchée par celle de Y ,→ N (15; 10) :
P(X = 15) ' P(14, 5 6 Y 6 15, 5) et P(8 6 X 6 15) ' P(7, 5 6 Y 6 15, 5).
4
Quelques définitions :
Estimation ponctuelle.
5.1
Quelques définitions :
1. Lorsque X1 , . . . , Xn sont n variables indépendantes de même loi µθ dépendant
d’un paramètre θ qui peut prendre ses valeurs dans un intervalle Θ, on dit que
(X1 , . . . , Xn ) est un n-échantillon de µθ ;
2. Un estimateur (de rang n) est une v.a.r. Tn fonction de X1 , . . . , Xn ;
3. Si : ∀n ∈ N∗ , Eθ (Tn ) = g(θ), Tn est un estimateur sans biais de g(θ) ;
4. Si : lim Eθ (Tn ) = g(θ), Tn est un estimateur asymptotiquement sans biais
n→+∞
de g(θ) ;
5. ∀n ∈ N∗ , bθ (Tn ) = Eθ (Tn ) − g(θ) est le biais de Tn ;
6. Le risque quadratique de Tn est rθ (Tn ) = Eθ ((Tn − g(θ))2 ) ;
7. L’estimateur Tn est convergent s’il tend en probabilité vers g(θ) quand n tend vers
+∞.
Pour calculer le risque quadratique,
2
1. rθ (Tn ) = Vθ (Tn ) + bθ (Tn ) ;
2. En particulier, si Tn est sans bais, alors rθ (Tn ) = Vθ (Tn ).
Estimation par intervalle de confiance.
Estimation par intervalle de confiance
Soit α ∈ [ 0 ; 1 ]. Soit (Un )n>1 et (Vn )n>1 deux suites d’estimateurs de g(θ). On dit que
[Un , Vn ] est un intervalle de confiance de g(θ) au niveau de confiance 1 − α (ou au risque
α) si, pour tout θ de Θ,
Pθ ([Un 6 g(θ) 6 Vn ]) > 1 − α.
La réalisation sur un échantillon fournit une estimation de cet intervalle de confiance.
5.2
Estimation par intervalle de confiance asymptotique
Soit α ∈ [ 0 ; 1 ]. Soit (Un )n>1 et (Vn )n>1 deux suites d’estimateurs de g(θ). On dit que
[Un , Vn ] est un intervalle de confiance asymptotique de g(θ) au niveau de confiance 1 − α
(ou au risque α) si, pour tout θ de Θ, il existe une suite (αn )n>1 de réels de [ 0 ; 1 ], de
limite α, telle que :
∀n > 1, Pθ ([Un 6 g(θ) 6 Vn ]) > 1 − αn .
La réalisation sur un échantillon fournit une estimation de cet intervalle de confiance
asymptotique.
5.3
Construction d’intervalles de confiance
Lorsque l’écart-type σ n’est pas connu, on peut utiliser un estimateur convergent Sn de
σ construit à l’aide des Xi (ou/et de Xn ).
Dans ce cas , on utilise le théorème de
) Slutsky :
P
Pour établir la convergence de l’estimateur,
Sn −→ σ(> 0)
σ ∗ L
⇒
Xn −→ N (0; 1)
∗ L
S
1. si Tn est fonction continue f (Xn ) de la moyenne empirique Xn de n v.a.r. possédant
n
Xn −→ N (0; 1)
une espérance m et une variance, alors Tn est un estimateur convergent de f (m) (la
Voir la fiche du même nom, notamment le paragraphe 3. Bilan.
convergence de Xn vers m découlant de la loi faible des grands nombres) ;
Remarque sur les notations
2. sinon, il suffit d’avoir
rθ (Tn ) −−−−−→ 0
n→+∞
La plupart des exercices ne cherchent pas à estimer g(θ) (i.e. une fonction quelconque
pour affirmer que Tn converge.
P
P
de θ) mais directement θ, puisque si Tn −→ θ, alors g(Tn ) −→ g(θ) pourvu que g soit
En particulier, si l’estimateur est sans biais ou s’il est asymptotiquement sans biais
continue.
(donc bθ (Tn ) −−−−−→ 0), il suffit que :
n→+∞
De plus, on ne s’encombre en général pas de la notation Pθ , Eθ et Vθ , et on lui préfère
Vθ (Tn ) −−−−−→ 0
n→+∞
la notation usuelle P, E et V.
pour affirmer que Tn converge.
Lycée Henri Poincaré
2/2
lo
Téléchargement