Convergence et Estimation. ÉCS2 1 Convergence en probabilité. où on peut remplacer éventuellement N par Z ; 3. Le théorème limite central : • soit (Xi )i∈N∗ une suite de variables aléatoires indépendantes, toutes de même loi, possédant une espérance m et un écart-type non nul σ n X 1 • soit Sn = Xi et Xn = Sn (nème moyenne empirique) n i=1 Soit (Xn )n∈N et X des v.a.r. sur (Ω, A, P). On dit que la suite (Xn ) converge en P probabilité vers X (et on note si Xn −→ X) si : ∀ε > 0, lim P(Xn − X > ε) = 0. n→+∞ P Pour montrer que (Xn ) −→ k où k est une v.a.r. constante, on dispose de : L ∗ Alors Xn = S∗n −→ X où X ,→ N (0; 1). ∗ Remarque technique : savoir jongler avec S∗n et Xn . 1. Si (Xn ) est une suite de v.a.r. indépendantes possédant une même espérance m et X1 + · · · + X n un même écart-type σ et si Fn = est la nème moyenne empirique n des Xn , alors (Fn ) converge en probabilité vers m (Loi faible des grands nombres) ; V(Xn ) 2. ∀ε > 0, P(Xn − E(Xn ) > ε) 6 (Inégalité de Bienaymé-Tchebychev). ε2 qui permet de conclure notamment si (∀n, E(Xn ) = k, et V(Xn ) −−−−−→ 0) ; σ2 , n Xn − E(Xn ) √ Xn − m nSn − nm ∗ √ Xn = = n = = S∗n . σ nσ σ(Xn ) 4. La composition par une fonction continue : si Xn = f (Yn ) et si on arrive à montrer lin. L n→+∞ 4. La composition par une fonction continue : si Xn = f (Yn ) et si on arrive à montrer P P que Yn −→ k, alors Xn −→ f (k) 6. Un cas très particulier : la loi de Poisson, limite de la loi binomiale. Soit λ > 0. Toute suite (Xn )n>λ de v.a.r. de loi respective B(n, λ/n) converge en loi vers une v.a.r. de loi de Poisson P(λ). 5. Si X est positive, ∀α > 0, P(X > α) 6 Convergence en loi. Soit (Xn )n∈N et X des v.a.r. sur (Ω, A, P). On dit que la suite (Xn ) converge en loi L 5. Le théorème de Slutsky (attention)à la(nature des convergences) : P L Xn −→ c (constante) Xn Yn −→ cY ⇒ L L Yn −→ Y Xn + Yn −→ c + Y n→+∞ 2 indép. que Yn −→ k, alors Xn −→ f (k) 3. La définition de la convergence en probabilité : si on peut calculer P(Xn − X > ε), on montre que P(Xn − X > ε) −−−−−→ 0 E(X) (Inégalité de Markov). α 2 2 Peut s’appliquer à une variable bien choisie : par exemple X = (Xn − k) et α = ε 2 E (Xn − k) donnent P(|Xn − k| > ε) = P((Xn − k)2 > ε2 ) 6 ... ε2 indép. lin. E(Sn ) = nm, E(Xn ) = m, V(Sn ) = nσ 2 , V(Xn ) = / Une suite de v.a.r. à densité peut converger en loi vers une v.a.r. discrète. / Une suite de v.a.r. dicrètes peut converger en loi vers une v.a.r. à densité. / La convergence en loi des v.a.r. à densité (Xn ) vers une v.a.r. à densité X n’entraîne pas a priori la convergence des densités fXn vers fX . 3 Approximations usuelles en probabilité. L vers X (et on note Xn −→ X) si : en tout réel x où FX est continue, lim FXn (x) = FX (x). Pour calculer des valeurs approchées de probabilités, on peut : n→+∞ L 1. approcher B(n, p) par P(np) si n > 30 et np 6 10 ; Pour montrer que (Xn ) −→ X, on dispose de : 2. approcher B(n, p) par N (np; np(1 − p)) si n > 20, np > 5 et n(1 − p) > 5 ; 1. La définition : lim FXn (x) = FX (x) pour tout x où FX est continue ; 3. approcher P(λ) par N (λ; λ) si λ > 10. n→+∞ 2. Si (Xn )n∈N et X sont discrètes et vérifient ∀n ∈ N, Xn (Ω) ⊂ N et X(Ω) ⊂ N, L Xn −→ X ⇐⇒ ∀k ∈ N, Lycée Henri Poincaré lim P(Xn = k) = P(X = k) n→+∞ / Si l’on approche une loi discrète par une loi à densité, il convient d’effectuer la correction de continuité. 1/2 lo Convergence et Estimation. ÉCS2 5 / Dans la pratique : Si X ,→ B(45; 1/3), la loi de X peut être approchée par celle de Y ,→ N (15; 10) : P(X = 15) ' P(14, 5 6 Y 6 15, 5) et P(8 6 X 6 15) ' P(7, 5 6 Y 6 15, 5). 4 Quelques définitions : Estimation ponctuelle. 5.1 Quelques définitions : 1. Lorsque X1 , . . . , Xn sont n variables indépendantes de même loi µθ dépendant d’un paramètre θ qui peut prendre ses valeurs dans un intervalle Θ, on dit que (X1 , . . . , Xn ) est un n-échantillon de µθ ; 2. Un estimateur (de rang n) est une v.a.r. Tn fonction de X1 , . . . , Xn ; 3. Si : ∀n ∈ N∗ , Eθ (Tn ) = g(θ), Tn est un estimateur sans biais de g(θ) ; 4. Si : lim Eθ (Tn ) = g(θ), Tn est un estimateur asymptotiquement sans biais n→+∞ de g(θ) ; 5. ∀n ∈ N∗ , bθ (Tn ) = Eθ (Tn ) − g(θ) est le biais de Tn ; 6. Le risque quadratique de Tn est rθ (Tn ) = Eθ ((Tn − g(θ))2 ) ; 7. L’estimateur Tn est convergent s’il tend en probabilité vers g(θ) quand n tend vers +∞. Pour calculer le risque quadratique, 2 1. rθ (Tn ) = Vθ (Tn ) + bθ (Tn ) ; 2. En particulier, si Tn est sans bais, alors rθ (Tn ) = Vθ (Tn ). Estimation par intervalle de confiance. Estimation par intervalle de confiance Soit α ∈ [ 0 ; 1 ]. Soit (Un )n>1 et (Vn )n>1 deux suites d’estimateurs de g(θ). On dit que [Un , Vn ] est un intervalle de confiance de g(θ) au niveau de confiance 1 − α (ou au risque α) si, pour tout θ de Θ, Pθ ([Un 6 g(θ) 6 Vn ]) > 1 − α. La réalisation sur un échantillon fournit une estimation de cet intervalle de confiance. 5.2 Estimation par intervalle de confiance asymptotique Soit α ∈ [ 0 ; 1 ]. Soit (Un )n>1 et (Vn )n>1 deux suites d’estimateurs de g(θ). On dit que [Un , Vn ] est un intervalle de confiance asymptotique de g(θ) au niveau de confiance 1 − α (ou au risque α) si, pour tout θ de Θ, il existe une suite (αn )n>1 de réels de [ 0 ; 1 ], de limite α, telle que : ∀n > 1, Pθ ([Un 6 g(θ) 6 Vn ]) > 1 − αn . La réalisation sur un échantillon fournit une estimation de cet intervalle de confiance asymptotique. 5.3 Construction d’intervalles de confiance Lorsque l’écart-type σ n’est pas connu, on peut utiliser un estimateur convergent Sn de σ construit à l’aide des Xi (ou/et de Xn ). Dans ce cas , on utilise le théorème de ) Slutsky : P Pour établir la convergence de l’estimateur, Sn −→ σ(> 0) σ ∗ L ⇒ Xn −→ N (0; 1) ∗ L S 1. si Tn est fonction continue f (Xn ) de la moyenne empirique Xn de n v.a.r. possédant n Xn −→ N (0; 1) une espérance m et une variance, alors Tn est un estimateur convergent de f (m) (la Voir la fiche du même nom, notamment le paragraphe 3. Bilan. convergence de Xn vers m découlant de la loi faible des grands nombres) ; Remarque sur les notations 2. sinon, il suffit d’avoir rθ (Tn ) −−−−−→ 0 n→+∞ La plupart des exercices ne cherchent pas à estimer g(θ) (i.e. une fonction quelconque pour affirmer que Tn converge. P P de θ) mais directement θ, puisque si Tn −→ θ, alors g(Tn ) −→ g(θ) pourvu que g soit En particulier, si l’estimateur est sans biais ou s’il est asymptotiquement sans biais continue. (donc bθ (Tn ) −−−−−→ 0), il suffit que : n→+∞ De plus, on ne s’encombre en général pas de la notation Pθ , Eθ et Vθ , et on lui préfère Vθ (Tn ) −−−−−→ 0 n→+∞ la notation usuelle P, E et V. pour affirmer que Tn converge. Lycée Henri Poincaré 2/2 lo