chap 7

publicité
Chapitre 7
Convergence en probabilité et loi
des grands nombres
Toutes les variables aléatoires de ce chapitre sont définies sur un même espace probabilisé (Ω, A, P).
On considère une suite de variables aléatoires indépendantes suivant toutes une même
loi intégrable. Un résultat intuitif mais fondamental est le fait que la moyenne empirique
des n premières variables, c’est-à-dire
X1 + · · · + Xn
, “converge vers” l’espérance E(X1 )
n
commune à toutes ces variables. Un tel résultat sera qualifié de loi des grands nombres.
Il joue un rôle essentiel en statistique puisqu’il permet d’estimer un paramètre (comme
l’espérance) d’une loi inconnue en se basant sur des observations indépendantes de celleci : pour n assez grand, la moyenne empirique de n observations indépendantes fournit
un estimateur de l’espérance. Évidemment, pour contrôler l’erreur d’estimation, il faudrait
avoir une vitesse de convergence dans le résultat précédent. Cette question sera l’objet du
chapitre suivant.
Pour commencer, nous allons voir ce que l’on entend par “converge vers”. En probabilité, on peut envisager plusieurs modes de convergence (voir aussi le chapitre suivant).
7.1 Convergence en probabilité
Définition 7.1.1. Soit (Xn )n∈N une suite de variables aléatoires. On dit que Xn converge
en probabilité vers une variable aléatoire X si pour tout ε > 0,
lim P (|Xn − X| > ε) = 0.
n→+∞
Remarque 7.1.2.
1. Une définition équivalente est, par passage au complémentaire :
pour tout ε > 0, limn→+∞ P(|Xn − X| ≤ ε) = 1.
2. Puisque c’est pour tout ε > 0, dans la définition, on peut remplacer P(|Xn − X| > ε)
par P(|Xn − X| ≥ ε).
3. Si elle existe la limite X est unique à une égalité presque sûre près. En effet, si X et
X 0 sont deux limites en probabilité de la suite (Xn ), alors pour tout ε > 0,
ε
ε
P(|X − X 0 | > ε) ≤ P(|X − Xn | > ) + P(|Xn − X 0 | > ) −−−−−→ 0.
2
2 n→+∞
Par continuité monotone séquentielle (prendre ε = k1 ) on obtient P(X 6= X 0 ) = 0.
CHAPITRE 7. CONVERGENCE EN PROBABILITÉ ET LOI DES GRANDS NOMBRES
Exemple 7.1.3. Soit Xn une suite de variables aléatoires de lois respectives B( n1 ). Xn est
à valeurs dans {0, 1} et donc pour tout ε ∈]0, 1[, P(|Xn | > ε) = P(Xn = 1) = n1 . On a montré
que Xn → 0 en probabilité.
7.2 Loi faible des grands nombres
Ce résultat a été démontré pour la première fois par Jacques Bernoulli (1713) dans le
cas particulier des variables qui portent son nom.
Théorème 7.2.1 (Loi faible des grands nombres). Soit (Xn )n≥1 une suite de variables
aléatoires de même loi, dans L2 et deux à deux non corrélées et Sn = X1 + · · · + Xn . Alors,
Sn
−−−−−→ E(X1 ) en probabilité.
n n→+∞
Démonstration. Les Xi ayant toutes la même loi, on a E Snn = n1 (E(X1 ) + · · · + E(Xn )) =
E(X1 ). De plus, elles sont deux à deux non corrélées, donc
1
V(X1 )
Sn
= 2 (V(X1 ) + · · · + V(Xn )) =
V
.
n
n
n
Par l’inégalité de Bienaymé-Tchebychev, on obtient, pour tout ε > 0,
Sn
V(X1 )
− E(X1 ) > ε ≤
−−−−−→ 0.
P n
n ε2 n→+∞
Ce qui prouve le résultat.
Remarque 7.2.2.
1. En statistique, on dit que Snn est un estimateur convergent de E(X1 ).
La dernière inégalité permet d’obtenir un intervalle de confiance pour E(X1 ).
2. La loi faible de grands nombres s’applique en particulier si les variables aléatoires
sont indépendantes, de même loi et dans L2 .
3. Plus généralement, on dira qu’une suite quelconque (Xn )n≥1 vérifie une loi faible des
grands nombres si Snn converge en probabilité.
S −nE(X )
4. Une autre façon de formuler la conclusion du théorème est que n n 1 converge
vers 0 en probabilité. En fait, en reprenant la démonstration, on peut montrer que
Sn −nE(X1 )
→ 0 en probabilité pour tout α > 21 (exercice). Que se passe-t-il pour α = 12 ?
nα
Exemple 7.2.3. Soit (Xn )n≥1 une suite de variables aléatoires indépendantes de même loi
U([0, 1]). Alors n1 (X1 + · · · + Xn ) −−−−−→ 12 en probabilité.
n→+∞
Pour finir cette section, remarquons que l’on a en fait montré un résultat plus fort : Sous
les conditions du théorème 7.2.1, Snn converge vers E(X1 ) dans L2 , i.e.
E
2 !
Sn
Sn
− E(X1 )
=V
−−−−−→ 0.
n→+∞
n
n
Plus généralement, la convergence de Xn vers X dans un espace Lp , p > 0, entraîne la
convergence en probabilité de Xn vers X (utiliser l’inégalité de Markov). La réciproque
est fausse. C’est évidemment faux si les Xn ne sont pas dans Lp pour le p en question,
mais c’est aussi le cas, par exemple pour la suite de variables aléatoires Xn dans L1 de lois
respectives PXn = (1 − n1 )δ0 + n1 δn qui converge en probabilté vers 0 mais pas dans L1 . En
particulier, la convergence en probabilité n’entraîne pas la convergence des espérances.
Téléchargement