Chapitre 7
Convergence en probabilité et loi
des grands nombres
Toutes les variables aléatoires de ce chapitre sont définies sur un même espace proba-
bilisé (Ω,A,P).
On considère une suite de variables aléatoires indépendantes suivant toutes une même
loi intégrable. Un résultat intuitif mais fondamental est le fait que la moyenne empirique
des npremières variables, c’est-à-dire X1+··· +Xn
n, “converge vers” l’espérance E(X1)
commune à toutes ces variables. Un tel résultat sera qualifié de loi des grands nombres.
Il joue un rôle essentiel en statistique puisqu’il permet d’estimer un paramètre (comme
l’espérance) d’une loi inconnue en se basant sur des observations indépendantes de celle-
ci : pour nassez grand, la moyenne empirique de nobservations indépendantes fournit
un estimateur de l’espérance. Évidemment, pour contrôler l’erreur d’estimation, il faudrait
avoir une vitesse de convergence dans le résultat précédent. Cette question sera l’objet du
chapitre suivant.
Pour commencer, nous allons voir ce que l’on entend par “converge vers”. En probabi-
lité, on peut envisager plusieurs modes de convergence (voir aussi le chapitre suivant).
7.1 Convergence en probabilité
Définition 7.1.1. Soit (Xn)nNune suite de variables aléatoires. On dit que Xnconverge
en probabilité vers une variable aléatoire Xsi pour tout ε > 0,
lim
n+P(|XnX|> ε)=0.
Remarque 7.1.2. 1. Une définition équivalente est, par passage au complémentaire :
pour tout ε > 0,limn+P(|XnX| ≤ ε)=1.
2. Puisque c’est pour tout ε > 0, dans la définition, on peut remplacer P(|XnX|> ε)
par P(|XnX| ≥ ε).
3. Si elle existe la limite Xest unique à une égalité presque sûre près. En effet, si Xet
X0sont deux limites en probabilité de la suite (Xn), alors pour tout ε > 0,
P(|XX0|> ε)P(|XXn|>ε
2) + P(|XnX0|>ε
2)
n+0.
Par continuité monotone séquentielle (prendre ε=1
k) on obtient P(X6=X0)=0.
CHAPITRE 7. CONVERGENCE EN PROBABILITÉ ET LOI DES GRANDS NOMBRES
Exemple 7.1.3. Soit Xnune suite de variables aléatoires de lois respectives B(1
n).Xnest
à valeurs dans {0,1}et donc pour tout ε]0,1[,P(|Xn|> ε) = P(Xn= 1) = 1
n. On a montré
que Xn0en probabilité.
7.2 Loi faible des grands nombres
Ce résultat a été démontré pour la première fois par Jacques Bernoulli (1713) dans le
cas particulier des variables qui portent son nom.
Théorème 7.2.1 (Loi faible des grands nombres).Soit (Xn)n1une suite de variables
aléatoires de même loi, dans L2et deux à deux non corrélées et Sn=X1+··· +Xn. Alors,
Sn
n
n+E(X1)en probabilité.
Démonstration. Les Xiayant toutes la même loi, on a ESn
n=1
n(E(X1) + ··· +E(Xn)) =
E(X1). De plus, elles sont deux à deux non corrélées, donc
VSn
n=1
n2(V(X1) + ··· +V(Xn)) = V(X1)
n.
Par l’inégalité de Bienaymé-Tchebychev, on obtient, pour tout ε > 0,
P
Sn
nE(X1)
> εV(X1)
n ε2
n+0.
Ce qui prouve le résultat.
Remarque 7.2.2. 1. En statistique, on dit que Sn
nest un estimateur convergent de E(X1).
La dernière inégalité permet d’obtenir un intervalle de confiance pour E(X1).
2. La loi faible de grands nombres s’applique en particulier si les variables aléatoires
sont indépendantes, de même loi et dans L2.
3. Plus généralement, on dira qu’une suite quelconque (Xn)n1vérifie une loi faible des
grands nombres si Sn
nconverge en probabilité.
4. Une autre façon de formuler la conclusion du théorème est que SnnE(X1)
nconverge
vers 0en probabilité. En fait, en reprenant la démonstration, on peut montrer que
SnnE(X1)
nα0en probabilité pour tout α > 1
2(exercice). Que se passe-t-il pour α=1
2?
Exemple 7.2.3. Soit (Xn)n1une suite de variables aléatoires indépendantes de même loi
U([0,1]). Alors 1
n(X1+··· +Xn)
n+
1
2en probabilité.
Pour finir cette section, remarquons que l’on a en fait montré un résultat plus fort : Sous
les conditions du théorème 7.2.1,Sn
nconverge vers E(X1)dans L2, i.e.
E Sn
nE(X1)2!=VSn
n
n+0.
Plus généralement, la convergence de Xnvers Xdans un espace Lp,p > 0, entraîne la
convergence en probabilité de Xnvers X(utiliser l’inégalité de Markov). La réciproque
est fausse. C’est évidemment faux si les Xnne sont pas dans Lppour le pen question,
mais c’est aussi le cas, par exemple pour la suite de variables aléatoires Xndans L1de lois
respectives PXn= (1 1
n)δ0+1
nδnqui converge en probabilté vers 0mais pas dans L1. En
particulier, la convergence en probabilité n’entraîne pas la convergence des espérances.
1 / 2 100%