ECS3 Carnot Chapitre 31 — Convergences et approximations 2013/2014
Chapitre 31 : Convergences et
approximations.
1 Compléments sur espérance et variance : inégalités clas-
siques
1.1 Inégalité de Markov
L’inégalité suivante précise l’écart d’une variable aléatoire positive par rapport à 0
Proposition 1.1.1 (Inégalité de Markov)
Soit Xune variable aléatoire réelle finie positive. Alors
a > 0, P (X>a)6E(X)
a
Démonstration : Fixons a > 0. Soit Al’évènement (X>a). Alors on a ω,A(ω)6
1
aX(ω), puisque si ωA, on a X(ω)>adonc 1
aX(ω)>A(ω)et si ω /A1
aX(ω)>0 =
A(ω).
Par croissance de l’espérance,
P(X>a) = P(XA) = E(A)6E(1
aX) = E(X)
a
Exemple. Le nombre de fours sortant d’une usine (de fours) en une semaine est donné
par une variable aléatoire réelle finie Xd’espérance 50. Alors P(X>100) 6E(X)
100 =1
2.
La probabilité que la production d’une semaine soit supérieure à 100 fours est plus petite
que 1
2.
1.2 Inégalité de Bienaymé-Tchebychev
L’inégalité suivante justifie l’emploi de l’écart type comme mesure de dispersion.
Proposition 1.2.1 (Inégalité de Bienaymé-Tchebychev)
Soit Xune variable aléatoire réelle finie, µson espérance et σson écart-type. Alors
ε > 0, P (|Xµ|>ε)6σ2
ε2
Démonstration : On applique l’inégalité de Markov à la variable aléatoire (Xµ)2et au réel
ε2en remarquant que V(X) = σ2:
P((Xµ)2>ε2)6E((Xµ)2)
ε2=σ2
ε2
Mais on a l’égalité des évènements ((Xµ)2>ε2) = (|Xµ|>ε). D’où le résultat.
J. Gärtner. 1
ECS3 Carnot Chapitre 31 — Convergences et approximations 2013/2014
1.3 Cas des variables discrètes
Proposition 1.3.1 (Inégalité de Markov)
Soit Xune variable aléatoire réelle discrète positive admettant une espérance. Alors
a > 0, P (X>a)6E(X)
a
Démonstration : Fixons a > 0. Soit Al’évènement (X>a). Alors on a ω,A(ω)6
1
aX(ω), puisque si ωA, on a X(ω)>adonc 1
aX(ω)>A(ω)et si ω /A1
aX(ω)>0 =
A(ω).
Par croissance de l’espérance,
P(X>a) = P(XA) = E(A)6E(1
aX) = E(X)
a
Proposition 1.3.2 (Inégalité de Bienaymé-Tchebychev)
Soit Xune variable aléatoire réelle discrète admettant un moment d’ordre 2, µson
espérance et σson écart-type. Alors
ε > 0, P (|Xµ|>ε)6σ2
ε2
Démonstration : On applique l’inégalité de Markov à la variable aléatoire (Xµ)2et au réel
ε2en remarquant que V(X) = σ2:
P((Xµ)2>ε2)6E((Xµ)2)
ε2=σ2
ε2
Mais on a l’égalité des évènements ((Xµ)2>ε2) = (|Xµ|>ε). D’où le résultat.
Démonstration : autre preuve possible de l’inégali de Bienaymé-Tchebychev : Nous
avons déjà donné une preuve usant de l’inégalité de Markov. Nous allons la refaire directe-
ment (mais en substance, rien n’est nouveau).
On écrit X(Ω) = {xi, i I}et P(X=xi) = piIest une partie de ou de .
On pose m=E(X),J={iI, |xim|>ε}et K={iI, |xim|< ε}. Alors
I=JKet JK=. Clairement (|Xm|>ε) = SJ(X=xi)donc par σ-additivité,
P(|Xm|>ε) = PJpi.
Comme V(X)est une série absolument convergente, on peut regrouper les termes et
V(X) = PI(xim)2pi=PJ(xim)2pi+PK(xim)2pi>PJ(xim)2pi. Si iJ,
on a (xim)2>ε2donc
V(X)>ε2X
J
pi=ε2P(|Xm|>ε)
Une autre manière d’écrire cette égalité est la suivante :
Proposition 1.3.3
Soit Xune variable aléatoire réelle discrète admettant une variance (donc une espé-
rance). Alors
ε > 0, P (|XE(X)|< ε)>1V(X)
ε2
J. Gärtner. 2
ECS3 Carnot Chapitre 31 — Convergences et approximations 2013/2014
Démonstration : Exercice.
Exercice. On dispose d’une urne contenant 8boules blanches et 2boules noires. On tire
avec remise 400 boules de cette urne. On note Xla variable aléatoire donnant le nombre de
boules blanches obtenues. Calculer E(X)puis donner un minorant de P(300 < X < 340)
L’inégalité de Bienaymé-Tchebychev permet de construire des intervalles de confiance,
c’est-à-dire de préciser un encadrement d’une certaine valeur avec une probabilité connue
à l’avance :
Exemple. On dispose d’un dé équilibré. Quel est le nombre de lancers nécessaires pour
pouvoir affirmer, avec un risque d’erreur inférieur à 5% que la fréquence d’apparition du
numéro 1 au cours de ces nlancers sera dans l’intervalle ]1
61
100,1
6+1
100[?
On introduit Xila variable égale à 1 si le numéro obtenu au iième tirage est 1, 0 sinon.
Le dé est équilibré : les Xiconstituent une suite de variables de Bernoulli de paramètre
pet mutuellement indépendantes. On a E(Xi) = 1
6et V(Xi) = 5
36. La fréquence de 1
apparus au cours de nlancers est donné par X=1
nPn
i=1 Xidonc E(X) = 1
6par linéarité
et V(X) = 1
n2V(Pn
1Xi) = 1
n2Pn
1V(Xi) = 5
36npar indépendance. D’après l’inégalité de
Bienaymé-Tchebychev, on a P(
X1
6
<1
100 )>15×104
36n. On cherche donc ntel que
15×104
36n>0,95, donc tel que 5×104
36n65×102. On obtient n>27778.
Remarque. Ces inégalités se généralisent, mais ne sont pas au programme de première
année dans le cadre des variables aléatoires réelles admettant une densité. Mais comme la
variance d’une variable à densité n’est pas définie en première année...
Remarque. L’inégalité de Bienaymé-Tchebychev n’est pas très précise. Par exemple si on
considère une variable aléatoire Xde loi de Poisson de paramètre 1, on a P(|X1|> ε)6
1
ε2. Mais Xest à valeurs entières, et on trouve que quelque soit ε]0,1], la probabilité de
[X > 1 + ε][X < 1ε]est au plus égale à... 1. Ce qui n’est pas vraiment intéressant.
Remarque. On a de plus souvent l’impression qu’une variable aléatoire prend en moyenne
des valeurs « proches » de son espérance quand elle existe. On va justifier cette idée sous cer-
taines hypothèses dans les prochaines sections, mais il ne faut pas confondre « en moyenne »,
et « a une forte probabilité ». Rien ne dit que le(s) mode(s) d’une variable aléatoire discrète
soient égaux à l’espérance si elle existe (un mode est un xX(Ω) tel que P(X=x)soit
le maximum de tous les (P(X=xi))iI.
Par exemple pour la loi binomiale, l’espérance est np, mais le mode (qui est unique
dans ce cas) est [(n+ 1)p]. Si n= 5 et p=9
10 on a np =9
2et [(n+ 1)p] = [27
5] = 5 ce qui
n’est pas la même chose.
2 Convergence en probabilité
2.1 Généralités
Dans cette section, nous allons montrer la loi faible des grands nombres, qui est un
énoncé de convergence de variable aléatoire. Il y a beaucoup de notions de convergence en
J. Gärtner. 3
ECS3 Carnot Chapitre 31 — Convergences et approximations 2013/2014
probabilité (c’est-à-dire de manières dont on peut prendre des limites). La plus naturelle
est la convergence presque-sûre ((Xn)converge vers Xlorsque pour tout ωdans une partie
de probabilité 1 de , on a lim Xn(ω) = X(ω)). Mais on peut aussi décider de s’intéresser
à la convergence en moyenne, qui concerne les variables aléatoires qui ont une espérance
((Xn)converge vers Xlorsque lim E(|XnX|) = 0). Au programme des classes ECS ne
figurent que la convergence en probabilité (l’objet de cette section) et la convergence en loi
(abordée dans la section suivante).
L’inégalité de Bienaymé-Tchebychev nous incite à définir la notion de convergence sui-
vante :
Définition 2.1.1
Une suite (Xn)de variables aléatoires réelles discrètes définies sur un même espace
probabilisé (Ω,A, P )converge en probabilité vers une variable aléatoire réelle discrète
Xdéfinie sur (Ω,A, P )lorsque
ε > 0,lim
n+P(|XnX|>ε) = 0
On note dans ce cas Xn
P
X.
La notion de convergence en probabilité est compatible avec la somme et la multiplica-
tion par un scalaire : si Xn
P
Xet Yn
P
Y, et α, β , alors αXn+βYn
P
αX +βY .
Dans le cadre du programme officiel le seul outil général permettant de montrer des
convergences en probabilité est l’inégalité de Bienaymé-Tchebychev (même si on a vu qu’elle
n’était pas très précise).
Remarquons pour finir qu’écrire ε > 0,lim
n+P(|XnX|>ε) = 0 ou ε >
0,lim
n+P(|XnX|> ε) = 0 revient au même. Exercice !
2.2 Loi faible des grands nombres
Le théorème suivant est le cas de la loi faible des grands nombres qui est au programme
de cette année.
Théorème 2.2.1 (Théorème de Bernoulli )
Soit (Xn)une suite de variables aléatoires de loi binomiale de même paramètre (n, p),
définies sur le même espace. On pose Xn=Xn
n. Alors (Xn)converge en probabilité
vers la variable aléatoire certaine égale à p, i.e.
ε > 0,lim P(
Xnp
)>ε) = 0
Démonstration : On a par linéarité E(Xn) = 1
n×np =pet V(Xn) = 1
n2V(Xn) = 1
n2×
np(1 p) = pq
n.
Soit ε > 0. L’inégalité de Bienaymé-Tchebychev donne P(
Xnp
>ε)6pq
ε2nqui
tend vers 0 si ntend vers +.
Remarque. On peut obtenir une majoration indépendante du paramètre pen remarquant
que p]0,1[, p(1 p)61
4.
J. Gärtner. 4
ECS3 Carnot Chapitre 31 — Convergences et approximations 2013/2014
Interprétation : comme on l’a déjà vu, la variable Xnreprésente la fréquence de succès
lors de la répétition de népreuves de Bernoulli indépendantes. L’approche « expérimen-
tale » des probabilités présuppose que la probabilité est fortement lié à la fréquence d’ap-
parition, ici p. Cette approche est justifiée par le théorème de Bernoulli, qui valide cette
probabilité lorsque le nombre d’expériences est grand.
La loi faible des grands nombres se démontre de la même manière. Elle est au pro-
gramme de deuxième année, et nécessite de mieux connaître les couples de variables aléa-
toires.
Théorème 2.2.2 (Loi faible des grands nombres)
Soit (Xn)une suite de variables aléatoires réelles discrètes définies sur un même espace
probabilisé, de même loi admettant une espérance met une variance σ2et mutuellement
indépendantes. La suite de variables Xn=1
nPn
k=1 Xkconverge en probabilité vers la
variable aléatoire certaine égale à m. On a de plus
ε > 0, P (
Xnm
>ε)6σ2
2
Démonstration : On a comme précédemment E(Xn) = met V(Xn) = σ2
n. L’inégalité de
Bienaymé-Tchebychev donne
ε > 0, P (
Xnm
>ε)6σ2
2
3 Approximations
3.1 Convergence en loi
La notion la plus faible de convergence de suites de variables aléatoires est la conver-
gence en loi. Elle ne dépend plus des variables aléatoires elles-même, mais uniquement de
leur loi.
Définition 3.1.1
Soit (Xn)une suite de variables aléatoires réelles et Xune variable aléatoire réelle,
définies sur le même espace probabilisé (Ω,A, P ). On note F(Xn)et FXleurs fonctions
de répartition. On dit que la suite (Xn)converge en loi vers Xlorsque pour tout x
tel que FXest continue en x, on a lim
n+FXn(x) = FX(x).
On note Xn
L
X.
Théorème 3.1.1
Soit (Xn)une suite de variables aléatoires réelles discrètes définies sur un même espace
probabilisé (Ω,A, P )et Xune variable aléatoire réelle discrète définie sur (Ω,A, P ).
On suppose que toutes ces variables aléatoires sont à valeurs dans . Alors Xn
L
X
ssi
k,lim
n+P(Xn=k) = P(X=k)
J. Gärtner. 5
1 / 9 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !