ECS 922. Convergence et approximation de lois

publicité
ECS 922.
Convergence et approximation de lois
I Convergence en probabilité
1. Inégalité de Markov
Théorème :
Si X est une variable aléatoire discrète ou à densité qui admet un moment d’ordre 2, alors :
E(X 2 )
∀ε > 0, P (|X| > ε) 6
ε2
Idée de la démonstration :
Cas d’une variable discrète : X(Ω) = {xi /i ∈ I} où I est un
Xintervalle de Z.
P (X = xi ).
Posons J = {i ∈ I/ |xi | > ε} et remarquons que P (|X| > ε) =
E(X 2 ) =
X
i∈I
x2i P (X = xi ) >
X
x2i P (X = xi ) >
i∈J
X
i∈J
ε2 P (X = xi ) = ε2 P (|X| > ε)
i∈J
d’où l’inégalité de Markov.
Cas d’une variable à densité : Soit f une densité de X.
Z +∞
Z −ε
Z +ε
Z +∞
2
2
2
2
E(X ) =
t f (t) dt =
t f (t) dt +
t f (t) dt +
t2 f (t) dt
−∞
−∞
−ε
ε
Z −ε
Z +∞
Z −ε
Z +∞
2
2
2
2
donc E(X ) >
t f (t) dt +
t f (t) dt >
ε f (t) dt +
ε2 f (t) dt
−∞
ε
−∞
ε
¡
¢
ou encore E(X 2 ) > ε2 P (X 6 −ε) ∪ (X > ε) = ε2 P (|X| > ε)
d’où l’inégalité de Markov.
2. Inégalité de Bienaymé-Tchebychev
Théorème :
Si X est une variable aléatoire qui admet une variance :
∀ε > 0,
P (|X − E(X)| > ε) 6
ou encore:
∀ε > 0,
V (X)
ε2
P (|X − E(X)| < ε) > 1 −
V (X)
ε2
Idée de la démonstration : On obtient la première inégalité en appliquant l’inégalité de Markov
à la variable aléatoire X − E(X). La seconde s’en déduit par passage à l’événement contraire.
3. Convergence en probabilité
Définition :
Soit (Xn )n>1 une suite de variables aléatoires sur (Ω, A, P ) et X une variable aléatoire sur
(Ω, A, P ).
On dit que la suite (Xn ) converge en probabilité vers X et on note Xn −→ X si :
P
∀ε > 0,
lim P (|Xn − X| > ε) = 0
n→+∞
4. Loi faible des grands nombres.
Proposition : (Loi faible des grands nombres.)
Soit (Xn )n∈N une suite de variables aléatoires indépendantes admettant toutes une même
n
1X
2
espérance m et une même variance σ . Alors, la suite (X n ) définie par X n =
Xi converge
n i=1
en probabilité vers la variable certaine égale à m.
n
1X
Autrement dit : ∀ε > 0
lim P (m − ε 6
Xi 6 m + ε) = 1
n→+∞
n i=1
Idée de la démonstration : On applique l’inégalité de Bienaymé-Tchebychev à la variable aléatoire
X n dont l’espérance est m et la variance n1 σ 2 .
Exemple important: Si les Xi suivent la loi de Bernoulli de paramètre p et sont indépendantes,
on a:
¯
!
ï n
¯
¯1 X
¯
¯
Xi − p ¯ 6 ε = 1
lim P ¯
n→∞
¯
¯n
i=1
ce qui justifie la notion intuitive de probabilité : hhla probabilité d’un événement est la limite de
sa fréquence lorsque l’on répète indéfiniment l’expérience aléatoire ii .
II Convergence en loi.
1. Définition et caractérisations
On va noter systématiquement FT la fonction de répartition d’une variable aléatoire T .
Définition : On dit qu’une suite (Xn ) de variables aléatoires converge en loi vers une variable
aléatoire X si:
pour tout réel x en lequel FX est continue, lim FXn (x) = FX (x)
n→∞
Théorème : La suite (Xn )n∈N∗ converge en loi vers X si et seulement si: quel que soit l’intervalle
I de R dont chacune des bornes finies est un point de continuité de FX ,
lim P (Xn ∈ I) = P (X ∈ I)
n→+∞
Corollaire(Convergence en loi d’une suite de variables aléatoires à valeurs dans N.)
Soit (Xn ) une suite de variables aléatoires à valeurs dans N (ceci signifie que, pour tout entier
naturel n, Xn (Ω) ⊂ N ).
Soit X une variable aléatoire à valeurs dans N.
La suite (Xn ) converge en loi vers X si et seulement si
∀k ∈ N
lim P (Xn = k) = P (X = k)
n→∞
2. Convergence de la loi binomiale vers la loi de Poisson.
Proposition : Soit λ ∈ R∗+ . Soit (Xn )n>λ une suite de variables aléatoires telles que Xn ,→
B(n, λ/n). Alors, la suite (Xn ) converge en loi vers une variable aléatoire X suivant la loi P(λ).
Remarque : Xn et X ont même espérance.
Idée de la démonstration : L’essentiel est de ne pas perdre de vue que λ et k sont fixes et que
c’est n qui tend vers l’infini. Pour tout entier naturel k, on a pour tout n > k:
¶n−k
¶n
µ ¶ µ
µ
¡n¢ λ k
λ
λk n(n − 1) . . . (n − k + 1)
1
λ
1−
=
P (Xn = k) = k
1−
n
n
k!
nk
n
(1 − nλ )k
n(n − 1) . . . (n − k + 1) ∼ nk
µµ n→∞ ¶n ¶
λ k
λ
λ
λ
et lim (1 − ) ) = 1 et ln
1−
= n ln(1 − ) ∼ n(− ) = −λ
n→∞
n
n
n n→∞
n
k
λ
donc lim P (Xn = k) = e−λ
, ce qu’il fallait démontrer.
n→∞
k!
Application à l’approximation d’une loi binomiale par une loi de Poisson.
On considère que si n > 30, p 6 0.1 et np < 15, on peut faire l’approximation de la loi B(n, p)
par la loi P(np).
mais
2
Ceci signifie que si X ,→ B(n, p), et si Y ,→ P(np), on a, pour tout entier naturel k :
P (X = k) ' P (Y = k).
3. Exercice : Convergence de la loi hypergéométrique vers la loi binomiale.
Proposition : Soit p ∈]0, 1[ et n ∈ N∗ . Soit (Ni ) une suite strictement croissante d’entiers naturels
telle que : ∀i ∈ N Ni .p ∈ N.
Soit (Xi ) une suite de variables aléatoires telles que, pour tout i : Xi ,→ H(Ni , n, p)
Alors, la suite (Xi ) converge en loi vers une variable aléatoire X suivant la loi B(n, p).
Remarque : Xn et X ont même espérance.
Idée de la démonstration : Même
principe
³ ´³
´ que la précédente. Soit k un entier naturel. Notons N
au lieu de Ni . P (Xi = k) =
Np
k
Nq
n−k
³ ´
N
n
s’écrit aussi:
˙ q)(N q − 1) · · · (N q − n + k + 1)]
n!
((N p)(N p − 1) · · · (N p − k + 1)][(N
k!(n − k)!
N (N − 1) · · · (N − n + 1)
¡ n ¢ k n−k
qui a pour limite k p q
.
Application à l’approximation d’une loi hypergéométrique par une loi binomiale.
On considère que si N > 10n, on peut faire l’approximation de la loi H(N, n, p) par la loi B(n, p).
Ceci signifie que si X ,→ H(N, n, p), et si Y ,→ B(n, p), on a, pour tout entier naturel k :
P (X = k) ' P (Y = k).
4. Théorème de la limite centrée.
P (Xi = k) =
Théorème : (admis)
Si (Xn ) est une suite de variables aléatoires indépendantes et de même loi de probabilité qui
admettent une espérance et une variance, alors la variable centrée réduite Sn∗ associée à
n
X
Sn =
Xk
k=1
converge en loi vers une variable suivant la loi normale centrée réduite.
Z b
1
t2
∗
√ exp(− ) dt.
Cela signifie que, si a < b : lim P (a 6 Sn 6 b) =
n→+∞
2
2π
a
5. Exercice : Convergence de la loi binomiale vers la loi normale
Proposition : Soit p ∈]0, 1[, fixé. Soit (Sn )n∈N∗ une suite de variables aléatoires telle que, pour
tout entier naturel n, Sn ,→ B(n, p). Alors, la suite (Sn∗ ) des variables centrées réduites associées
aux Sn converge en loi vers une variable suivant la loi normale centrée réduite.
Idée de la démonstration : Considérons une suite (Xn ) de variables indépendantes sur (Ω, B, P )
suivant toutes la loi de Bernoulli de paramètre p. Sn = X1 + · · · + Xn vérifie les hypothèses de
ce théorème et on peut appliquer à la suite (Xn ) le théorème de la limite centrée, qui donne la
conclusion.
Application à l’approximation de loi binomiale par la loi normale.
On considère que si n > 30, np > 15 et npq > 5, on peut faire l’approximation de la loi B(n, p)
par la loi N (np, npq). Plus précisément, si X ,→ B(n, p) et Y ,→ N (np, npq),

 P (k − 0.5 < Y 6 k + 0.5) si k ∈ [[1, n − 1]]
P (X = k) ' P (Y 6 0.5)
si k = 0

P (Y > n − 0.5)
si k = n
Remarque : X et Y ont même espérance et même variance.
3
Téléchargement