Convergence des variables aléatoires

publicité
Convergence des variables aléatoires
I)
L’inégalité de Bienaymé – Tchebychev
1.1) L’inégalité de Markov dans le cas discret
On considère une variable discrète non négative, d’espérance strictement positive.
Soit λ un réel strictement positif.
Puisque est non négative, on a
Ω Appelons et les sous-ensembles de Ω définis par
Ω, Ω, On a
Ω
Comme , on a 0, et donc
D’autre part, , Donc
0
Donc
Soit en divisant par 0,
1
Or
On en déduit l’inégalité de Markov :
Exemple
Si # $ %'(, on a 3.
&
! "
1
1
20
Donc si dans une urne il y a trois boules, deux noires et une blanche, indiscernables au toucher, la
probabilité de devoir attendre plus de 60 tirages avec remise pour obtenir pour la première fois la
boule blanche est inférieure ou égale à 5%.
L’inégalité de Markov donne par exemple :
60 20 - 3 "
Ce résultat est en fait assez imprécis, car
23
2 01& 1
60 . /
. / 0.99999
3
3
04&
60 " 0,00001
Et donc
1.2) L’inégalité de Markov dans le cas continu
Soit une variable de densité 6 nulle sur 1 , admettant une espérance strictement positive.
Soit λ un nombre réel strictement positif.
On a
On peut écrire alors
7
7
19
9
68 7
:
9
68
;<
6 8 7
:
9
La fonction = 6 est positive sur . Comme 0 " , on a
7
;<
:
Donc
68
;<
6 8 0
7
9
;<
68
Sur l’intervalle >, ∞>, on a et donc
6 6
Les bornes étant dans le bon ordre, on a
Et donc
Ce qui donne en définitive :
7
9
68 7
;<
7
9
9
68 7
;<
En divisant par , on obtient :
Or
On retrouve l’inégalité de Markov :
68
;<
7
9
7
68
;<
;<
9
9
68
9
1
7
68
;<
68 ;<
! "
1
Exemple
La durée d’une communication téléphonique en minutes est une variable aléatoire continue dont on
supposera qu’elle suit une loi exponentielle de paramètre 1.
1
On a donc
1
10
Dans ce modèle, la probabilité qu’une communication dure plus de 10 minutes est inférieure à 0,1. Ce
qui revient à dire qu’il y a moins de 10% des communications dont la durée dure plus de 10 minutes.
Là encore le résultat est très imprécis :
On a
10 10 - 1 "
10 7
9
@ 1 8 @ 1&: A 4.54 D 1012
&:
Il y a donc en réalité moins de 5 chances sur 100000 qu’une communication dure plus de 10 minutes
(ce qui en fait montre que ce modèle n’est pas très réaliste)
1.3) L’inégalité de Bienaymé – Tchebychev dans le cas discret
On considère une variable discrète admettant une espérance mathématique et une variance
E non nulle.
Soit F un nombre réel strictement positif.
On a
Soit I la variable aléatoire définie par
H
E % G ! (
H
I G !
I E 0
Donc dans le cas discret en appliquant l’inégalité de Markov en prenant :
FH
E
On obtient
On a donc
JI Ce qui donne
Or
On en déduit que
FH
E
IK " H
E
F
H
% G ! F H ( "
H
E
FH
L G ! F H M >| G | FO
| G | F "
E
FH
1.4) L’inégalité de Bienaymé – Tchebychev dans le cas continu
On considère une variable continue admettant une espérance mathématique et une variance
E non nulle.
Soit 6 une densité de probabilité de .
On a
H
E % G ! ( 7
Considérons pour F 0, l’ensemble défini par
9
19
H
G ! 68
H
G ! F H
G F P G " GF
L’ensemble G F peut se décrire de la façon suivante :
G F F
De même
G " GF " GF On a
Ce qui revient à dire que
G " GF 7
On a donc par incompatibilité
G F 7
1Q<
19
9
68
68
Q<
H
% G ! F H ( G " GF G F
On a
E 7
1Q<
19
On a évidemment
7
68 7
19
H
G ! 68 7
7
E 7
1Q<
19
Q<
1Q<
Comme – F " F , alors
Donc
1Q<
9
68
Q<
H
G ! 68 7
Q<
H
G ! 6 0
Q<
1Q<
H
H
G ! 68 7
9
Q<
H
H
G ! 68
G ! F H
Donc
H
G ! 6 F H 6
Les bornes étant dans le bon ordre, on a :
7
1Q<
19
H
G ! 68 7
De même, on a pour F , G F 0
Donc
1Q<
19
F H 68
H
G ! F H
Et donc
H
Les bornes étant dans le bon ordre
7
9
Q<
G ! 6 F H 6
H
G ! 68 7
9
F H 68
Q<
H
G ! 68
G ! 68 0
Pour " GF , on a G ! " GF. Ce nombre étant négatif, on a
On a donc
9
7
1Q<
19
Donc
G ! 68 7
Donc
Donc
Ce qui donne enfin
On a
H
9
Q<
E F H 7
H
G ! 68 7
1Q<
19
E F H S7
F 68 7
19
68 F H 7
9
Q<
1Q<
68 7
19
1Q<
9
H
9
F H 68
Q<
68
68T
Q<
H
E F H % G ! F H (
H
% G ! F H ( "
H
E
FH
L G ! F H M >| G | FO
On en déduit l’inégalité dite de Bienaymé – Tchebychev :
| G | F "
E
FH
Applications :
Si # U20; 0,2, on a 20 - 0.2 4 et E 20 - 0,2 - 0,8 3,2
On aura par exemple
1 " " 7 G3 " G 4 " 3 | G 4| " 3
Or d’après l’inégalité de Bienaymé – Tchebychev, on a
3.2
| G 4| 3 "
9
Donc
| G 4| 3 " 0,356
Donc
| G 4| " 3 0,644
Ou encore
1 " " 7 0,644
Deuxième exemple :
Soit la variable aléatoire donnant la note en math au concours Ecricome. On sait que par
construction
10
Y 4
On aura
5 " " 15 G5 " G 10 " 5 | G 10| " 5
Or
16
| G 10| 5 "
25
Donc
9
| G 10| " 5 25
On en déduit que
5 " " 15 0,36
L’inégalité de Bienaymé – Tchebychev n’est pas très précise, elle donne un résultat « à la louche » qui
donne simplement une vague idée de la situation.
Par contre, elle ne demande pas de connaître la loi de probabilité de la variable.
Quand on connaît cette loi, on obtient des résultats bien meilleurs.
Dans le dernier exemple, si l’on sait que # Z10,4, on pose alors
G 10
[ 4
On sait que
[ # Z0,1
On en déduit que
5
5
5 " " 15 .G " [ " / 2\1,25 G 1 A 0,79
4
4
Bien sûr le résultat retourné par l’inégalité de Bienaymé – Tchebychev est correct, mais bien peu
précis.
II. Convergence en probabilité – Loi faible des grands nombres
2.1) Convergence en probabilité
Définition
On considère une suite de variables aléatoires & , … , ^ , … discrètes ou continues, définies
sur un espace probabilisé Ω, _, . Soit ` une variable aléatoire définie sur le même espace
probabilisé.
On dit que ^ converge vers ` en probabilité pour signifier que
F 0, lim |I^ G `| F 0
On note
2.2) Moyenne empirique
^d9
e
I^ d `
Définition
Soit ^ ^f une suite de variables aléatoires définies sur un même espace probabilisé
Ω, _, .
On définit pour tout entier g, la moyenne empirique d’ordre g comme étant la variable
hhh^h définie par :
aléatoire ^
1
h^ 0
g
04&
2.3) Loi faible des grands nombres
Théorème
Soit ^ ^f[ une suite de variables aléatoires deux à deux indépendantes et de même loi,
avec pour tout i f[ ,
0 j
E0 Y H avec Y 0
On a
h^ j
YH
h
E^ g
Et
YH
F 0, g 1, |h^ G j| F " H
gF
On a
^
^
^
04&
04&
04&
1
1
1
1
h^ J 0 K 0 j gj j
g
g
g
g
Nous admettrons le résultat suivant :
Si & , … , ^ sont des variables deux à deux indépendantes, alors
E& o ^ E& o E^ On a alors
Donc par indépendance
^
^
04&
04&
1 H
1
Eh^ E J 0 K . / E J 0 K
g
g
^
^
1
1
YH
1
Eh^ H E0 H Y H H gY H g
g
g
g
04&
On a alors avec l’inégalité de Bienaymé – Tchebychev,
Et donc
04&
|h^ G h^ | F "
|h^ G j| F "
Eh^ FH
YH
gF H
Loi faible des grands nombres
Soit ^ ^f[ une suite de variables aléatoires deux à deux indépendantes et de même loi,
avec pour tout i f[ ,
0 j
E0 Y H avec Y 0
Alors
F 0, lim |h^ G j| F 0
^d9
Ce qui prouve que la variable h^ converge en probabilité vers la variable constante j.
h^ d j
e
On applique le résultat démontré à la question précédente. On a
0 " |h^ G j| F "
YH
0
^d9 gF H
Or
lim
YH
gF H
Donc d’après le théorème des gendarmes,
F 0, lim |h^ G j| F 0
^d9
Exemple d’application
On lance une pièce bien équilibrée un grand nombre de fois. Au i ième lancer, on associe la variable
aléatoire 0 qui prend la valeur 0 si le lancer donne pile et 1 s’il donne face.
On a donc
1
0 # U . /
2
&
On a donc 0 H.
En prenant
^
1
h^ 0
g
04:
On aura
On a donc
h^ 1
2
1
F 0, lim .qh^ G q F/ 0
^d9
2
III. Convergence en loi
3.1) Convergence en loi
Définition
On considère une suite ^ ^f[ de variables aléatoires définies sur un même espace
probabilisé Ω, _, .
Soit une variable aléatoire définie sur ce même espace probabilisé.
Si est une variable à densité, ^ converge en loi vers si :
r , lim ^ " r " r
^d9
Si les variables ^ et la variable suivent des lois discrètes, la convergence en loi se définit
de la façon suivante :
Ω, lim ^ On écrit
^d9
s
^ d 3.2) Convergence de la loi binomiale vers la loi de Poisson
Soit ^ une suite de variables aléatoires telles que ^ # Ug, t^ On suppose que
lim gt^ 0
^d9
On a pour tout i f et tout g i,
On a
g
^ i % ( t^0 1 G t^ ^10
i
01&
g!
1
g
% (
vg G w
i
i! g G i! i!
Or pour i fixé, on a pour tout w " i G 1,
gGw
y
g
y
^d9
x4:
g0
g
% ( y
i ^d9 i!
Donc
gt^
On a
Donc
On a donc
On a également
g
% ( t^0
i
t^
y
^d9
^d9 g
y
^d9
0 g0 0
. /
g i! i!
ln1 G t^ ^10 g G i ln1 G t^ t^ {|||} 0
Or
^d9
ln1 G t^ Donc
Ou encore:
On en déduit que
Donc
ln1 G t^ g G i ln1 G t^ Et donc par composition des limites :
On en déduit que
y G t^
^d9
y G
^d9
y G
^d9
g
g G i
y G
^d9
g
lim ln1 G t^ ^10 G
^d9
lim 1 G t^ ^10 @ 1;
^d9
lim ^ i ^d9
On reconnaît une loi de Poisson de paramètre λ.
0 @ 1;
i!
Théorème :
Soit ^ une suite de variables aléatoires telles que ^ # Ug, t^ On suppose que
lim gt^ 0
^d9
Alors la suite ^ converge en loi vers une variable qui suit une loi de Poisson de paramètre
λ.
3.3) Convergence de la loi hypergéométrique vers la loi binomiale
On considère une suite ^ de variables telles que
^ # ~, g, t
Rappelons que cela correspond à la situation standard : une urne contient  boules blanches et
rouges. Elle contient une proportion t de boules blanches et donc 1 G t de boules rouges.
On extrait simultanément g boules de l'urne et l'on appelle ^ la variable aléatoire correspondant au
nombre de boules blanches que nous avons parmi les g extraites.
Pour simplifier, on considère que t est un entier r.
On a
1 G t  G t  G r € f
On a
^ Ω 0, g‚
On a
r
€
% (%
(
i gGi
^ i 
% (
g
Ce qui donne
r!
€!
g!  G g!
^ i i! r G i! g G i! € G g i!
!
01&
^101&
„4:
x4:
 G g!
g!
vr G ƒ v € G w
i! g G i!
!
r G ƒ t G ƒ
On a
Donc
01&
vr G ƒ
De même
^101&
„4:
v € G w
x4:
En écrivant
Et donc
y
…d9
…d9
t
 0 t0
 ^10 1 G t^10
^1&
!
v G w
 G g!
x4:
On a
On en déduit que
y
y
…d9
01&
^101&
„4:
x4:
!
y ^
 G g! …d9
 G g!
 0 t0  ^10 1 G t^10
y
vr G ƒ v € G w
…d9
^
!
01&
^101&
„4:
x4:
vr G ƒ v € G w
 G g!
y t0 1 G t^10
…d9
!
g!
g
t0 1 G t^10 % ( t0 1 G t^10
i
…d9
i! g G i!
On reconnaît une loi binomiale de paramètres g et t.
On a donc le théorème suivant
Donc
lim ^ i Théorème
On considère une suite ^ de variables telles que
^ # ~, g, t
Alors
s
^ d Où # Ug, t
3.4) Le théorème Central Limite
On sait que si Soit ^ une suite de variables mutuellement indépendantes et de même loi, admettant
une espérance j et une variance E Y H , on a
h^ j
YH
h
E^ g
On a donc
Y
Yh^ √g
On a
‡
h^ G j
Y ˆ0
√g
E‡
h^ G j
Y ˆ1
√g
Théorème (admis)
Soit ^ une suite de variables mutuellement indépendantes et de même loi, admettant une
espérance j et une variance E Y H .
Soit h^ la suite des moyennes empiriques.
Alors
hhh^h G j s
√g
d _, avec _ # Z0,1
Y
On écrit souvent
Soit en posant
hhh^h G j g
hhh^h G j gh^ G gj
√g
Y
Y √g
Y √g
‰^ gh^ & o ^
‰^ G gj
Y √g
s
d _, avec _ # Z0,1
3.5) Approximation d'une loi binomiale par une loi normale
Considérons une suite de variables ^ telles que
^ # Ug, t
Pour tout g, on peut écrire ^ sous la forme d'une somme de variables de Bernoulli de paramètres
t, indépendantes (et donc de même loi).
On a
^
^ I0 avec I0 # Ut
04&
I0 t
EI0 t1 G t
D'après le théorème central limite appliqué aux variables I0 , on a
s
^ G gt
d _, avec _ # Z0,1
Št1 G t√g
On a donc
^ G gt s
d _, avec _ # Z0,1
Šgt1 G t
Ou encore
^ G ^ s
d _, avec _ # Z0,1
Y^ On a donc
Cette propriété permet de trouver des valeurs approchées d'une probabilité.
On considère une variable # 1000; 0,3
On cherche " 320.
Cette forme est compliquée à déterminer par le calcul direct.
On a
300
E 210
On dira que
G 300
20
20
" 320 .
"
/ ‹ \.
/ \1,38 0,916
√210
√210
√210
On trouverait de la même façon
" 319 ‹ 0,905
On en déduit que
320 ‹ 0,011
On a en fait
320 0,0105 …
Téléchargement