1 Notions de base -Le cas équiprobable : dénom- brement 2

publicité
1
Notions de base -Le cas équiprobable : dénombrement
2
Interprétation ensembliste des événements - Axiomes des probabilités
3
Probabilité conditionnelle -Probabilités totales Théorème de Bayse
4
Indépendance
5
Variables aléatoire
Une variable aléatoire est simplement une fonction X :
! R:
Une réalisation d’une variable aléatoire est donc X(!): la partie
"aléatoire" provient de !, qui est une réalisation de l’expérience considérée. Une variable aléatoire correspond a une mesure (numérique)
e¤ectuée lors de cette expérience.
L’événement "la variable aléatoire X donne comme résultat a" est
noté
fX = ag = f! 2
: X(!) = ag = X
1
(a)
et l’événement "la variable aléatoire X donne comme résultat dans
A" est
fX 2 Ag = f! 2
: X(!) 2 Ag = X
1
(A) :
Ce n’est donc ni plus ni moins que la préimage de A par l’application
X.
Exemple : Si l’expérience consiste a choisir une personne au hasard
alors son âge, sa taille, son nombre de dents sont des variables aléatoires
mais pas son sexe (car le résultat n’est pas numérique). Pour que le
sexe devienne une variable aléatoire il faudrait associer au sexe féminin
la valeur 1 et au sexe masculin la valeur 0 par exemple.
On associe à chaque variable aléatoire sa fonction de répartition
FX (x) qui associe à chaque valeur x 2 R la probabilité de l’événement
fX xg. c’est-à-dire
1
x) = P (f! 2
FX (x) = P (X
: X(!)
xg) :
Propriétés de la fonction de répartition :
La fonction de répartition de toute variable aléatoire est dé…nie
pour tout x 2 R.
Elle est croissante, continue par morceaux (càdlàg : continue à droite
et admet un limite à gauche, pour être précis) et véri…e
lim FX (x) = 0
x ! 1
et
lim FX (x) = 1 :
x !+1
En particulier, FX (X) 2 [0; 1] pour tout x:
La fonction de répartition caractérise totalement la loi de la variable
aléatoire X en donnant la probabilité des événements de type fX 2 ] 1; x]g :
En e¤et, par exemple
P(X > a) = 1 P(X
P(X < a) = lim P(X
x !a
P(a X b) = P(X
P(X = a) = P(X a)
5.1
a) = 1 FX (a)
a) = lim FX (x) = FX (a )
x !a
b) P(X < a) = FX (b) FX (a )
P(X < a) = FX (a) FX (a )
Variables aléatoires discrètes
Une variable aléatoire est dite discrète si elle ne prends qu’un nombre
…ni ou dénombrable de valeurs.
Exemple : Si l’expérience consiste a choisir une personne au hasard,
alors son nombre de dents est une variable aléatoire discrète mais pas sa
taille (mesurée avec précision absolue).
On peut alors dé…nir sa fonction de densité discrète (ou fonction
de fréquence) noté fX (x); ou plus souvent p(x), telle que
p:
R ! [0; 1]
x 7 ! p(x) = P(X = x)
Propriétés de la fonction de fréquence :
La fonction de fréquence de toute variable aléatoire est dé…nie pour
tout x 2 R mais est non-nulle seulement pour un nombre …ni ou dénombrable de point.
Elle n’est ni croissante, ni continue par morceaux, ni comprise entre
0 et 1.
En revanche elle véri…e
p(x) = FX (x)
FX (x ) = FX (x)
2
lim FX (x
h !0+
h):
Aussi, on a donc
p(x) = P(X
x) =
X
P(X = y) =
y x
X
p(y):
y x
Exemple : Jet d’un dé.
= f! 1 ; ! 2 ; ! 3 ; ! 4 ; ! 5 ; ! 6 g, X :
R telle que X(! j ) = j (la face du dé).
!
On dé…ni l’espérance de la variable aléatoire X par
X
X
= E (X) =
xi P(X = xi ) =
xi p(xi )
i
P
i
(si i jxi j p(xi ) < 1).
De même, l’espérance
d’une fonction d’une variable aléatoire
P
est dé…nie par (si i g (xi ) p(xi ) < 1)
X
X
E (g (X)) =
g (xi ) P(X = xi ) =
g (xi ) p(xi ):
i
i
C’est la moyenne pondérée des valeurs que peuvent prendre la variable aléatoire pondérée par le poids de la probabilité de chaque valeur.
En termes physiques, c’est le barycentre de la densité discrète.
On dé…nit le moment d’ordre k de la variable aléatoire X par
X
E Xk =
xk P(X = x):
i
On dé…ni la variance d’une variable aléatoire X par
2
= V ar (X) = E (X
E(X))2 = E X 2
(E (X))2 =
X
x2i p(xi )
i
p
et son écart-type par la racine carrée de la variance X = V ar(X).
C’est une mesure de l’écart moyen par rapport à l’espérance E(X).
Exemple :
Pour P
la variable aléatoire
P du résultat d’un jet de dé, l’espérance vaut
E (X) = 6i=1 kp(k) = 6i=1 k 61 = 16 (21) = 3:5:
Pour une variable aléatoire qui vaut 1 si l’événement A se produit et
0 sinon.
l’espérance est 1:P(A) + 0:P(Ac ) = P(A).
3
X
i
!2
xi p(xi )
:
5.2
Variables aléatoires classiques
Quelques variables aléatoires discrètes
Nom
paramètres
Bernoulli
0
Binomiale
0
Géométrique
Poisson
5.3.1
1
n2N
p 1
p
1
>0
Binomiale négative
5.3
0
p
Fonction de fréquence p(k) E (X)
V ar (X)
P (X = 1) = p
p
p (1 p)
P (X = 0) = 1 p
Cnk pk (1 p)n k
np
np (1 p)
pour k 2 f0; :::; ng
p (1 p)k 1
1 p
1
p
p2
pour k 2 N
k
e k!
pour k 2 N
n 1 n
Ck 1 p (1 p)k n
n
n p12 p1
p
pour k 2 fn; n + 1; :::g
n 2 N; n > 1;
0 p 1
Variables aléatoires continues - Loi normale
Variables aléatoires continues
Une variable aléatoire qui n’est pas discrète est dite continue. Elle
prends donc ses valeurs dans un continuum.
Exemple : Si l’expérience consiste a choisir une personne au hasard,
alors son âge ou sa taille (mesurées avec précision absolue) son des variables aléatoires continues mais pas son nombre de dents (variable aléatoire discrète).
On dé…nit sa fonction de densité comme étant la fonction fX :
R ! R telle que, pour tout x 2 R
Z x
P (X x) = FX (x) =
fX (u) du:
1
Attention : La fonction de densité n’est pas une probabiltié, elle peut
donc être plus grande que 1 !
Propriétés de la fonction de densité :
La fonction de densité de toute variable aléatoire est dé…nie pour
tout x 2 R, mais n’est pas nécessairement dans [0; 1].
Elle est continue par morceaux telle que
fX (x)
0 pour tout x 2 R
et
De plus,
4
Z
+1
fX (x) dx = 1:
1
P (X 2 A) =
Z
fX (x) dx
et
P (a
X
b) =
A
Z
b
fX (x) dx:
a
et, si FX est dérivable en x (ou si fX est continue en x),
fX (x) = FX0 (x) = lim
FX (x + h)
FX (x
h)
:
h
En fait, on peut dé…nir une variable aléatoire comme étant continue
si une telle fonction de densité fX existe.
Rx
Remarque : Pour une variable aléatoire continue on a donc P (X = x) = x fX (x) dx = 0
pour tout x puisqu’on intègre sur un seul point...
Exemple : Variable aléatoire exponentielle.
Soit la variable aléatorie de densité fX (x) = exp ( x) si x 0 et 0
sinon.
Sa fonction de répartition est donc la primitive de fX , cíest-à-dire
h!0
FX (x) =
Z
x
exp ( x) si x
fX (u) du = 1
0 et 0 sinon:
1
On dé…nit l’espérance d’une variable aléatoire continue X comme
Z +1
E (X) =
xfX (x) dx
1
R +1
(si 1 jxj fX (x) dx < 1).
De même, l’espérance
d’une fonction d’une variable aléatoire
R +1
est dé…nie par (si 1 jg (x)j fX (x) dx < 1)
Z +1
E (g (X)) =
g (x) fX (x) dx:
1
On dé…nit le moment d’ordre k de la variable aléatoire X par
Z +1
k
=
xk fX (x) dx:
k = E X
1
En…n, on dé…ni la variance d’une variable aléatoire continue X par
2
= V ar (X) = E (X
Z +1
=
x2 fX (x) dx
1
E (X))2 = E X 2
Z +1
xfX (x) dx
1
5
(E (X))2
2
:
p
et son écart-type par la racine carrée de la variance X = V ar (X):
C’est une mesure de l’écart moyen par rapport à l’espérance E(X).
Nous verrons plus loin en détail ce que cela veut dire.
On obtient alors une "procédure" informelle pour passer des formules
pour le cas discret au cas continu : il faut remplacer les occurences de
la fonction de fréquence RP(X = xi ) par la densitÈ fX (x) et les sommes
P
i2A par des intégrales A :
5.4
Variables aléatoires classiques
Quelques variables aléatoires continues
Nom
Uniforme
Exponentielle
Gaussienne
Gamma
Beta
Paramètres
a<b
>0
2 R;
2
Densité
f (x) = b 1 a ; pour x 2 [a; b]
f (x) = e x ; pour x > 0
>0
> 0; n
f (x) =
1
f (x) =
(a+b) a 1
x
(a) (b)
a; b > 0
p1
2
e
(x
)2
2 2
n n 1
x
e
(1
x
(n)
b 1
x)
; pour x 2 R
; pour x > 0
; pour x 2 (0; 1)
Remarque : la densité aux points non indiqués est nulle. la fonction
(x) est dé…nie par
Z 1
tx 1 e t dt:
(x) =
0
Remarque : Pour simplifer l’écriture des fonctions de densité et de
fréquence, on dé…nit souvent la fonction indicatrice d’un ensemble par
1A (x) =
1
b
si x 2 A
sinon
1
0
Ainsi, par exemple, la densité uniforme sur [a; b] s’écrit f (x) =
1
:
a [a; b]
5.4.1
Propriétés de l’espérance et la variance
Espérance On dé…nit l’espérance d’une variables aléatoire X par
E (X) =
P
x P(X = xi )
R +1i i
xfX (x)dx
1
=
P
i
xi p(xi ) (Cas discrèt)
(Cas continu)
R +1
P
si respectivement
jxj fX (x) dx < 1
i jxi j p(xi ) < 1 et
1
Propriétés de linéarité de l’espérance :
6
E(X) V ar (X)
a+b
2
1
(b a)2
12
1
2
2
n
n
2
L’espérance est linéaire, c’est-à-dire que, pour toutes constantes
réelles a; b et toute variable aléatoire X,
E (aX + b) = aE (X) + b:
C’est une simple conséquence du fait que la somme et l’intégrale sont
linéaires.
Variance On dé…ni la variance d’une variable aléatoire X par
2
= V ar (X) = E (X
E(X))2 = E X 2
(E (X))2 :
On remarque que la seconde égalité provient en fait de la linéarité de
l’espérance, car
E (X
E(X))2 = E X 2
2 E(X) X + (E (X))2
= E X2
2 E(X) E(X) + (E (X))2
= E X2
(E (X))2 :
et p
dé…nit aussison écart-type par la racine carrée de la variance
V ar(X).
X =
Propriétés de la variance :
Pour toutes constantes réelles a; b et toute variable aléatoire X,
V ar (aX + b) = a2 V ar (X) :
En e¤et, le fait d’ajouter b a X déplace horizontalement la distribution de probabilité de X mais ne change pas la distribution de X autour
de sa moyenne.
Conséquence : variable aléatoire centrée réduite
On peut centrer et réduire une variable aléatoire en lui retranchant
son espérance (centrer) et en la divisant par la racine carrée de sa
variance (réduire).
Si X est une variable aléatoire d’espérance et de variance 2 ; alors
(X
) = est d’espérance 0 et de variance 1.
!
!
X E (X)
X E (X)
E p
= 0 et V ar p
=1
V ar (X)
V ar (X)
7
5.5
Loi Normale
Une variable aléatoire d’un intérêt spécial est la loi normale ou gaussienne (du nom du mathématicien Gauss) N ( ; 2 ) dont la fonction de
densité est
1
fX (x) = p e
2
où
est son espérance et
2
(x
)2
2 2
; pour x 2 R;
sa variance.
Remarque : On peut voir la loi normale comme la limite d’une loi
binomiale avec n grand et p petit. Ci-desous se trouvent les graphiques
de la fonction de fréquence d’une loi binomiale de paramètre n = 250 et
p = 0:03 à di¤érentes échelles.
250
La fonction est donc p (k) =
0:03k (1 0:03)250 k et peut être
k
approchée par f (x) = p
1
e
2 :250:0:03:(1 0:03)
(x 250:0:03)2
2:250:0:03:(1 0:03)
Propriétés de la loi gaussienne :
On peut montrer qu’une variable gaussienne X reste gaussienne sous
la transformation aX + b, donc
aX + b suit une loi normale N a + b; a2
2
en particulier, si on la centre et la réduit, on obtient une loi normale
standard (centrée réduite)
X
p
E (X)
V ar (X)
suit une loi normale N (0; 1)
Exemple de centrage et réduction :
En…n, bien que sa fonction de répartition FX existe, elle ne peut
pas être représentée par une formule, car la primitive de fX n’est pas
représentable.
Elle ne peut qu’être calculer numériquement et nous disposons donc
de tables numériques qui donnent les valeurs de FX (x) = P(X x):
En centrant et réduisant, il su¢ t de posséder une table pour la loi
normale standard.
8
De plus, la loi normale est symétrique autour de son espérance, donc,
pour X suivant une loi normale standard N (0; 1) on a
P (X x) = P (X
x)
P (X > x) = P (X < x) = P (X
P (X
x) = 1 P (X > x) = 1
6
x)
P (X
x) pour x
0
Lois conjointes
6.1
Variables aléatoires conjointes
Un couple de variables aléatoires (X; Y ) est une fonction de dans R2 .
On peut donc lui associer sa fonction de répartition conjointe
FX;
Y
(x; y) = P (X
x; Y
y) = P (fX
xg \ fY
yg) pour tout x; y 2 R:
Propriétés de la fonction de répartition conjointe :
Pour tout x0 …xé, FX;Y (x0 ; y) est une fonction de y croissante telle
que
lim FX;Y (x0 ; y) = 0
y! 1
et
lim FX;Y (x0 ; y) = FX (x0 ) :
y!+1
De même, pour tout y0 …xé, FX;Y (x; y0 ) est une fonction de x croissante telle que
lim FX;Y (x; y0 ) = 0
y! 1
et
lim FX;Y (x; y0 ) = FY (y0 ) :
y!+1
On appelle FX (x) et FY (y) les fonctions de répartition marginales de (X; Y ).
Les fonctions de répartitions marginales correspondent à
FX (x) = P(X
x; Y 2 R)
et
FY (y) = P(X 2 R; Y
y):
Proposition :
P(a1
X
a2 ; b 1
Y
b2 ) = FX;Y (a2 ; b2 ) FX;Y (a1 ; b2 ) FX;Y (a2 ; b1 )+FX;Y (a1 ; b1 ):
Exemples de variables aléatoires conjointes :
9
On dé…nit également par, dans le cas discret, la fonction de fréquence
conjointe
fX;Y (x; y) = P(X = x; Y = y) = FX;Y (x; y)
lim FX;Y (x
h!0
h; y
h)
et, dans le cas continu, la fonction de densité conjointe
fX;Y (x; y) =
d2
FX;Y (x; y) là où la dérivée existe.
dxdy
On a alors
P(X 2 A; Y 2 B) =
et donc
FX (x) =
P
P
R Ru2A v2B P(X = u; Y = v) dans le cas discrèt,
f (x; y)dxdy
dans le cas continu,
A B X;Y
P
P
P(X = u; Y = v) dans le cas discrèt,
u
x
R x R +1 v
f (x; y)dxdy
dans le cas continu.
1
1 X;Y
La fonction de densité marginale est donc
fX (x) =
P
dans le cas discrèt,
dans le cas continu.
P(X = x; Y = v)
R +1
(x) = 1 fX;Y (x; y)dxdy
v
FX0
Remarque : si X est continue et Y discrète, FX;Y existe, mais pas la
densité conjointe.
Exemple :
Soit X une tir a pile ou face et Y le jet d’un dé. On a la fonction de
fréquence conjointe suivante, où l’on peut lire les fonctions de fréquence
marginales dans les marges du tableau.
1
2
3
4
5
6
fX
P
F
1
12
1
12
1
12
1
12
1
12
1
12
1
12
1
12
1
12
1
12
1
12
1
12
#
#
1
2
1
2
10
fY
!
!
!
!
!
!
1
6
1
6
1
6
1
6
1
6
1
6
En…n, l’espérance d’une fonction d’une variable aléatoire conjointe est dé…nie par
E (h (X1 ; :::; Xn )) =
X
h (x1 ; :::; xn ) P (X1 = x1 ; :::; Xn = xn )
x1 ;:::;xn
dans le cas discrèt et par
E (h (X1 ; :::; Xn )) =
Z
+1
:::
1
Z
+1
h (x1 ; :::; xn ) fX1 ;:::;Xn (x1 ; :::; xn ) dx1 :::dxn
1
dans le cas continu (si respectivement la somme et l’intégrale de
jh (x1 ; :::; xn )j sont …nies).
6.2
Densité conditionnelle et indépendance
On dé…nit la densité conditionnelle de X sachant Y par analogie
avec les probabilités conditionnelles
fX=Y (x=y) = P (X = x=Y = y) (cas discrèt)
fX; Y (x; y)
si fY (y) > 0 et 0 sinon (cas continu)
fX=Y (x=y) =
fY (y)
Attention : c’est une densité de probabilité, x est la variable mais y
est …xé.
De la même manière, deux variables aléatoires sont indépendantes si,
pour tout ensembles A et B les événements fX 2 Ag et fY 2 Bg sont
indépendants.
Cela revient à trois conditions équivalentes
P(X 2 A; Y 2 B) = P (X 2 A) P (Y 2 B) pour tout A; B
FX;Y (x; y) = FX (x) FY (y) pour tout x; y 2 R
fX;Y (x; y) = fX (x) fY (y) pour tout x; y 2 R
On a encore, à l’aide de la densité conditionnelle,
P(X 2 A=Y 2 B) = P (X 2 A) pour tout A; B
fX=Y (x=y) = fX (x) pour tout x
fY =X (y=x) = fY (y) pour tout y
11
Plusieurs variables aléatoires X1 ; :::; Xn sont indépendantes si
P
n
\
i=1
!
fXi 2 Ai g =
n
Y
i=1
P (Xi 2 Ai ) pour tout A1 ; :::; An
FX1 ;:::;Xn (x1 ; :::; xn ) = FX1 (x1 ) :::FXn (xn ) pour tout x1 ; :::; xn
Si X1 ; :::; Xn sont indépendantes et ont la même loi, on dit qu’elles
sont indépendantes et identiquement distribuées (i.i.d.)
Exemple :
Les variables sont indépendantes,
en e¤et, pour tout x; y = 1; :::; 6;
1
et
P (X = x; Y = y) = 36
1
P (X = x) = 6 et P (Y = y) = 61
donc on a bien, pour tout x; y = 1; :::; 6;
P (X = x; Y = y) = P (X = x) P (Y = y)
7
Covariance –Corrélation
7.1
Covariance
Pour deux variables aléatoires X et Y , on dé…nit leur covariance
comme
Cov (X; Y ) = Cov (Y; X) = E [(X
E (X)) (y
E (Y ))] = E (XY ) E (X) E (Y ) :
Propriétés de la convariance :
C’est une mesure de la dépendance linéaire entre deux variables aléatoires.
Si X et Y sont indépendantes, alors Cov (X; Y ) = 0 puisque E (XY ) =
E (X) E (Y ) pour deux variables indépendantes.
En revanche, posons U une variable aléatoire uniforme
R 1 3 1sur ( 1; 1)
2
2
et X = U et Y = U : On a E (XY ) = E (U ) =
x 2 dx = 0 et
1
E (X) = E (U ) = 0:
Donc Cov (X; Y ) = 0 mais X et Y ne sont clairement pas indépendantes.
De même, X = sin ( x) et Y = cos ( x) ne sont pas indépendantes
et leur covariance est nulle.
En analyse, la convariance dé…nit un produit scalaire, et donc Cov(X; Y )
mesure le degré de dépendance linéaire entre X et Y .
1 Si Cov(X; Y ) > 0, alors quand X croît, Y croît (tendance globale),
12
2 Si Cov(X; Y ) < 0, alors quand X croît, Y décroît (tendance
globale),
3 Si Cov(X; Y ) = 0, alors les variations de X n’ont pas d’in‡uences
sur Y (tendance globale).
7.2
Liens entre variance et covariance
La covariance a le même type de linéarité que la variance, c’est-à-dire
Cov(X + Y; Z) = Cov(X; Z) + Cov(Y; Z) et Cov(c; Y ) = 0
Cov(a1 X1 + a2 X2 + b; Y ) = a1 Cov(X1 ; Y ) + a2 Cov(X2 ; Y )
pour toutes constantes réelles a1 ; a2 ; b et toute variable aléatoire
X1 ; X2 et Y:
De plus, si X et Y sont les mêmes variables, alors la covariance
devient la variance, c’est-à-dire
Cov(X; X) = V ar(X)
On a alors la propriété suivante :
V ar(X + Y ) = V ar(X) + V ar(Y ) + 2Cov(X; Y )
7.3
Corrélation
La corrélation entre deux variables aléatoires X et Y est dé…nie par
X; Y
Cov(X; Y )
= (X; Y ) = p
V ar(X)V ar(Y )
C’est une version normalisée de la covariance
Corr(X; Y ) 2 [ 1; 1]
Propriétés de la covariance :
La corrélation a les mêmes propriétés que la covariance a quelques
exceptions près. On a bien
(Y; X) = (X; Y ) et (X1 + X2 + b; Y ) = (X1 ; Y ) + (X2 ; Y )
(X; Y ) = 0 () Cov(X; Y ) = 0 possible avec X et Y dépendantes,
13
mais si X et Y sont indépendantes, alors (X; Y ) = 0:
En revanche,
(aX + b; Y ) = signe (a) (X; Y ) :
La corrélation est une mesure du degré de relation linéaire entre X
et Y , c’est-à-dire
(X; Y ) = 1 () Y peut s’écire comme aX + b; i:e: P(fY = aX + bg) = 1
(X; Y ) = 1 () Y peut s’écire comme
aX + b; i:e: P(fY = aX + bg) = 1
pour des constantes a > 0 et b 2 R.
8
Loi des grands nombres - Théorème Central Limite
Les deux résultats de ce chapitre sont les deux résultats principaux à la
base de la statistique.
Il s’agit de deux résultats limites, c’est-à-dire qu’ils ne sont valables que si l’on considère un nombre su¢ samment grand de
variables ou d’observations.
Tout les deux caractérisent la moyenne de plusieurs observations et
sont très généraux. Ils sont valables quelque soit la loi des
variables considérées. Il su¢ t qu’elles soient i.i.d. et que leur
espérance (et parfois leur variance) soit …nie.
On dé…nit la moyenne empirique de n variables aléatoires X1 ; :::; Xn
par
1X
X=
Xi :
n i=1
n
Attention : X est aussi une variable aléatoire !
Si les variables sont i.i.d. alors X devrait se rapprocher de la moyenne
théorique (l’espérance) a mesure que n grandit.
La loi des grands nombres et le théorème central limite caractérisent
cette convergence.
8.1
Loi des grands nombres
La Loi des grands nombres montre que la moyenne empirique d’observations
i.i.d. tends vers leur espérance mathématique.
Théorème 1 (Loi des grands nombres) Soit X une variable
aléatoire d’espérance et soient X1 ; :::; Xn des variables aléatoires i.i.d.
de même loi que la variable X. On a
14
1X
X=
Xi
n i=1
n
!
= E (X) :
n!+1
Corrolaire 2 (application au moment d’ordre k) Soit X une
variable aléatoire dont le moment d’ordre k vaut k = E(X k ) et soient
X1 ; :::; Xn des variables aléatoires i.i.d. de même loi que la variable X.
On a
n
1X k
(k)
X
!
= E Xk :
X =
n i=1 i n!+1 k
On peut remarquer alors que X, qui est une variable aléatoire, converge vers , qui est une constante, donc X perds son caractère aléatoire
à mesure que n grandit. En d’autres termes,
! 0:
V ar X
8.2
n!+1
Théorème Central Limite
Le théorème central limite permet de caractériser la loi limite de X. C’est
un résultat à la fois très puissant et très profond sur le comportement
de la moyenne empirique
Le théorème central limite (ou théorème de la limite centrale) montre la moyenne empirique X suit approximativement, pour n grand, une loi normale (gaussienne) d’espérance
2
. De même, une somme de
= E(X) et de variance n = V ar(X)
n
variables i.i.d. suivra une loi normale d’espérance = nE(X)
et de variance n2 2 = n2 V ar(X).
Théorème 3 (Théorème Central Limite) Soit X une variable aléatoire d’espérance et de variance 2 et soient X1 ; :::; Xn des variables
aléatoires i.i.d. de même loi que la variable X. Soit en…n Zvune variable
aléatoire gaussienne N (0; 1).
On a alors
n
X
i=1
Xi
p
n
n
n
X
(Xi
= i=1 p
)
n
! Z
n!+1
C’est-à-dire
X
p
= n
! Z
n!+1
15
N (0 ; 1 ):
N (0 ; 1 ):
Cette convergence a lieu "en loi" ou "en distribution", c’est-à-dire
que la fonction de répartition de X=pn converge cers celle d’une loi normale N (0; 1) en tout point de continuité de ces deux fonctions.
La force du théorème central limite est sa généralité.
Cela veut dire que quelque soit la loi de départ, s’il y a su¤isamment d’observations, la moyenne et la somme d’un échantillon i.i.d. va se comporter comme une loi normale.
De ce constat, l’on va tirer de grandes lois pour la modélisation en statistique. Par exemple, si les erreurs de mesure proviennt de nombreuses
sources di¤érentes mais de nature identique, l’on peut raisonnablement
considérer que l’erreur moyenne résultante sera distribuée selon une loi
normale.
Exemple : Convergence de la moyenne de variables uniformes vers
la loi normale.
16
Téléchargement