DESS va gaussiennes 01-02

publicité
IV VARIABLES ALÉATOIRES GAUSSIENNES
IV.1. Variables aléatoires gaussiennes à valeurs réelles
Définitions 1) Une variable aléatoire à valeurs réelles X est dite gaussienne réduite et
1
 x 2 
centrée X admet pour densité : f(x) =
exp   , x  R.
2
 2 
On note n1(0,1) cette loi.
2) Soit Y une v.a. de moyenne m = E(Y) et de variance  2 = Var Y. On suppose  >
0. Alors Y est une v.a.r. gaussienne si la v.a. Y =  Y*+m avec Y* de loi n1(0,1).
On note n1(m,  2) la loi d'une v.a. de loi gaussienne de moyenne m et de variance
2.
Proposition 1. 1) Soit X une v.a.r. gaussienne réduite et centrée.
a) Pour tout z  C,
E(exp z X) = exp z2/2 .
2
En particulier E[exp (it X)] = e-t /2 ; t  R.
b)Pour tout n  N on a :
 0(2m)!si n est impair
si n est pair
E(Xn) = 
m! 2m
 n = 2m
1
 (x  m)2 
exp 
 et
2
 2
 2 
2) Soit Y de loi n1(m,  2) , alors Y a pour densité
t2
E[exp (it Y)] = exp(itm - 2  2)
t  R,
Proposition 2. Soient Y1 et Y2 deux v.a. gaussiennes, indépendantes, Y1 de loi
n1(m1,  1 ) Y2 de loi n1(m2,  2 )
2
2
n1(m1+m2,  1   2 ).
2
2
Alors Y1+Y2 est une v.a. gaussienne de loi
Remarques 1) Le résultat peut être faux si l'on ne suppose plus Y1 et Y2
indépendantes.
2) Le résultat se généralise sans difficulté au cas de n v.a. : soient Y1,Y2,...,Yn, n
v.a.r., indépendantes, Yi de loi n1(mi,  i ) , 1 ≤ i ≤ n, alors
2
n
n
Y1+Y2+...+Yn suit n1(  mi ,   i
2
i 1
i 1
-1-
).
IV.2. Vecteurs aléatoires gaussiens
Les v.a. vectorielles seront représentées par des matrices unicolonnes.
Définition Une v.a. X à valeurs dans Rn, est dite gaussienne (on dit aussi que X est
un vecteur aléatoire gaussien) si et seulement si pour tout u Rn, u* = (u1,...,un),
n
<u , X> = u*X =
u
i Xi
est une v.a. gaussienne réelle.
i=1
Remarques 1) Il est clair que si X est un vecteur gaussien, alors chaque composante
Xi de X est une v.a.r. gaussienne.
2) L'exemple clé de vecteur gaussien est celui où X1,...,Xn sont n v.a. gaussiennes,
indépendantes.
Attention l'hypothèse d'indépendance est essentielle. Il est facile de construire un
exemple où X1 et X2 sont deux v.a.r. gaussiennes telles que (X1,X2) ne soit pas un
vecteur gaussien.
Proposition 3 Soit X un vecteur gaussien à valeurs dans Rn, de matrice de
covariance K et moyenne m.
1) X admet une densité si et seulement si K est inversible.
2) Si K est inversible, la densité de X est donnée par :
f(x) =
1
1
1
exp (- 2 (x-m) *K-1(x-m))
n/ 2
1/2
(2  ) (det K)
3) Pour tout u de
Rn,
i<u
E(exp(i <u,X>)) = eE(X)>- 1 u*Ku .
2
Remarque La proposition 3 signifie que la loi d'un vecteur gaussien X est caractérisée
par sa moyenne m et sa matrice de covariance K : si X et Y sont deux vecteurs
gaussiens, ayant même moyenne et même matrice de covariance, ils ont même loi.
Attention cette propriété concerne les vecteurs gaussiens, elle n'est pas vraie en général,
il n'y a aucune raison pour que deux v.a. à valeurs réelles qui ont même moyenne et
même variance aient même loi.
nn(m,K) désigne la loi d'un vecteur gaussien dans Rn de moyenne m et de matrice de
covariance K.
-2-
Proposition 4. Soient X un vecteur gaussien à valeurs dans Rn, m sa moyenne et
KX sa matrice de covariance, A une matrice p  n (p lignes et n colonnes) et z un
vecteur de Rp. On pose Y = AX+z. Alors Y est un vecteur gaussien et
E(Y) = z+Am,
KY = A KX A*,
KY désignant la matrice de covariance de Y.
Proposition 5. Soient m un vecteur de Rn , K une matrice carrée symétrique
positive d'ordre n, A une "racine carrée positive" de K, c'est-à-dire une matrice
carrée
telle que K = AA* et Y1,Y2,...,Yn n v.a.r., indépendantes de loi gaussienne réduite et
centrée. Alors X = m+AY est un vecteur gaussien d'espérance m et de matrice de
covariance K.
Remarque. Quant à la simulation des v.a. gausiennes, on peut procéder ainsi:
2
1) Soit R une v.a. de densit\é re r / 2 1{r  0} . Par exemple R = 2 ln U convient, où
U désigne une v.a. de loi uniforme sur [0,1].
2°) Soit U' une seconde v.a. de loi uniforme sur [0,1], indépendante de U.
Alors X1  R cos(2 U) et X2  R sin(2 U) sont deux v.a. gaussiennes réduites,
centrées et indépendantes.
Proposition 6.Soit X un vecteur gaussien, X*= (X1,...,Xn). Alors les v.a. X1,X2,...,Xn
sont indépendantes si et seulement si la matrice de covariance K de X est diagonale.
V.3. Convergence vers la loi normale
On rappelle le théorème de la limite centrale :
Théorème 7 Soit (Xn ; n ≥ 1) une suite de v.a. à valeurs dans Rk, indépendantes et
de même loi. On suppose que ces v.a. admettent un moment d'ordre 2. On note m leur
X  X 2 ...  Xn  nm
espérance commune et K la covariance de Xi . Alors 1
converge
n
en loi, lorsque n tend vers l'infini vers une v.a. de loi nk(0,K).
-3-
Remarques 1) Une suite (Yn ; n ≥ 1) de v.a. à valeurs dans Rk converge en loi vers
Y ssi fYn converge vers fY où
fYn(t) = E[exp(i <t, Yn>)], fY(t) = E(exp(i<t,Y>)), t  Rk .
2) Examinons à présent le cas unidimensionnel : k = 1. On note m = E(X1)  2 = Var
X1. Alors le théorème précédent peut s'écrire sous la forme :
X1  X 2 ...  Xn  nm
 n1(0,1), n   .
 n
Rappelons la série des quatre équivalences:
(a) La suite de v.a. (Yn ; n ≥ 1) à valeurs réelles, converge en loi vers une v.a.r. Y
(b) lim P(Yn ≤ x) = P(Y ≤ x), pour tout x réel tel que P(Y = x) = 0.
n 
(c)
lim E[f(Yn ) ] = E[f(Y)], pour tout fonction f continue et bornée.
n 
(d) lim E[ exp(itYn )) ] = E[ exp(itY)], pour tout réel t.
n 
Corollaire 8 Soit (Xn; n ≥ 1) une suite de v.a.r. de Bernoulli, indépendantes et de
X  X 2 ...  Xn  np
même loi, P(Xn = 1) = p, P(Xn = 0) = 1-p . Alors 1
converge en
np(1 p)
loi vers n1(0,1).
-4-
Téléchargement