- 3 -
Proposition 4. Soient X un vecteur gaussien à valeurs dans Rn, m sa moyenne et
KX sa matrice de covariance, A une matrice p
n (p lignes et n colonnes) et z un
vecteur de Rp. On pose Y = AX+z. Alors Y est un vecteur gaussien et
E(Y) = z+Am, KY = A KX A*,
KY désignant la matrice de covariance de Y.
Proposition 5. Soient m un vecteur de Rn , K une matrice carrée symétrique
positive d'ordre n, A une "racine carrée positive" de K, c'est-à-dire une matrice
carrée
telle que K = AA* et Y1,Y2,...,Yn n v.a.r., indépendantes de loi gaussienne réduite et
centrée. Alors X = m+AY est un vecteur gaussien d'espérance m et de matrice de
covariance K.
Remarque. Quant à la simulation des v.a. gausiennes, on peut procéder ainsi:
1) Soit R une v.a. de densit\é
. Par exemple R =
convient, où
U désigne une v.a. de loi uniforme sur [0,1].
2°) Soit U' une seconde v.a. de loi uniforme sur [0,1], indépendante de U.
Alors
et
sont deux v.a. gaussiennes réduites,
centrées et indépendantes.
Proposition 6.Soit X un vecteur gaussien, X*= (X1,...,Xn). Alors les v.a. X1,X2,...,Xn
sont indépendantes si et seulement si la matrice de covariance K de X est diagonale.
V.3. Convergence vers la loi normale
On rappelle le théorème de la limite centrale :
Théorème 7 Soit (Xn ; n ≥ 1) une suite de v.a. à valeurs dans Rk, indépendantes et
de même loi. On suppose que ces v.a. admettent un moment d'ordre 2. On note m leur
espérance commune et K la covariance de Xi . Alors
converge
en loi, lorsque n tend vers l'infini vers une v.a. de loi nk(0,K).