Page 1.4 MAT4081Chapitre 1 Loi normale multidimensionnelle
1er février 2012 1.4 M4081.01.Lois.H12
L' y =
, et =
''
1 1 1 2
''
2 1 2 2
L L L L
L L L L
(1.2.2)
Le résultat découle du théorème 1.2.2 ■
Exemple Soit y1, y2,…, yn, n variables aléatoires indépendantes de même moyenne μ et de même variance
σ2. Donc y ~(μ ; σ2I), où μ = μe. Nous allons montrer que le vecteur des différences [y1-
, y2-
,
… , yn-
]’ entre les observations et leur moyenne
est indépendant de
. La moyenne
s’écrit
comme (e/n)’y =
, où e est une colonne de « 1 », et le vecteur des différences est y -
e =
y -
=
. L’indépendance entre
et
découle alors du fait que
= 0. ■
1.3 Lois marginales
La loi jointe de variables qui suivent chacune une loi normale univariée n'est pas nécessairement normale
multidimensionnelle. La réciproque, cependant, est vraie : si y suit une loi normale multidimensionnelle, alors
chacune de ses composantes suit une loi normale univariée. Plus généralement,
Théorème 1.3.1. Loi marginale d'un sous-vecteur d'un vecteur normal
Soit y ~ n(µ ; ) et considérons la partition (1.2.1), où y1 est de dimension n1. Alors
y1 ~
.
Lois conditionnelles
La loi conditionnelle d'un sous-vecteur d'une normale multidimensionnelle est aussi normale :
Théorème 1.3.2 Loi conditionnelle d'un sous-vecteur d'une normale multidimensionnelle
Soit y ~ n(µ ; ) et considérons la partition (1.2.1). Alors la distribution conditionnelle de y2
étant donné y1 est normale, et
E(y2 | y1) = 2 + 21
(y2 - 2), Var(y2 | y1) = 22 - 21
12 (1.3.2)
1.4 Transformations orthogonales
Si les composantes y1, ... , yn d'un vecteur y = (y1, ... , yn)' sont indépendantes, les composantes z1, ... ,
zm du vecteur z = L'y, fonction linéaire des yi, ne le sont généralement plus. Quelles sont les
transformations linéaires qui préservent l'indépendance ? Ce sont les transformations orthogonales.
Théorème 1.4.6 Soit y ~ n(µ ; 2In), P une matrice nm (m n) dont les colonnes sont
orthonormales: P'P = Im. Soit z = P'y. Alors z ~ m(P'µ ; 2Im).
Quelles sont les transformations qui transforment des variables dépendantes en variables
indépendantes ? Considérons un vecteur y ~ n(µ ; ). La matrice , étant symétrique réelle peut
être diagonalisée par une matrice orthogonale P: P’P = D (ou = PDP') pour une certaine matrice
diagonale D dont les composantes de la diagonale sont toutes non nulles. D a donc une « racine
carrée » D1/2. On a alors une transformation qui réduit le vecteur y en un vecteur z dont les
composante sont indépendantes et de variance 1.