MAT4081 Chapitre 1
Vecteurs aléatoires et loi normale multidimensionnelle
1.1 Moments d'un vecteur aléatoire
Une matrice aléatoire est une matrice dont toutes les composantes sont des variables aléatoires.
Soit
Y =
une matrice aléatoire.
Définition. L'espérance M = E(Y) d'une matrice aléatoire Y est la matrice des espérances :
E(Y) = = =
On a également les propriétés suivantes :
Théorème 1.1.1 Espérance d'une fonction linéaire et de la trace d'une matrice
Si Y est une matrice aléatoire et A une matrice constante, alors
E(AY) = AE(Y).
et (si Y est carrée)
E[tr(Y))] = tr[E(Y)]
On s'attardera surtout sur le cas particulier d'un vecteur aléatoire
y =
1
n
y
y





L'espérance µ = E(y) d'un vecteur aléatoire y est le vecteur des espérances :
E(y) = =
1
E( )
E( )
n
y
y





=
1
n





.
La matrice de covarianceΣ = Var(y) d'un vecteur aléatoire y d'espérance µ est une matrice dont les
composantes sont les variances et les covariances :
=
11
12
1
12
22
12
Var( Cov( ) Cov( )
Cov( ) Var( ) Cov( )
Cov( ) Cov( ) Var( )
) ; ;
;;
;;
nn
n
n
y y y
y y y
y y y
yy
yy
yy





11 12 1
21 22 2
12
q
q
n n nq
y y y
y y y
y y y






11 12 1
21 22 2
12
E( ) E( ) E( )
E( E( E( )
E( ) E( ) E( )
)) q
q
n n nq
y y y
y y y
y y y






11 12 1
21 22 2
12
q
q
n n nq
 
 
 






Page 1.2 MAT4081Chapitre 1 Loi normale multidimensionnelle
1er février 2012 1.2 M4081.01.Lois.H12
=
2
1 1 1 1 2 2 1 1
2
2 2 1 1 2 2 2 2
2
1 1 1 1 1 1
]
E[( ) E[( )( )] E[( )( )]
E[( )( )] E[( ) E[( )( )]
E[( )( )] E[( )( )] E[( )
]
]
nn
nn
n n n n
y y y y y
y y y y y
y y y y y
         
         
         





En termes matriciels,
Var(y) = = E[(y-)(y-)’]
On désigne par ij la covariance Cov(yi ; yj) et par ii =
2
i
la variance Var(yi). La matrice s'écrit
donc
=
Vecteur partitionné
Soit y =
1
2



y
y
, une partition du vecteur y, μ =
1
2



une partition conforme de μ et =
11 12
21 22





une partition conforme de .
Alors
11 = Var(y1), 22 = Var(y2), 12 = Cov(y1 ; y2), 21 = (12)' = Cov(y2 , y1) = E[(y1-1)(y2-2)’].
Théorème 1.1.2. Espérance et matrice de covariance d'une fonction linéaire d'un vecteur
Soit y un vecteur aléatoire n1 de moyenne µ et de matrice de covariance , L une matrice
np, M une matrice nq et a un vecteur p1. Alors
E(L'y + a) = L'µ + a, Var(L'y + a) = L'L, (1.1.1)
et
Cov(L'y, M'y) = L'M (1.1.2)
Remarque
Il est utile de noter la généralisation suivante de la propriété bien connue Var(X) = E(X2)-[E(X)]2 :
Var(y) = E(yy') - µµ' (1.1.3)
Théorème 1.1.3. Espérance d'une forme quadratique
Si A est une matrice réelle symétrique, y un vecteur aléatoire de moyenne µ et de matrice de co-
variance , alors
E(y'Ay) = tr(AΣ) + µ' (1.1.4)
1.2 La fonction de densité normale multidimensionnelle
Un vecteur aléatoire y' = [y1, ... , yn ] suit une loi normale de dimension n si sa fonction de densité est
donnée par:
f(y1 , … , yn) =
1
1/2
1/2
( )( ) ( )
/2
1
(2 ) | |
ne
 
yy 
MAT4081Chapitre 1 Loi normale multidimensionnelle Page 1.3
M4081.01.Lois.H12 1.3 1er février 2012
Le vecteur aléatoire y est alors de moyenne µ et de matrice de covariance Σ, et on écrit y ~ n(µ ; Σ).
Lorsque n = 1, on obtient la loi normale usuelle,
f(x) =
22 2/)(
2
1
x
e
, - < x <
On a E(y) =
()xf x dx

= µ et Var(y) = (x-µ)2f(x)dx = E(y - µ)2 = 2.
Remarque. Cette définition suppose que la matrice de covariance est non-singulière (auquel cas on dit
que la distribution est non singulière). La normalité multidimensionnelle peut cependant se définir
sans cette restriction, et les conclusions des théorèmes qui suivent s'appliquent même lorsque || = 0.
Dans ce cours nous allons nous restreindre aux lois normales non-singulières.
Distribution d'une fonction linéaire d'un vecteur normal
Une fonction linéaire d'un vecteur normal est normale. Plus précisément,
Théorème 1.2.1. Distribution d'une fonction linéaire d'un vecteur normal
Soit y ~ n(µ ; Σ) et L une matrice nq. Soit z = L'y. Alors
z ~ q(L'µ ; L'ΣL).
Remarque. Si est non-singulière et L est de plein rang, alors la distribution de z est non-singulière.
Indépendance de variables normales
La covariance entre deux variables aléatoires indépendantes est nulle, mais deux variables dont la
covariance est nulle ne sont pas nécessairement indépendantes. Cependant, si X et Y suivent conjoin-
tement une loi normale, alors l'implication inverse (covariance nulle indépendance) est vraie.
Voici l'énoncé général.
Théorème 1.2.2 Soit y ~ n(µ ; ) et supposons que y , µ et sont partitionnés de façon
conformable :
y =
 
1
2
y
y
, =
2
1
=
 
11 12
21 22


(1.2.1)
Si 12 = 21 = 0, alors les vecteurs y1 et y2 sont stochastiquement indépendants1.
Théorème 1.2.3 Covariance entre deux fonctions linéaires d'un vecteur normal
Deux fonctions linéaires L1'y et L2'y d'un vecteur y ~ n(µ ; ) sont indépendantes si et
seulement si L1'L2 = 0.
Démonstration Soit L = (L1 ; L2) une matrice partitionnée qp. Nous supposerons que L est de
plein rang. Selon le théorème 1.2.4, le vecteur L'y ~(L'µ ; L'L). Mais
1 « Indépendants » dans le sens de deux variables aléatoires.
Page 1.4 MAT4081Chapitre 1 Loi normale multidimensionnelle
1er février 2012 1.4 M4081.01.Lois.H12
L' y =
 
1
'2
L
L'y
y
, et =
 
''
1 1 1 2
''
2 1 2 2
L L L L
L L L L


(1.2.2)
Le résultat découle du théorème 1.2.2
Exemple Soit y1, y2,…, yn, n variables aléatoires indépendantes de même moyenne μ et de même variance
σ2. Donc y ~(μ ; σ2I), où μ = μe. Nous allons montrer que le vecteur des différences [y1-
y
, y2-
y
,
… , yn-
y
]’ entre les observations et leur moyenne
y
est indépendant de
y
. La moyenne
y
s’écrit
comme (e/n)’y =
'
'
ey
ee
, où e est une colonne de « 1 », et le vecteur des différences est y -
y
e =
y -
''
ey
e
ee
=
'
'



Iee y
ee
. L’indépendance entre
'
'
ey
ee
et
'
'



Iee y
ee
découle alors du fait que
''
''



I
e ee
e e e e
= 0.
1.3 Lois marginales
La loi jointe de variables qui suivent chacune une loi normale univariée n'est pas nécessairement normale
multidimensionnelle. La réciproque, cependant, est vraie : si y suit une loi normale multidimensionnelle, alors
chacune de ses composantes suit une loi normale univariée. Plus généralement,
Théorème 1.3.1. Loi marginale d'un sous-vecteur d'un vecteur normal
Soit y ~ n(µ ; ) et considérons la partition (1.2.1), où y1 est de dimension n1. Alors
y1 ~
11 11
;)(
n
.
Lois conditionnelles
La loi conditionnelle d'un sous-vecteur d'une normale multidimensionnelle est aussi normale :
Théorème 1.3.2 Loi conditionnelle d'un sous-vecteur d'une normale multidimensionnelle
Soit y ~ n(µ ; ) et considérons la partition (1.2.1). Alors la distribution conditionnelle de y2
étant donné y1 est normale, et
E(y2 | y1) = 2 + 21
1
22
(y2 - 2), Var(y2 | y1) = 22 - 21
1
11
12 (1.3.2)
1.4 Transformations orthogonales
Si les composantes y1, ... , yn d'un vecteur y = (y1, ... , yn)' sont indépendantes, les composantes z1, ... ,
zm du vecteur z = L'y, fonction linéaire des yi, ne le sont généralement plus. Quelles sont les
transformations linéaires qui préservent l'indépendance ? Ce sont les transformations orthogonales.
Théorème 1.4.6 Soit y ~ n(µ ; 2In), P une matrice nm (m n) dont les colonnes sont
orthonormales: P'P = Im. Soit z = P'y. Alors z ~ m(P'µ ; 2Im).
Quelles sont les transformations qui transforment des variables dépendantes en variables
indépendantes ? Considérons un vecteur y ~ n(µ ; ). La matrice , étant symétrique réelle peut
être diagonalisée par une matrice orthogonale P: PP = D (ou = PDP') pour une certaine matrice
diagonale D dont les composantes de la diagonale sont toutes non nulles. D a donc une « racine
carrée » D1/2. On a alors une transformation qui réduit le vecteur y en un vecteur z dont les
composante sont indépendantes et de variance 1.
MAT4081Chapitre 1 Loi normale multidimensionnelle Page 1.5
M4081.01.Lois.H12 1.5 1er février 2012
Théorème 1.4.7 Transformation d'un vecteur normal en un vecteur de variables indépendantes
Si z = P'y, alors z ~ n(P'µ ; D), et donc les composantes de z sont indépendantes. Et si u =
DP'y, alors u ~ n(D-½P'µ ; In).
RÉSUMÉ
1 L’espérance d’une matrice ou d’un vecteur aléatoire Y est la matrice (le vecteur) des espérances de ses
composantes.
2 La matrice de covariance = E[(y-)(y-)’] d’un vecteur aléatoire y de moyenne est une matrice carrée
symétrique dont l’élément ij est la covariance entre la ie et la je composante de y. Les éléments de la
diagonale de sont donc les variances des composantes de y. est nécessairement semi définie positive;
elle est définie positive si et seulement si elle est non singulière. est singulière s’il existe une fonction
linéaire ay de variance nulle.
3 Soit y un vecteur aléatoire de moyenne µ et de matrice de covariance , L et M des matrices constantes.
Alors E(L'y + a) = L'µ + a, Var(L'y + a) = L'L, et Cov(L'y, M'y) = L'M. Si y est normale, L'y + a est
normale.
4 Si A est une matrice réelle symétrique, y un vecteur aléatoire de moyenne µ et de matrice de covariance ,
alors E(y'Ay) = tr(A) + µ'
5 Soit y' = [y1' ; y2'] un vecteur aléatoire normal partitionné de moyenne =
2
1
et de matrice de
covariance =
2221
1211
. Alors E(y1 | y2) = 1 + 12
1
22
(y2 - 2), Var(y1 | y2) = 11 - 12
1
22
21.
y1 et y2 sont indépendants si et seulement si 12 = 21 = 0.
6 Soit u = DP'y, où P est une matrice orthogonale et D une matrice diagonale telle que = PDP’. Alors u
~ n(DP'µ ; In).
1 / 5 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !