N(0, σ2Id)) est invariante par les rotations de centre O(et par les symétries orthogonales d’axe passant par
l’origine). Cette propriété se voit aussi sur la densité de la loi : elle est radiale.
Si Z∼ N(0, Id), on sait que Za pour densité z7→ 1
√2πe−z2
1··· 1
√2πe−z2
d= (2π)−d/2e−1
2kzk2puisque les compo-
santes sont indépendantes. Pour le vecteur gaussien X=m+AZ ∼ N(m, Γ) (où Γ = At
A), la proposition 1
montre que si Γn’est pas inversible, Xne peut pas avoir de densité. En revanche, si Γest inversible, un
changement de variable montre que Xa pour densité
fX:x7→ 1
p(2π)ddet Γe−1
2
t
(x−m)Γ−1(x−m).
Si Γest diagonale, alors les composantes X1, . . . , Xdd’un vecteur X∼ N(m, Γ) sont indépendantes. Cela
se voit sur la densité ci-dessus. Ou simplement parce que dans ce cas on peut prendre A= diag(σ1, . . . , σd)
d’où Xi=mi+σiZi. La réciproque est toujours vraie. Ainsi, les composantes d’un vecteur gaussien sont
indépendantes si, et seulement si sa matrice de covariance est diagonale. Le théorème de Cochran généralise
cette remarque.
Théorème 1 – Théorème de Cochran.Soit X∼ N(m, σ2Id), et Rd=E1⊥
⊕. . . ⊥
⊕Erune décomposition de
Rden sous-espaces (affines) orthogonaux. Pour k= 1, . . . , r, on note dkla dimension de Ek, et Pkla projection
orthogonale sur Ek. Alors les variables aléatoires Y1=P1X1,. . . ,Yr=PrXsont indépendantes, et
Yk∼ N(Pkm, σ2Pk)et 1
σ2kYk−Pkmk2∼χ2
dk.
Dans l’énoncé, χ2
dest la loi du χ2(khi-deux) à ddegrés de liberté, c’est-à-dire par définition la loi de la variable
aléatoire Z2
1+··· +Z2
roù Z1, . . . , Zrsont i.i.d. de loi N(0,1).
Démonstration. Il suffit de montrer l’indépendance. La suite en résulte (avec ce qui précède, et le fait que
Pt
P=P2=Ppour toute projection orthogonale P).
Pour k= 1, . . . , r, on choisit une base orthonormale (ek,1, . . . , ek,dk)de Ek, de sorte que (e1, . . . , ed) =
(e1,1, . . . , e1,d1, . . . , er,1, . . . , er,dr)est une base orthonormale de Rd. Les variables aléatoires hX, eii,i= 1, . . . , d,
sont les composantes de Xdans cette base. Or la loi de Xest invariante par les applications orthogonales (vu
plus haut) donc en particulier par les changements de base entre bases orthonormales. Par suite, les variables
aléatoires hX, eii,i= 1, . . . , d, sont i.i.d. de loi N(hm, eii, σ2).
Comme Yk=PkX=Ak+hX, ek,1iek,1+··· +hX, ek,dkiek,dk, où Ak=Pk0, l’indépendance annoncée résulte
de la propriété d’« indépendance par paquets » : Y1,. . . ,Yrdépendent respectivement de paquets de variables
disjoints parmi une famille de variables indépendantes, donc sont indépendantes entre elles.
Remarque. On n’a donné qu’un cas particulier du théorème de Cochran, qui est le cas usuel. L’énoncé général
(dont la preuve est essentiellement identique) suppose X∼ N (m, Γ) où Γest inversible et Rd=E1
⊥
⊕ · · · ⊥
⊕Erau
sens du produit scalaire (u, v)7→ hu, viΓ=t
uΓv, et conclut que les projections orthogonales (au sens de ce même
produit scalaire) de Xsur E1,. . . ,Ersont indépendantes. Les variables kYk−Pkmk2ne suivent cependant pas des
lois du χ2(ce sont des sommes de variables N(0,1) pondérées par les valeurs propres des différents sous-espaces), et
la variance de Ykest PkΓt
Pk.
Enfin, les lois gaussiennes sur Rdinterviennent dans la généralisation du théorème central limite aux variables
aléatoires à valeurs dans Rd:
Théorème 2 – Théorème central limite multidimensionnel.Soit X1, X2, . . . une suite de vecteurs aléa-
toires à valeurs dans Rd, i.i.d., de carré intégrable, de moyenne met de variance Γ. Alors
1
√n(X1+X2+··· +Xn−nm)(loi)
−→
nN(0,Γ).
Démonstration. Même preuve que la version réelle. En remplaçant Xipar Xi−mon se ramène à m= 0. Soit
u∈Rd. On a
Φ1
√n(X1+X2+···+Xn)(u)=ΦXu
√nn
(où ΦX= ΦX1). On a le développement limité
ΦX(t) = 1 −1
2
t
tΓt+o
t→0ktk2,
3