CHAPITRE 6 : VECTEURS GAUSSIENS
I Variables Gaussiennes r´eelles et loi du χ2
Une variable al´eatoire r´eelle Xsuit la loi Gaussienne d’esp´erance met de variance σ2, not´ee N(m, σ2),
si elle admet la densit´e
fX:x7−1
2πσ2exp (xm)2
2σ2.
Nous utiliserons la convention que σ= 0 correspond `a δmla masse de Dirac en m(c’est-`a-dire la loi
d’une variable al´eatoire ´egale `a mpresque sˆurement).
Proposition 1. (i) Si Y∼ N(0,1) alors m+σY ∼ N(m, σ2),
kN E(Y2k+1) = 0 et E(Y2k) = 2k(2k)!/k!
(ii) Si X1∼ N(m1, σ2
1)et X2∼ N(m2, σ2
2)sont ind´ependantes, alors X1+X2∼ N(m1+m2, σ2
1+σ2
2).
D´
emonstration :
Rappelons aussi que, pour toute constante cR,cX ∼ N(cm, c2σ2), de telle sorte qu’on obtient :
Corollaire 2. Toute combinaison lin´eaire (et eme affine) de Gaussiennes ind´ependantes est une
Gaussienne.
Introduisons maintenant la loi du χ2(prononc´e Khi-2”) :
D´efinition 3. La loi du χ2`a kNdegr´es de libert´e est la loi d’une variable al´eatoire Yqui s’´ecrit
Y=X2
1+···+X2
k, o`u X1,...,Xksont des variables al´eatoires ind´ependantes et de mˆeme loi N(0,1).
Nous la notons χ2(k). Sa densit´e est
fk:x7−1
2k/2Γ(k/2) x1+k/2ex/2x>0.
Proposition 4. Si Ysuit la loi χ2(k)alors E(Y) = ket Var(Y) = 2k.
II Vecteurs Gaussiens
Comme nous allons le constater, les vecteurs Gaussiens constituent la g´en´eralisation naturelle en n
dimensions des variables Gaussiennes uni-dimensionnelles. La convention prise pour σ= 0 va s’av´erer
bien pratique, permettant d´eviter d’avoir `a ´evoquer les cas particuliers. Nous commen¸cons par donner
une d´efinition assez formelle, mais nous verrons ensuite des mani`eres plus naturelles de les voir.
Avant cela, rappelons quelques d´efinitions et notations :
Si Aest une matrice de taille n×palors sa transpos´ee t
Aest la matrice de taille p×ntelle que
(t
A)i,j =Aj,i pour tous i∈ {1,...,p}et j∈ {1,...,n}.Dans ce chapitre, nous noterons en
colonne les vecteurs de Rn.
1
Pour n1, nous notons ,·i le produit scalaire usuel sur Rnefini par
x=t
(x1,...,xn)Rny=t
(y1,...,yn)Rnhx, yi=t
yx =
n
X
i=1
xiyi
La norme euclidienne de xRnest d´efinie par kxk=phx, xi.
Une matrice carr´ee Mde taille nest dite sym´etrique si t
M=M. Elle est dite positive si hMx, xi ≥ 0
pour tout xRn. Elle est dite d´efinie positive si hMx, xi>0pour tout xRn\{0}.
1) efinitions et propri´et´es
D´efinition 5. Une variable al´eatoire X=t
(X1,...,Xn)dans Rnest un vecteur Gaussien, si pour
tout a=t
(a1,...,an)Rn, la variable al´eatoire eelle ha, Xi=a1X1+. . . anXnest Gaussienne.
Le corollaire pr´ec´edent montre que si l’on consid`ere des variables al´eatoires Xi∼ N(mi, σ2
i) ind´epen-
dantes, alors X=t
(X1,...,Xn) est un vecteur Gaussien.
Remarque :
D´efinition 6. Soit X=t
(X1,...,Xn)un vecteur Gaussien. Son esp´erance est le vecteur
m=E(X) = t
(E(X1),...,E(Xn)) Rn
et sa matrice de covariance est Γ = (Cov(Xi, Xj))1i,jnefinie par
(i, j)∈ {1,...,n}2Cov(Xi, Xj) = E([XiE(Xi)][XjE(Xj)]) = E(XiXj)E(Xi)E(Xj)
Proposition 7. Pour tout uRn,hΓu, ui=Var(hu, Xi). Par cons´equent la matrice Γest sym´etrique
positive.
D´
emonstration :
Le fait que Γ soit sym´etrique positive permet de lui associer une unique racine carr´ee, c’est-`a-dire
une matrice Asym´etrique positive telle que A2= Γ. C’est un r´esultat classique qui d´ecoule de la
diagonalisation des matrices sym´etriques.
Rappelons que la transform´ee de Fourier d’un vecteur al´eatoire Xdans Rncaract´erise la loi de X. Il
s’agit de la fonction
φX:u7−E(ei<u,X>) = Eei(u1X1+...+unXn)
Proposition 8. Si Xest un vecteur Gaussien d’esp´erance met de matrice de covariance Γ, sa
transform´ee de Fourier est
φX:u7−exp ihu, mi − 1
2hΓu, ui
D´
emonstration :
2
Corollaire 9. Un vecteur Gaussien Xest caract´eris´e par son esp´erance met sa matrice de cova-
riance Γsym´etrique positive.
D´efinition 10. Nous notons Nn(m, Γ) la loi d’un vecteur Gaussien X=t
(X1,...,Xn)d’esp´erance
met sa matrice de covariance Γ. Si m= 0 et Γ = In, on dit que Xest un vecteur Gaussien centr´e
r´eduit.
2) Caract´erisation de l’ind´ependance
Si X1,...,Xnsont des variables al´eatoires r´eelles Gaussiennes ind´ependantes alors Xest Gaussien et
i6=jCov(Xi, Xj) = 0.
Ainsi Γ est une matrice diagonale. La r´eciproque est vraie :
Proposition 11. Soient X1,...,Xndes variables al´eatoires eelles Gaussiennes. Alors les Xisont
ind´ependantes si et seulement si le vecteur X=t
(X1,...,Xn)est Gaussien de matrice de covariance
diagonale.
D´
emonstration : utilise la transform´ee de Fourier.
3) Existence de vecteurs Gaussiens
Notons Mp,n(R) l’ensemble des matrices de taille p×n`a coefficients r´eels.
Proposition 12. Soient X∼ Nn(m, Γ) et Y=AX +b, avec A∈ Mp,n(R)et bRp. Alors
Y∼ Np(Am +b, AΓt
A).
D´
emonstration :
Th´eor`eme 13. Si mRnet Γest une matrice sym´etrique positive alors il existe un vecteur Gaussien
Xd’esp´erance met de matrice de covariance Γ.
D´
emonstration :
4) Densit´e d’un vecteur Gaussien
Proposition 14. La loi Nn(m, Γ) admet une densit´e si et seulement si Γest inversible (c’est-`a-dire
sym´etrique d´efinie positive). Dans ce cas, sa densit´e (par rapport `a dx1. . . dxn) est
(x1,...,xn)7−1
p(2π)ndetΓ exp 1
2hΓ1(xm), x mi
D´
emonstration : Admis (utilise le changement de variable en dimension sup´erieure).
3
5) Th´eor`eme Central Limite Vectoriel
Th´eor`eme 15. Soient X1,...,Xndes vecteurs al´eatoires ind´ependants et de mˆeme loi dans Rdtels que
E(X2
1(j)) <+pour tout j∈ {1,...,n}. Notons ml’esp´erance de X1et Γsa matrice de covariance.
Alors nX1+...+Xn
nmL
n+Nd(0,Γ)
D´
emonstration : voir TD.
III Th´eor`eme de Cochran et mod`eles Gaussiens
1) Rappel : projection orthogonale sur un sous-espace vectoriel
Soit Eun R-espace vectoriel de dimension finie n, muni d’un produit scalaire (on parle d’espace Eu-
clidien). On peut par exemple prendre E=Rnet le produit scalaire d´efini au ebut du paragraphe II.
D´efinition 16. Deux vecteurs xet yde Esont dits orthogonaux si hx, yi= 0.
Deux parties Aet Bde Esont dites orthogonales si hx, yi= 0 pour tout (x, y)A×B.
Si Aest une partie de Ealors son orthogonal est le sous-espace vectoriel
A={xE:yAhx, yi= 0}
Une base orthonorm´ee (BON) de Eest une base (ei)1intelle que keik= 1 pour tout i, et hei, eji= 0
pour i6=j
Notons qu’une telle base existe toujours dans un espace Euclidien.
D´efinition 17. Si il existe p∈ {2,...,n}et E1,...Epdes sous-espaces vectoriels de Edeux `a deux
orthogonaux tels que pour tout xEs’´ecrit de mani`ere unique
x=x1+···+xpavec (x1,...,xp)E1× ··· × Ep
alors on dit que Eest somme directe orthogonale de E1,...Epet on note E=E1
···
Ep. De plus,
pour tout i∈ {1,...,p}, l’application ΠEi:xE7−xiest appel´ee projection orthogonale sur Ei.
Notons que, dans ce cas, on peut former une BON de Een r´eunissant des BON des Eiet
i∈ {1,...,p}E
i=E1
⊕ ···Ei1
Ei+1
⊕ ···
Ep
Proposition 18. Si Fest un sous-espace vectoriel de E, l’orthogonal de Fest un sous-espace vectoriel
de dimension ndimFet E=FF. Mentionnons aussi que (F)=F.
2) Th´eor`eme de Cochran
Th´eor`eme 19 (Cochran).Soit X∼ Nn(0, σ2In)(c’est-`a-dire X1,...,Xnest un n-´echantillon de loi
N(0, σ2)). Supposons que Rnest muni de sa base canonique et que
Rn=E1
⊕ ···
Ep
Alors les projections ΠE1X, . . . , ΠEpXde Xsont des vecteurs Gaussiens ind´ependants de lois respec-
tives Nn(0, σ2ΠE1),...,Nn(0, σ2ΠEp). En particulier
i∈ {1,...,p}1
σ2kΠEiXk2χ2(dimEi)
4
D´
emonstration :
3) Intervalles de confiance et tests pour les param`etres d’une loi N(m, σ2)
Introduisons la loi de Student (dont nous avons `a disposition la table de loi) :
D´efinition 20. La loi de Student `a ndegr´es de libert´e est la loi d’une variable al´eatoire r´eelle qui
s’´ecrit nX/Yavec X∼ N(0,1) et Yχ2(n)ind´ependants. On la note T(n). Sa densit´e est
xR7−cn1 + x2
n(n+1)/2
o`u cnest une constante de renormalisation.
Les vecteurs Gaussiens sont souvent utilis´es dans les mod`eles statistiques multi-dimensionnels car ils
s’av`erent assez faciles `a manipuler, notamment grˆace au th´eor`eme de Cochran.
Consid´erons par exemple un n-´echantillon X1,...,Xnde loi N(m, σ2). L’estimateur du maximum de
vraisemblance de (m, σ2) est (Xn, V n) avec
Xn=1
n
n
X
i=1
Xiet Vn=1
n
n
X
i=1
(XiXn)2
Consid´erons plutˆot l’estimateur sans biais
bσ2
n=1
n1
n
X
i=1
(XiXn)2
Rappelons que le lemme de Slutsky entraˆıne que
nXnm
pbσ2
n
L
n+N(0,1)
Cela nous a permis de construire des intervalles de confiance asymptotiques. La proposition suivante
va nous permettre de construire, dans le cas Gaussien, des intervalles de confiance (non asymptotiques)
et des tests `a partir de la loi de Student.
Proposition 21. Dans le cas Gaussien que nous venons de d´ecrire, Xnet bσ2
nsont ind´ependantes et
Xn∼ Nm, σ2
net n1
σ2bσ2
nχ2(n1)
D´
emonstration :
5
1 / 5 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !