Chapitre 2
Vecteurs aléatoires gaussiens
Université d’Artois
Faculté des Sciences Jean Perrin
Probabilités (Master 1 Mathématiques-Informatique)
Daniel Li
1 Vecteurs aléatoires
Certaines notions que l’on a définies dans le chapitre précédent que pour
les variables aléatoires réelles se transposent pour les variables aléatoires vecto-
rielles.
On dispose dans Rddu produit scalaire usuel :
hx|yi=x1y1+··· +xdyd
si x= (x1, . . . , xd)et y= (y1, . . . , yd)Rd.
1.1 Fonction caractéristique
Si X: Ω Rdest une variable aléatoire, on définit sa fonction caracté-
ristique ΦX:RdCpar :
ΦX(u) = Eeihu|Xi,uRd,
hu|Xi(ω) = hu|X(ω)i,ω. Autrement dit, si X= (X1, . . . , Xd)et
u= (u1, . . . , ud):
ΦX(u) = Eei(u1X1+···+udXd)
Convention. Il est d’usage d’identifier les vecteurs de Rdà des matrices-
colonnes ; ainsi on écrira le vecteur aléatoire X= (X1, . . . , Xd)sous la forme :
X=
X1
.
.
.
Xd
et alors :
tX= (X1··· Xd)
est une matrice-ligne (noter l’absence maintenant des virgules).
1
Si u=
u1
.
.
.
ud
, le produit scalaire s’écrira, en identifiant les éléments de R
à des matrices à une ligne et une colonne, comme le produit des matrices :
hu|Xi=tX.u =tu.X .
Comme lorsque d= 1, on a :
Théorème 1.1 Deux v.a. possédant la même fonction caractéristique ont la
même loi : si Xet Ysont deux v.a. à valeurs dans Rdtelles que ΦX= ΦY,
alors PX=PY.
Preuve. Elle est la même que celle faite dans le cas d= 1, en utilisant l’unité
approchée définie par pa(y) = 1
adpy
a,a > 0, avec p(y) = p(y1, . . . , yd) =
1
πd(1+y2
1)···(1+y2
d)·
Corollaire 1.2 Soit Xk: Ω Rdk,16k6n, des v.a. ; elles sont indépen-
dantes si et seulement si :
Φ[X1,...,Xn)(t1, . . . , tn) = ΦX1(t1)···ΦXn(tn),tkRdk,16k6n.
Preuve. Le Théorème de Fubini donne :
ΦX1(t1)···ΦXn(tn) = ZRd1+···+dn
ei(t1x1+···+tnxn)dPX1⊗···PXn(x1, . . . , xn) ;
d’où le résultat, puisque le membre de droite est la f.c d’une v.a. suivant la loi
PX1⊗ ··· ⊗ PXn.
1.2 Intégration
On dira que X= (X1, . . . , Xd): Ω Rdest intégrable (resp.,de carré
intégrable,resp. de puissance r`eme intégrable : XLr(Ω; Rd)) si chacune de ses
composantes X1, . . . , Xd: Rl’est. On notera :
E(X) = E(X1), . . . , E(Xd),
ou, matriciellement :
E(X) =
E(X1)
.
.
.
E(Xd)
.
Il est facile de voir que la v.a. XLr(Ω; Rd)si et seulement si :
E(kXkr)<+.
2
Proposition 1.3 Soit A:RdRd0une application linéaire, et X: Ω Rd
un vecteur aléatoire. Alors :
E(AX) = AE(X).
Dans cette proposition, de la même manière que l’on a identifié les vecteurs
à des matrices-colonnes, on identifie l’application linéaire Aà sa matrice ; donc :
A=
α1,1··· α1,d
.
.
..
.
.
αd0
,1··· αd0
,d
.
Preuve. Il suffit de l’écrire ; on a :
AX =d
X
l=1
αk,lXl16k6d0;
donc :
E(AX) = E
d
X
l=1
αk,lXl16k6d0
=d
X
l=1
αk,lXlE(Xl)16k6d0=AE(X).
En particulier, pour tout aRd, on a :
Eha|Xi=ha|E(X)i,
ou, autrement écrit :
E(ta.X) = ta.E(X).
Définition 1.4 Si M=Xk,l16k6n
16l6s
est une matrice formée de variables aléa-
toires réelles Xk,l : Ω R, on dit que c’est une matrice aléatoire. On dit
qu’elle est intégrable si chacune des Xk,l l’est, et l’on pose :
E(M) = E(Xk,lk,l .
Proposition 1.5 Soit Mune matrice aléatoire et Aet Bdeux matrices (non
aléatoires ; on dit qu’elles sont déterministes) telles que les produits AM et
MB existent. On a :
E(AM) = AE(M)et E(MB) = E(M)B .
Preuve. Il suffit de regarder la définition du produit des matrices.
3
Définition 1.6 Si X: Ω Rdest un vecteur aléatoire de carré intégrable, on
définit sa matrice de covariance, avec les notations matricielles, par :
KX=EXE(X).tXE(X).
On notera que :
XE(X).tXE(X)=
X1E(X1)
.
.
.
XdE(Xd)
.X1E(X1)···XdE(Xd)
est une matrice carrée d’ordre d, dont les termes sont :
XkE(Xk)XlE(Xl),16k, l 6d.
Lorsque X, Y L2(Ω) sont deux v.a. réelles de carré intégrable, on définit
leur covariance par :
cov (X, Y ) = EXE(X)YE(Y)=E(XY )E(X)E(Y).
Lorsque Y=X, on obtient la variance de X.
Revenant au cas où X= (X1, . . . , Xd)est un vecteur aléatoire, on voit que
sa matrice de covariance est :
KX=cov (Xk, Xl)16k,l6d.
Proposition 1.7 La matrice de covariance est symétrique et positive. La
forme quadratique associée est non dégénérée si et seulement si, en tant qu’élé-
ments de L2(Ω,P), les vecteurs X1E(X1), . . . , XdE(Xd)sont linéairement
indépendants.
Preuve. La symétrie est évidente.
Rappelons qu’une matrice symétrique est positive si la forme bilinéaire (ou
la forme quadratique) associée est une forme positive. Il faut donc voir que, pour
tout u=
u1
.
.
.
ud
, on a :
tu KXu>0.
Mais cela résulte du lemme suivant.
Lemme 1.8 Pour tout uRd, on a :
tu KXu=E[hu|XE(X)i]2.
4
Preuve. C’est un simple calcul ; grâce à la Proposition 1.3, on a :
tu KXu=tuE[XE(X)].t[XE(X)]u=Etu.[XE(X)].t[XE(X)].u;
d’où le résultat, puisque tu.[XE(X)] = hu|XE(X)iet que t[XE(X)].u =
hXE(X)|ui=hu|XE(X)i.
Cette formule montre de plus que la forme quadratique u7→ tu KXuest
dégénérée si, et seulement si, il existe u6= 0 tel que hu|XE(X)i= 0, ce qui
signifie que l’on a, dans L2(P),u1X1E(X1)+···+udXdE(Xd)= 0 pour
des u1, . . . , udnon tous nuls ; autrement dit, que X1E(X1), . . . , XdE(Xd)
sont linéairement indépendants dans L2(P).
Remarque. Il faut bien faire attention que si des v.a.r., non constantes, sont
indépendantes, elles sont linéairement indépendantes (sinon, l’une peut s’expri-
mer comme combinaison linéaire des autres ; elle ne peut donc être indépendante
de celles-ci), l’inverse est bien sûr loin d’être vrai.
Exemple. Si Xsuit la loi uniforme sur [0,1],Xet X2, qui ne sont, bien sûr,
pas indépendantes, sont linéairement indépendantes, car si aX +bX2= 0, alors,
d’une part, en prenant l’espérance, on a a
2+b
3= 0, puisque :
E(Xk) = Z1
0
xkdx =1
k+ 1 ;
mais on a aussi, d’autre part, aX2+bX3= 0, d’où a
3+b
4; donc a=b= 0.
Notons que, par définition, la covariance de deux v.a.r. Xet Yest le produit
scalaire, dans L2(P), des v.a.r. centrées XE(X)et YE(Y):
cov (X, Y ) = hXE(X)|YE(Y)i.
La covariance est donc nulle (on dit alors que Xet Ysont non corrélées, ou
corrélées, si et seulement si les v.a.r. centrées XE(X)et YE(Y)sont
orthogonales. Lorsque Xet Ysont indépendantes, on a E(XY ) = E(X)E(Y);
donc cov (X, Y ) = 0. Ainsi :
Proposition 1.9 Si Xet Ysont deux v.a.r. indépendantes, alors cov (X, Y ) =
0, et XE(X)et YE(Y)sont orthogonales dans L2(P).
On avait déjà vu cela dans la Remarque suivant le Corollaire 14 du Cha-
pitre 1.
Corollaire 1.10 Si X1, . . . , Xd: Rsont indépendantes, la matrice de co-
variance du vecteur aléatoire X= (X1, . . . , Xd)est diagonale.
La réciproque est évidemment en général fausse, puisque le fait que la matrice
de covariance soit diagonale signifie seulement que les composantes du vecteur
aléatoire sont deux-à-deux non corrélées.
5
1 / 17 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !