Vecteur aléatoire et indépendance Chapitre 6 6.1 Vecteur aléatoire (Ω,

Chapitre 6
Vecteur aléatoire et indépendance
Soit (Ω,A,P)un espace probabilisé.
6.1 Vecteur aléatoire
Définition 6.1.1. On dit que X= (X1, . . . , Xd) : Ω Rdest un vecteur aléatoire si Xest
une application A−B(Rd)-mesurable. Dans ce cas, la fonction
PX:B(Rd)[0,1]
B7→ P(X1(B)) = P(XB)
définit une mesure de probabilité sur (Rd,B(Rd)) et est appelée loi du vecteur aléatoire
X.
La démonstration du fait que PXest bien une probabilité est la même que celle concer-
nant les variables aléatoires réelles.
Les fonctions de projection πi:RdR,x= (x1, . . . , xd)7→ xisont continues, donc
B(Rd)− B(R)-mesurables. On en déduit que si X= (X1, . . . , Xd)est un vecteur aléatoire,
alors pour tout i= 1, . . . , d,Xi=πiXest une variable aléatoire réelle.
Définition 6.1.2. Soit X= (X1, . . . , Xd)un vecteur aléatoire. On appelle i-éme loi margi-
nale de Xla loi de Xi, c’est-à-dire la loi PXi. On a, pour tout B∈ B(R),
PXi(B) = PX(Ri1×B×Rdi).
Exemple 6.1.3. Soit X= (X1, X2)un vecteur aléatoire de loi PX=1
4(δ(0,0) +δ(0,1) +δ(1,0) +
δ(1,1)). Alors les lois marginales de Xsont PX1=1
2(δ0+δ1)et PX2=1
2(δ0+δ1). Notons que
le vecteur aléatoire Yde loi PY=1
2(δ(0,0) +δ(1,1))a les mêmes lois marginales que X, mais
PY6=PX.
L’exemple précédent montre que la connaissance des lois marginales d’un vecteur aléa-
toire ne permet pas, en général, de reconstruire la loi de ce vecteur.
On rappelle que la mesure de Lebesgue sur Rdest la mesure produit λd=λ⊗ ··· ⊗ λ
(dfois), où λest la mesure de Lebesgue sur R. Pour un ensemble produit de la forme
B1× ··· × Bd∈ B(Rd), on a
λd(B1× ··· × Bd) = λ(B1)···λ(Bd).
Définition 6.1.4. Une fonction f:RdRest une densité de probabilité sur Rdsi
CHAPITRE 6. VECTEUR ALÉATOIRE ET INDÉPENDANCE
1. fest positive,
2. fest intégrable par rapport à la mesure de Lebesgue sur Rd,
3. ZRd
f(x1, . . . , xd)d(x1, . . . , xd)=1.
Xest un vecteur aléatoire à densité s’il existe une densité de probabilité ftelle que pour
tout B∈ B(Rd),
PX(B) = ZB
f(x1, . . . , xd)d(x1, . . . , xd).
Notons que, comme dans le cas des variables aléatoires réelles, il suffit de vérifier la
dernière égalité pour les ensembles du type B=] − ∞, t1]× ···×]− ∞, td].
Proposition 6.1.5. Soit X= (X1, . . . , Xd)un vecteur aléatoire de densité f. Les lois mar-
ginales de Xsont des lois à densité et pour tout i= 1, . . . , d, la densité de PXiest donnée
par
fi(x) = ZRi1×Rdi
f(x1, . . . , xi1, x, xi+1, . . . , xd)d1(x1, . . . , xi1, xi+1, . . . , xd)
Démonstration. Pour tout i= 1, . . . , d et B∈ B(R), par le théorème de Fubini,
PXi(B)
=PX(Ri1×B×Rdi)
=ZRi1×B×Rdi
f(x1, . . . , xd)d(x1, . . . , xd)
=ZBZRi1×Rdi
f(x1, . . . , xi1, x, xi+1, . . . , xd)d1(x1, . . . , xi1, xi+1, . . . , xd)(x).
La fonction entre parenthèses est donc nécessairement une densité de probabilité de la loi
PXi.
Exemple 6.1.6. 1) Soit (X1, X2)un vecteur aléatoire de loi uniforme sur [0,1]2, c’est-à-dire
de densité 1[0,1]2. Les lois marginales sont toutes les deux des lois uniformes sur [0,1].
2) Soit (X1, X2)un vecteur aléatoire de loi uniforme sur le disque unité D(0,1) =
{(x, y)R2|x2+y21}, c’est-à-dire de densité 1
π1D(0,1). Les lois marginales sont toutes
les deux de densité f(x) = 2
π1x21[1,1](x).
Si (X1, . . . , Xd)est un vecteur aléatoire et g:RdRune fonction mesurable, g(X1, . . . , Xd)
est une variable aléatoire réelle et si cette variable est intégrable, on peut calculer son es-
pérance :
E(g(X1, . . . , Xd)) = Z
g(X1, . . . , Xd)dP.
Le théorème de transfert (théorème 5.1.4) se généralise aux vecteurs aléatoires (même
démonstration !) et on a donc
E(g(X1, . . . , Xd)) = ZRd
g(x1, . . . , xd)dP(X1,...,Xd)(x1, . . . , xd).
Proposition 6.1.7 (Changement de variable).Soit X= (X1, . . . , Xd)un vecteur aléatoire
à valeurs dans un ouvert Dde Rdet de densité fX. Soit φ:DEun C1-difféomorphisme
6.2. INDÉPENDANCE
de Ddans un ouvert Ede Rdet U= (U1, . . . , Ud) = φ(X1, . . . , Xd). Alors Uest un vecteur
aléatoire de densité donnée par
fU(u1, . . . , ud) = |det Jφ1(u1, . . . , ud)|fX(φ1(u1, . . . , ud)),
où la matrice jacobienne est définie par Jφ1(u1, . . . , ud) = φ1
i
uj
(u1, . . . , ud)1i,jd
, avec
la notation φ1= (φ1
1, . . . , φ1
d).
Démonstration. Pour tout borélien BE, par le changement de variable (u1, . . . , ud) =
φ(x1, . . . , xd)(voir cours d’intégration),
E(UB) = P(φ(X)B)
=ZD
1Bφ(x1, . . . , xd)fX(x1, . . . , xd)d(x1, . . . , xd)
=ZE
1B(u1, . . . , ud)fX(φ1(u1, . . . , ud))|det Jφ1(u1, . . . , ud)|d(u1, . . . , ud).
Une densité de Uest donc (u1, . . . , ud)7→ fX(φ1(u1, . . . , ud))|det Jφ1(u1, . . . , ud)|.
Remarque 6.1.8. Nous n’avions pas fait mention de ce résultat pour les variables aléa-
toires réelles, mais bien sûr il s’applique aussi en dimension 1. Dans ce cas, φétant une
fonction d’un ouvert de Rdans un ouvert de Rle Jacobien devient simplement |(φ1)0(u)|.
Exemple 6.1.9. Soit (X, Y )un vecteur aléatoire de loi uniforme sur [0,1]2. On s’intéresse à
la loi de U=XY . Pour cela on introduit le vecteur (U, V )=(XY, Y ) = φ(X, Y )φ:]0,1[2
est un C1-difféomorphisme de l’ouvert ]0,1[2dans l’ouvert ∆ = {(u, v)]0,1[2|u<v}. On
aφ1(u, v) = (u
v, v)et donc |det Jφ1(u, v)|=|1
v|. On en déduit que
f(U,V )(u, v) = 1]0,1[2u
v, v
1
v
=1
v1(u, v).
On trouve une densité de Ucomme marginale :
fU(u) = ZR
f(U,V )(u, v)(v) = Z1
u
1
v1]0,1[(u)dv =ln(u)1]0,1[(u).
6.2 Indépendance
On rappelle que des variables aléatoires réelles X1, . . . , Xnsont dites indépendantes si
pour tout B1, . . . , Bn∈ B(R),
P(X1B1, . . . , XnBn) = P(X1B1)···P(XnBn),
c’est-à-dire si les tribus σ(X1), . . . , σ(Xn)sont indépendantes. On obtient immédiatement la
définition équivalente suivante.
Proposition 6.2.1. Les variables aléatoires réelles X1, . . . , Xdsont indépendantes si et
seulement si la loi du vecteur aléatoire X= (X1, . . . , Xd)est la loi produit de ses lois
marginales, i.e.
PX=PX1⊗ ··· ⊗ PXd.
On voit donc que dans le cas d’indépendance de ses composantes, les lois marginales
permettent de reconstruire la loi du vecteur.
CHAPITRE 6. VECTEUR ALÉATOIRE ET INDÉPENDANCE
Proposition 6.2.2 (vecteurs discrets).Soit X= (X1, . . . , Xd)un vecteur aléatoire discret.
Alors les variables X1, . . . , Xdsont indépendantes si et seulement si pour tout (k1, . . . , kd)
atome pour X,
P(X1=k1, . . . , Xd=kd) = P(X1=k1)···P(Xd=kd).
Démonstration. Exprimer la loi PXet les lois PXicomme sommes de mesures de Dirac et
remarquer que δ(k1,...,kd)=δk1⊗ ··· ⊗ δkd.
Notation : si f, g :RR, on note fg:R2R,(x, y)7→ f(x)g(y).
Proposition 6.2.3 (vecteurs à densité).1. Si X1, . . . , Xdsont des variables aléatoires
indépendantes de densités respectives f1, . . . , fdalors le vecteur aléatoire X= (X1, . . . , Xd)
admet pour densité la fonction f=f1⊗ ··· ⊗ fd.
2. Si le vecteur aléatoire X= (X1, . . . , Xd)a pour densité une fonction fet s’il existe
des densités de probabilité f1, . . . , fdde Rdans Rtelles que f=f1···fd, alors les
variables X1, . . . , Xdsont indépendantes et pour tout i= 1, . . . , d, la loi de Xia pour
densité fi.
Démonstration.
1. Par indépendance, puis par le théorème de Fubini, pour tout B1× ··· × Bd∈ B(Rd),
PX(B1× ··· × Bd) = P(X1B1)···P(XdBd)
=ZB1
f1(x1)(x1)···ZBd
fd(xd)(xd)
=ZB1×···×Bd
f1(x1)···fd(xd)d(x1...,xd)
et donc Xa pour densité f1⊗ ··· ⊗ fd.
2. La forme de fet la proposition 6.1.5 montre que pour tout i= 1, . . . , d,dPXi=fi.
De plus, par le théorème de Fubini, pour tout B1, . . . , Bd∈ B(R),
P(XB1× ··· × Bd) = ZB1×···×Bd
f1(x1)···fd(xd)d(x1...,xd)
=ZB1
f1(x1)(x1)···ZBd
fd(xd)(xd)
=P(X1B1)···P(XdBd).
Ce qui prouve l’indépendance de X1, . . . , Xd.
Exemple 6.2.4. 1) Soit (X, Y )un vecteur aléatoire de densité f(x, y) = e2y1[1,1](x)1R+(y),
alors Xet Ysont indépendantes, Xa pour densité fX(x) = 1
21[1,1](x)et Ya pour densité
fY(y)=2e2y1R+(y). Autrement dit, Xet Ysont deux variables indépendantes de lois
respectives U([1,1]) et E(2).
2) Soit Xet Ydeux variables aléatoires indépendantes de loi N(0,1). On pose U=X+Y
et V=XY. Par indépendance, le couple (X, Y )a pour densité f(X,Y )(x, y) = 1
2πex2+y2
2.
La fonction
φ:R2R2
(x, y)7→ (u, v) = (x+y, x y)
6.3. INDÉPENDANCE, ESPÉRANCE ET COVARIANCE
est clairement un C1-difféomorphisme et φ1(u, v)=(u+v
2,uv
2). Le calcul du Jacobien
donne det Jφ1(u, v) = 1
2et on en déduit une densité de (U, V ),
f(U,V )=f(X,Y )(φ1(u, v))|det Jφ1(u, v)|=1
4πeu2+v2
4=1
4πeu2
41
4πev2
4.
La forme de cette densité montre que Uet Vsont deux variables aléatoires indépendantes,
toutes deux de loi N(0,2).
3) Soit Xet Ydeux variables aléatoires indépendantes de loi N(0,1). On passe en
coordonnées polaires en posant R=X2+Y2et Θ = arg(X+iY )et l’on s’intéresse à la loi
de (R, Θ). Encore une fois, par indépendance, le couple (X, Y )a pour densité f(X,Y )(x, y) =
1
2πex2+y2
2. La fonction
φ:R2\(R+× {0})R
+×]0,2π[
(x, y)7→ (r, θ)=(px2+y2,arg(x+iy))
est un C1-difféomorphisme et φ1(r, θ)=(rcos(θ), r sin(θ)). On en déduit que |det Jφ1(r, θ)|=
ret par suite que
f(R,Θ)(r, θ) = 1
2πre(rcos(θ))2+(rsin(θ))2
21R+×[0,2π](r, θ) = rer2
21R+(r)1
2π1[0,2π](θ)
est une densité de (R, Θ). La forme de la densité montre que Ret Θsont indépendantes, Θ
suit une loi uniforme sur [0,2π](de densité fΘ(θ) = 1
2π1[0,2π](θ)) et Rsuit une loi de densité
fR(r) = rer2
21R+(r). Notons que l’on obtient facilement (en utilisant soit un changement
de variable en dimension 1, soit le calcul de la fonction de répartition) que R2suit une loi
exponentielle de paramètre 1
2.
6.3 Indépendance, espérance et covariance
Si (X, Y )est un vecteur aléatoire et g:R2Rune fonction mesurable. On rappelle
qu’en vertu du théorème de transfert,
E(g(X, Y )) = ZR2
g(x, y)dP(X,Y )(x, y).
En utilisant le fait qu’en cas d’indépendance, la loi P(X,Y )est une mesure produit, on obtient
la proposition suivante.
Proposition 6.3.1. Soit Xet Ydeux variables aléatoires intégrables. Si Xet Ysont in-
dépendantes alors XY est intégrable et E(XY ) = E(X)E(Y). Attention, la réciproque est
fausse.
Démonstration. On suppose Xet Yindépendantes. On a alors P(X,Y )=PXPYet par le
théorème de Fubini (pour des fonctions positives)
Z|XY |dP=ZR2|xy|d(PXPY)(x, y) = ZR|x|dPX(x)ZR|y|dPY(y) = E(|X|)E(|Y|)<+.
On en déduit que XY est intégrable et, encore par Fubini,
E(XY ) = ZR2
xy d(PXPY)(x, y) = ZR
x dPX(x)ZR
y dPY(y) = E(X)E(Y).
Contre-exemple pour la réciproque : Soit Xune variable aléatoire de loi PX=1
3(δ1+δ0+δ1)
et Y=X2. Alors, on a E(X)=0et E(XY ) = E(X3)=0, d’où E(XY ) = E(X)E(Y). En
revanche, P(X= 0, Y = 1) = 0 6=P(X= 0)P(Y= 1) = 1
3·2
3et donc Xet Yne sont pas
indépendantes.
1 / 6 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !