Université Mentouri Constantine Département de Mathématique

publicité
Université Mentouri Constantine
Département de Mathématique
Ecole Doctorale de Mathématique
"Lois normales multidimentionnelles"
Dr. Meghlaoui Dakhmouche
Table des matières
1 Introduction
1.1 Loi de Gauss à une dimension .
1.1.1 Propriétés . . . . . . . .
1.1.2 Moments particuliers . .
1.1.3 Fonction caractéristique
1.1.4 Loi normale quelconque
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Lois de Gauss bidimensionnelles
2.1 Loi de Gauss bidimensionnelle centrée . . . . . . . . . . .
2.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Lois marginales des variables aléatoires X1 et X2
2.2.2 Covariance entre X1 et X2 . . . . . . . . . . . . .
2.2.3 Matrice de covariances du couple (X1 ; X2 ) . . . .
2.3 Loi gaussienne bidimensionnelle centrée et réduite . . . .
2.4 Lois gaussiennes conditionnelles . . . . . . . . . . . . . .
2.5 Lois gaussiennes bidimensionnelles quelconques . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
2
3
3
4
5
.
.
.
.
.
.
.
.
7
7
9
10
11
12
12
14
15
3 Lois de Gauss de dimension p
16
3.1 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4 Régression et prédiction dans les
4.1 Cas bidiemensionnel . . . . . .
4.1.1 Principe de régression .
4.1.2 Commentaire 1 . . . . .
4.1.3 Commentaire 2 . . . . .
4.2 Cas de dimension p . . . . . . .
espaces gaussiens
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
5 Exemple : Loi des vitesses de Maxwell
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
23
23
24
24
26
27
28
6 Exercices
6.1 Exercice1
6.2 Exercice2
6.3 Exercice3
6.4 Exercice4
6.5 Exercice5
6.6 Exercice6
6.7 Exercice7
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
30
30
30
30
31
31
31
31
Chapitre 1
Introduction
1.1
Loi de Gauss à une dimension
La loi normale ou la loi de Gauss a été précédemment introduite comme
limite de certaines lois discrètes, comme par exemple la loi Binomiale. En
physique elle intervient dans de nombreux modèles (mouvement brownien,
loi des vitesses de Maxwell, par exemple). Il a été déjà établi que la loi de
la somme d’un grand nombre de variables aléatoires indépendantes, sous des
conditions très générales, peut être approchée par la loi de Gauss, ce qui
justi…era l’introduction ou l’utilisation de cette loi en théorie des erreurs
d’observation et de mesure. Historiquement, c’est en ré‡échissant au problème des erreurs de mesure des constantes physiques (en astronomie plus
précisément) que Gauss reconnut l’importance de la loi qui porte son nom ;
les erreurs de mesure sont dues à l’addition d’un très grand nombre de petites
causes (variables aléatoires) indépendantes. Cette loi joue un rôle capital en
probabilité et en statistique.
De…nition 1 On appelle loi de Gauss (ou loi normale, loi de Laplace-Gauss)
centrée et réduite, une loi de probabilité de densité dé…nie sur R telle que :
1
f (x) = p e
2
3
x2
2
1.1.1
Propriétés
La fonction f (x) est bien une densité de probabilité. Elle est positive et
de plus :
Z +1
x2
1
p e 2 dx = 1
2
1
R +1 R +1 1 2 2
En e¤et, considérons l’intégrale double 1 1 e 2 (x +y ) dxdy. Par ailleurs,
en utilisant le changement des coordonnées cartésiennes en coordonnées polaires, on a :
Z +1 Z +1
Z 2
Z +1
1
1 2
2 +y 2
x
(
)
e 2
d
e 2 d =2
dxdy =
1
1
0
De plus, en utilisant Fubini, on a :
Z
Z +1 Z +1
1
x2 +y 2 )
(
2
e
dxdy =
1
1
En posant I =
1.1.2
R +1
1
e
1 2
x
2
+1
e
0
1 2
x
2
Z
dx
1
+1
e
1 2
y
2
dy
=2
1
dx, on aura alors I 2 = 2 . D’où le résultat :
1
p
2
Z
+1
e
x2
2
dx = 1
1
Moments particuliers
Moyenne
La loi de probabilité de Gauss est dite centrée si elle est de moyenne nulle.
Z +1
x2
x
p e 2 dx = 0
2
1
En e¤et :
Z
+1
xe
1
x2
2
dx = lim
A!1
Z
+A
xe
x2
2
dx = 0
A
car c’est l’intégrale d’une fonction impaire sur un intervalle symétrique.
4
Variance
La loi de probabilité de Gauss est dite réduite si sa variance est égale à
l’unité.
En e¤et
Z +1 2
Z +1 2
x2
x2
x
x
2
p e 2 dx = 2
p e 2 dx
E(X ) =
2
2
0
1
"
#+1 Z
x2
+1
x2
xe 2
1
p
p e 2 dx = 1
=
+
2
2
1
1
x2
en intégrant par partie et en posant u = x et dv = xe 2 .
D’où
Z +1 2
x2
x
2
p e 2 dx = 1
E(X ) =
2
1
Comme la moyenne est nulle alors la variance est égale au moment d’ordre
2 ; d’où le résultat.
Remarque 2 La loi de probabilité de Gauss centrée et réduite est aussi appelée loi standard et sera notée N1 (0; 1).
1.1.3
Fonction caractéristique
Proposition 3 La transformée de Fourier de la loi N1 (0; 1) est telle que
' (t) = e
t2
2
.
Démonstration : Par dé…nition, on a :
Z +1
1
itX
' (t) = E e
=p
eitx e
2
1
Par ailleurs, e
D’où
1
2
(x2
2itx)
=e
' (t) = e
t2
2
1
2
Z
f(x
+1
1
it)2 +t2 g
1
p e
2
5
=e
t2
2
1
(x
2
it)2
e
x2
2
1
(x
2
dx
it)2
dx = e
.
t2
2
1.1.4
Loi normale quelconque
Proposition 4 Soit X une variable aléatoire de loi N1 (0; 1), la variable
aléatoire Y = aX + b (où a 6= 0 et b sont deux réels quelconques) suit une loi
de densité de probabilité g (y) dé…nie sur R telle que :
1
g (y) = p e
a 2
1
2
2
( ya b )
La moyenne de Y est égale à b et sa variance à a2 .
Démonstration : Considérons une fonction h continue à support compact. Alors,
Z +1
1 2
1
E fh(Y )g = E fh (aX + b)g
h(ax + b) p e 2 x dx
2
1
On é¤ectue le changement de variable y = ax + b avec x =
Par conséquent,
Z +1
1 z b 2
1
h(y) p e 2 ( a ) dz
E fh(Y )g =
a 2
1
y b
a
et dx =
D’où, d’après une proposition établie plus haut, on déduit que g (y) =
où y 2 R, est la densité de probabilité de Y .
p1
a 2
dy
.
a
e
1
2
Remarque 5 Il est clair que :
E (Y ) = E (aX + b) = aE (X) + b = b
et d’autre part
V ar (Y ) = V ar (aX + b) = a2 V ar (X) = a2
De…nition 6 La loi de probabilité d’une variable aléatoire de densité g (y)
dé…nie sur R telle que :
1
g (y) = p e
a 2
1
2
2
( ya b )
s’appelle loi de Gauss (ou loi normale, loi gaussienne) de moyenne b et de
variance a2 et sera notée N1 (b; a2 ).
6
2
( ya b )
Remarque 7 Nous constatons que la loi de Gauss est une loi à deux paramètres, la moyenne et la variance. Dans la pratique ce sont ces deux paramètres qu’il s’agira de déterminer. Par exemple, pour …xer la vraie valeur d’une constante physique au vue d’un échantillon de n mesures indépendantes, on fera l’hypothèse de Gauss : les mesures sont des variables aléatoires
indépendantes de loi gaussienne de paramètres inconnus et on cherchera les
valeurs des paramètres les mieux adaptées aux n mesures observées.
Proposition 8 La transformée de Fourier ' (t) de la loi N1 (b; a2 ) est dé…nie
telle que :
1 2 2
' (t) = eitb e 2 a t
Démonstration : Par dé…nition, on a :
' (t) = E eitY
D’autre part, Y = aX + b avec X
N (0; 1), d’où :
' (t) = E eit(aX+b) = eitb E eitaX = eitb e
7
1 2 2
a t
2
Chapitre 2
Lois de Gauss
bidimensionnelles
2.1
Loi de Gauss bidimensionnelle centrée
Une loi de Gauss centrée est obtenue en posant b = 0, et donc elle admet
pour densité de probabilité une fonction f dé…nie telle que :
1
f (x) = p e
a 2
x2
2a2
(2.1)
1
L’expression 2:1 est du type Ce 2 q(x) où q(x) est une forme quadratique en
x. La généralisation la plus naturelle en dimension 2 est donc de considérer
les densités de probabilité (s’il en existe) de la forme :
f (x1 ; x2 ) = Ce
1
q(x1 ;x2 )
2
où q (x1 ; x2 ) = a1 x21 + 2bx1 x2 + a2 x22 est une forme quadratique en x1 ; x2 .
Pour que f soit une densité de probabilité il faut et il su¢ t (puisque f > 0
dès que C > 0) que :
Z +1 Z +1
f (x1 ; x2 ) dx1 dx2 = 1
1
1
On est donc amené à se demander s’il existe des constantes C; a1 ; a2 ; b telles
que :
Z +1 Z +1
1
2
2
C
Ce 2 (a1 x1 +2bx1 x2 +a2 x2 ) dx1 dx2 = 1
(2.2)
1
1
8
Proposition 9 L’égalité 2:2 est véri…ée dès que :
a1 + a2 > 0
aa
b2 > 0
p 1 2
a1 a2 b 2
= C
2
Démonstration : En notation matricielle, la forme quadratique q (x1 ; x2 )
peut s’écrire telle que :
q (x1 ; x2 ) =
x1 x2
en notant par x le vecteur colonne
a1 b
b a2
x1
x2
x1
x2
= x0 Bx
, par x0 sa transposée et par B la
a1 b
.
b a2
B est symétrique donc diagonalisable par une transformation orthogonale
des axes tellle que :
y1
x1
=T
y2
x2
matrice
où T est une matrice orthogonale (i.e. T 0 = T 1 , en notant T 0 la transposée
de T ).
Alors,
0
q (x1 ; x2 ) = x0 Bx = (T 0 y) BT 0 y = y 0 T BT 0 y
où T BT 0 est une matrice diagonale telle que :
T BT 0 =
1
0
0
2
Par ailleurs, le jacobien de la transformation y = T x est l’unité. D’où
Z +1 Z +1
Z +1 Z +1
1 0
1
q(x
;x
)
1
2
dx1 dx2 =
e 2 x Bx dx1 dx
e 2
1
1
1
1
Z +1 Z +1
1
2
2
=
e 2 ( 1 y1 + 2 y2 ) dy1 dy2
1
1
Z +1
Z +1
1
1
2
2
y
1
=
e 2 1 dy1
e 2 2 y2 dy2
1
9
1
Ces intégrales n’ont de sens que si
a alors :
Z
Z +1
1
2
y
1
e 2 1 dy1
1
> 0 et
1
+1
e
1
2
1
2
2
2 y2
> 0. Sous ces conditions, on
dy2 = p
p2
Finalement, d’après la relation 2:2, on a C
p
1 2
C=
2
1 2
2
1 2
= 1, d’où :
Mais on sait que 1 et 2 sont les valeurs propres de la matrice B, i.e. elles
sont solution de l’équation du second degré :
a1
b
b
a2
2
= 0 qui s’écrit
(a1 + a2 ) + a1 a2
b2 = 0
Il est aisé de véri…er que le discriminant
est positif. De plus, les racines
sont positives si et seulement si leur somme et leur produit sont positifs, i.e.
si :
a1 + a2 > 0 et a1 a2 b2 > 0
On a alors :
p
1 2
=
p
a1 a2
b2
d’où le résultat de la proposition.
On peut aussi démontrer la proposition (9) sans utiliser les techniques de
l’algère linéaire, en intégrant d’abord en x1 puis en x2 .
a1 b
véri…ant les condib a2
tions a1 +a2 > 0 et a1 a2 b2 > 0, est appelée matrice dé…nie positive. Comme
nous venons de le voir, il est équivalent de dire que ses valeurs propres sont
0
strictement positives ou encore que pour tout x = x1 x2 6= 0 0 ,
x0 Bx > 0.
Remarque 10 Une matrice symétrique B =
De…nition 11 Sous les hypothèses de la proposition (9), une loi de probabilité de densité f (x1 ; x2 ) est appelée loi de Gauss bidimensionnelle centrée.
2.2
Propriétés
On considère dans ce qui suit un couple variables aléatoires centrées
(X1 ; X2 ) de densité de probabilité f (x1 ; x2 ).
10
2.2.1
Lois marginales des variables aléatoires X1 et X2
Les densités des lois marginales sont obtenues par intégration de f (x1 ; x2 )
par rapport à l’une ou l’autre des variables, soit :
Z
Z +1
1
1
1
2
2
q(x
;x
)
a
x
1
2
1
e 2
dx2 = Ce 2 1 e 2 (a2 x2 +2bx1 x2 ) dx2
g1 (x1 ) = C
1
On sait que :
a2 x22 + 2bx1 x2 = a2 x2 +
D’où
1
2
g1 (x1 ) = Ce
Or
D’où
Z
+1
e
a1
1
a
2 2
b2
a2
x21
Z
b
x1
a2
+1
x2 + ab x1
1
a
2 2
e
2
b2 2
x
a2 1
x2 + ab x1
2
2
dx2
1
2
2
dx2 =
1
g1 (x1 ) = p
2
1
q
a2
a1 a2 b2
e
1
2
r
2
a2
a1 a2 b2
a2
x21
Donc la loi marginale de X1 est la loi normale N1 0; a1 aa22 b2 .
Et en changeant l’indice 1 en l’indice 2 dans ce qui précède, on déduit que la
densité de probabilité de X2 est telle que :
g2 (x2 ) = p
2
1
q
a1
a1 a2 b2
e
1
2
a1 a2 b2
a1
x22
Donc, la loi marginale de X2 est la loi normale N1 0; a1 aa21 b2 .
Il est clair que les projections X1 et X2 sont aussi centrées, et que :
V ar (X1 ) =
a2
a1 a2
b2
et V ar (X2 ) =
11
a1
a1 a2
b2
2.2.2
Covariance entre X1 et X2
Les variables aléatoires X1 et X2 étant centrées donc de moyennes nulles,
alors le calcul de la covariance nous donne :
Z +1 Z +1
x1 x2 f (x1 ; x2 ) dx1 dx2
Cov (X1 ; X2 ) = E (X1 X2 ) = C
1
1
Z +1
Z +1
2
2
a2
bx
1
a1 ab x21
x2 + a 1
2
2
2
2
x1 e
= C
x2 e
dx2 dx1
1
1
1
, l’intégrale entre accolades
Après le changement de variable u = x2 + bx
a2
s’écrit telle que :
Z +1
Z +1
a2
bx1
1
bx1
2
x
+
2
a2
x2 e 2
dx2 =
u
e 2 a2 u du
a2
1
1
Z +1
bx1 1 a2 u2
e 2
=
du
1 a2
p
2
=
bx1 3
a22
D’où
Cov (X1 ; X2 ) =
=
Cb
Cb
p
2
3
2
a
p2
2
3
2
a2
Z
+1
x21 e
1
2
a1
b2
a2
x21
dx1
1
p
2
a1
b2
a2
3
2
=
b
a1 a2
b2
Proposition 12 Les variables aléatoires X1 et X2 sont indépendantes si et
seulement si Cov (X1 ; X2 ) = 0.
Démonstration : Si les variables aléatoires X1 et X2 sont indépendantes, on sait que Cov (X1 ; X2 ) = 0.
Réciproquement,
Cov (X1 ; X2 ) = 0 () b = 0 () B =
D’où
f (x1 ; x2 ) = Ce
1
a x2
2 1 1
e
a1 0
0 a2
1
a x2
2 2 2
Par conséquent, la densité du couple (X1 ; X2 ) étant le produit des densités
de X1 et de X2 , alors X1 et X2 sont indépendantes.
12
2.2.3
Matrice de covariances du couple (X1 ; X2 )
De…nition 13 On appelle matrice de covariances ou matrice de dispersion
la matrice D dé…nie telle que :
D=
V ar (X1 )
Cov (X1 ; X2 )
Cov (X1 ; X2 )
V ar (X2 )
Example 14 D’après les résultats précédents, on peut exprimer la matrice
de dispersion D de X1 et X2 telle que :
D=
1
a1 a2
b2
a2
b
b a1
Proposition 15 La matrice de dispersion D est l’inverse de la matrice de
la forme quadratique q (x1 ; x2 ), i.e. :
D=B
1
Remarque 16 La loi de probabilité de densité f (x1 ; x2 ) sera alors notée
N2 (0; D) par analogie avec le cas unidimensionnel (il faut se rappeler que D
joue en dimension > 1 le même rôle que la variance).
De plus, D est une matrice dé…nie positive car ses valeurs propres sont > 0.
2.3
Loi gaussienne bidimensionnelle centrée
et réduite
De…nition 17 Dans le cas particulier où :
B=
1 0
0 1
= I2 i.e. D = B = I2
on obtient la loi normale N2 (0; I) de densité de probabilité f (x1 ; x2 ) telle
que :
1 12 (x21 +x22 )
e
f (x1 ; x2 ) =
2
Alors, la loi N2 (0; I) est appelée loi normale bidimensionnelle centrée et réduite.
13
On va montrer qu’à partir de cette loi on retrouve naturellement toutes
les lois bidimensionnelles centrées.
Reprenons les notations de la démonstration de la proposition (9). On a vu
qu’il existe une matrice T telle que T BT 0 soit diagonale, i.e.
T BT 0 =
où
1
0
0
2
0
> 0 , 2 > 0 et T T = I.
On peut alors écrire :
1
0
T BT =
0
1
0
=
0
p
p0
1
0
En posant
T
0
p0
1
0
2
et donc
B=T
p
p
0
1
p
2
p
1
0
2
p0
p0
1
0
p0
2
T
2
=R
2
Il vient que :
B = RR0
Remarque 18 S’il existe une matrice R telle que B = RR0 , on dit alors que
R est la racine de B. De plus R est de rang 2.
Posons A = (R0 ) 1 (A de rang 2), alors il vient que D = B 1 = (R0 ) 1 R 1
et donc D = AA0.
Soit Y un vecteur aléatoire de loi N2 (0; I). Posons X = AY et cherchons
0
la loi de X. On remarque d’abord que B = (AA0 ) 1 . D’où, si on pose x =
0
x1 x2 et y = y1 y2 , on aura :
1
x0 Bx = x0 (A0 )
A 1x = y0y
où x = Ay ou bien y = A 1 x.
Soit h une fonction continue à support compact dé…nie sur R2 , alors :
Z+1Z+1
1
1
2
2
h (y1 ; y2 ) e 2 (y1 +y2 ) dy1 dy2
E [h(X)] = E [h(AY )] =
2
1 1
Z+1Z+1
1
h (x1 ; x2 ) e
=
2
1 1
14
1 0
x Bx
2
1
dx1 dx2
jdet (A)j
où l’on a procédé au changement de variable x = Ay de jacobien
1
.
det (A 1 ) = det(A)
1
Par conséquent, le vecteur aléatoire X a pour densité 2 jdet(A)j
e
0
1
R2 . Par ailleurs, AA = D = B 1 , d’où jdet Aj = pdet B = p
@y
@x
1 0
x Bx
2
1
.
a1 a2 b2
=
sur
On
retrouve bien la loi étudiée plus haut.
Proposition 19 Soit B une matrice dé…nie positive quelconque, il existe
0
alors une matrice A de même rang que B telle que AA = B 1 . De plus, si
Y est un vecteur aléatoire de loi N2 (0; I), alors X = AY admet une loi de
probabilité de densité f (x1 ; x2 ) telle que :
p
det B 1 x0 Bx
e 2
f (x1 ; x2 ) =
2
0
x1 x2 .
où x =
Remarque 20 La proposition ci-dessus aurait pu être énoncée telle que :
Soit D une matrice dé…nie positive quelconque et soit Y un vecteur aléatoire
de loi de probabilité N2 (0; I). Alors il existe une matrice A de même rang que
0
D telle que AA = D et le vecteur aléatoire X = AY est de loi N2 (0; D).
2.4
Lois gaussiennes conditionnelles
0
Soit X = X1 X2 un vecteur aléatoire de loi de probabilité de densité f (x1 ; x2 ). On sait que la densité de la loi conditionnelle de la variable
aléatoire X2 sachant X1 = x1 , notée fX1 =x1 (x2 ), est déterminée telle que :
f (x1 ; x2 )
fX1 =x1 (x2 ) =
Z+1
f (x1 ; x2 ) dx2
1
1
q(x1 ;x2 )
2
Dans le cas gaussien f (x1 ; x2 ) = Ce
f (x1 ; x2 )
Z+1
f (x1 ; x2 ) dx2
=
1
q(x1 ;x2 )
2
Ce
C 0e
1
2
a1
b2
a2
x21
1
= Ke
1
a
2 2
x2 + ab x1
2
15
. Alors
= Ke
2
1
2
b2
+2bx1 x2 +a2 x22
a2
où K =
p
a
p 2.
2
D’où
Proposition 21 La loi conditionnelle de X2 sachant X1 = x1 est la loi
N1 ( ab2 x1 ; a12 ).
Remarque 22 La moyenne de la loi conditionnelle de X2 sachant X1 = x1
est une fonction linéaire de x1 et elle est notée telle que :
E [X2 /X1 = x1 ] =
b
x1
a2
Par contre sa variance ne dépend pas de x1 et est égale à :
V ar(X2 ) =
1
a2
Si b = 0 alors Cov(X1 ; X2 ) = 0 et donc la loi conditionnelle de X2 sachant
X1 = x1 est une une loi N1 (0; a12 ). C’est la loi marginale de X2 et elle ne
dépend pas de x1 . Et donc les variables aléatoires X2 sont indépendantes.
2.5
Lois gaussiennes bidimensionnelles quelconques
A partir des lois gaussiennes bidimensionnelles centrées on peut engendrer
par translation n’importe quelle loi gaussienne bidimensionnelles. En e¤et,
supposons que X = (X1 ; X2 ) soit distribué suivant une loi gaussienne bidi0
mensionnelle centrée. Soit b = (b1 ; b2 ) un vecteur quelconque de R2 . Alors
par dé…nition la variable aléatoire bidimensionnelle Y = X + b est distribuée
suivant une loi gaussienne de vecteur moyenne b et de matrice de dispersion,
la matrice de dispersion de X.
16
Chapitre 3
Lois de Gauss de dimension p
Soit X1 ; X2 ; :::Xp , p variables aléatoires indépendantes de même loi normale N (0; 1). Il est clair que la loi du vecteur aléatoire X1 X2 ::: Xp est
dé…nie sur Rp et est égale à la loi conjointe f (x1 ; x2 ; :::; xp ) des variables aléatoires X1 ; X2 ; :::Xp .
De…nition 23 On appelle loi de Gauss ou loi normale centrée réduite de
dimension p une loi de densité de probabilité dé…nie sur Rp telle que :
p
X
1
p
x2i
2
1
i=1
e
f (x1 ; x2 ; :::; xp ) = p
2
Elle est, en général, notée Np (0; I).
Remarque 24 La somme
p
X
x2i est une forme quadratique en x1 ; x2 ; :::xp .
i=1
Il est possible alors de suivre la même démarche que précédemment pour
déterminer la densité d’un vecteur gaussien quelconque.
Soit (X1 ; X2 ; :::Xp ) un vecteur aléatoire de loi Np (0; I) alors E (Xi ) = 0 et
V ar (Xi ) = 1 pour tout i, puisque la loi de Xi est une loi N1 (0; 1). De plus,
si i 6= j Cov (Xi ; Xj ) = 0 puisque Xi et Xj sont indépendantes. D’où la
p
matrice
de dispersion
1 de (X1 ; X2 ; :::Xp ) est la matrice identité de R , I =
0
1 0 ::: 0
B 0 1 ::: ::: C
C
B
@ ::: ::: ::: 0 A.Ceci justi…e la notation Np (0; I).
0 ::: 0 1
17
3.1
Cas général
Nous pourions comme dans le chapitre précédent, chercher les conditions
1
sur une forme quadratique q (x1 ; x2 ; :::xp ) pour que l’expression Ce 2 q(x1 ;x2 ;:::xp )
soit une densité de probabilité et introduire ainsi les lois de Gauss de dimension p. Pour renouveler l’intérêt nous allons cette fois procéder à l’envers et
adopter la dé…nition suivante.
De…nition 25 Soit X = (X1 ; X2 ; :::Xp ) un vecteur aléatoire de loi Np (0; I).
Soit A une matrice p p de rang p et soit b un vecteur (colonne) de Rp .
Alors, le vecteur aléatoire Y = AX + b suit une loi de Gauss de dimension
p.
Proposition 26 La loi de probabilité du vecteur aléatoire Y admet une densité de probabilité g dé…nie sur Rp telle que :
g(y) = p
où y 0 =
1
2
p
jdet Aj
e
1
(y
2
b)0 [AA0 ]
1
(y b)
y1 y2 ::: yp .
Démonstration : Pour déterminer la densité g de Y , il su¢ t de la faire
apparaître dans le calcul de E [h(Y )] pour une fonction h continue à support
compact quelconque de Rp dans R tel que :
E [h(Y )] = E [h(AX + b)] =
0
où x =
x1 x2 ::: xp
Z
+1
:::
1
0
et x x =
Z
+1
1
p
X
1
h (Ax + b) p
2
1
2
pe
p
X
i=1
x2i
dx1 :::dxp
x2i .
i=1
La matrice A est de rang p (rang plein) donc elle est inversible. Par ailleurs,
on e¤ectue le changement de variables de Rp dans Rp tel que :
x ! y = Ax + b avec x = A
1
Le jacobien de la transformation est alors :
Dx
= det A
Dy
18
1
=
1
det A
(y
b)
D’où
E [h(Y )] =
Or [A
1
Z
+1
:::
1
0
(y
E [h(Y )] =
b)] [A
Z +1
1
Z
+1
1
h(y) p
1
2
p
jdet Aj
e
1
2
[A
1 (y
0
b)] [A
1 (y
(y b)] = (y b)0 [AA0 ] 1 (y b), d’où
Z +1
0
1
1
0 1
h(y) p
:::
e 2 (y b) [AA ] (y
p
2
jdet Aj
1
b)]
dy1 :::dyp
1
b)
dy1 :::dyp
Corollaire 27 Le vecteur Gaussien Y est tel que :
E(Y ) = b
et
D(Y ) = AA0
où D(Y ) est la matrice de dispersion du vecteur Y .
Démonstration : En e¤et,
E(Y ) = E(AX + b) = AE(X) + b = b
Et
D(Y ) = E (AX + b
b) (AX + b
b)0 = E [AX(AX)0 ] = AE(XX 0 )A0 = AA0
0
Car E(XX ) = D(X) = I.
Proposition 28 Soit Y = (Y1 ; Y2 ; :::; Yp ) un vecteur aléatoire gaussien de
Rp . Alors, les variables aléatoires Yk sont distribuées suivant des lois de
Gauss, et pour (t1 ; t2 ; :::; tp ) 2 Rp , il en est de même pour les variables aléap
X
toires
ti Yi .
i=1
Démonstration : Soit Y = AX + b où A = (aij )i;j=1;:::;p . Alors
Yk =
X
akj Xj + bk
j=1p
19
1
k
p
Et donc la fonction caractéristique de Yk pour
0 X
1
p
i bk
i Yk
=e
E e
B i
EB
@e
akj Xj
j=1
6= 0, est telle que :
C
C = ei
A
bk
E
"
p
Y
i akj Xj
e
j=1
#
Or les variables aléatoires Xj ; j = 1; 2; :::; p sont indépendantes, donc
E ei
Yk
= ei
p
Y
bk
1
2
E ei
akj Xj
= ei
bk
e
j=1
2
p
X
a2kj
j=1
C’est évidemment la fonction caractéristique d’une variable aléatoire de Gauss.
p
X
On procède de même pour montrer que
ti Yi est une variable aléatoire de
i=1
Gauss. En e¤et, on remarque que l’on a :
p
X
ti Yi =
i=1
p
X
k=1
tk bk +
p
X
tk
p
X
akj Xj =
j=1
k=1
p
X
tk bk +
p
X
j=1
k=1
Xj
p
X
tk akj
k=1
Et on continue comme précédemment pour les Yk .
Proposition 29 La fonction caractéristique de la variable aléatoire Y de loi
Np (b; D(Y )) est telle que :
0
'Y (t1 ; t2 ; :::; tp ) = eit b e
1 0
t D(Y
2
)t
où b = E(Y ):
Démonstration : En reprenant les notations de la proposition (30), on
peut écrire :
2 X
3
p
tk Yk
6 i
7
6
7
k=1
bY (t1 ; t2 ; :::; tp ) = E 4e
5
=
Z
Rp
i
e
p
X
tk yk
k=1
20
g (y1 ; y2 ; :::; yp ) dy1 dy2 :::dyp
Or
p
X
k=1
tk Yk =
p
X
tk bk +
p
X
Xj
j=1
k=1
1
2
0
Donc bY t1 ; t2 ; :::; tp = eit b e
p
p
X
X
j=1
k=1
tk akj
p
X
0
tk akj = t b +
k=1
0
p
p
X X
j=1
!2
B
@
k=1
12
C
tk akj A
p
X
j=1
Xj
p
X
tk akj
k=1
et alors on a :
= t0 A(t0 A)0 = t0 AA0 t = t0 D(Y )t
d’où le résultat.
Remarque 30 Soit B une matrice p p symétrique de rang p. Elle est dite
dé…nie positive si l’une des 3 propriétés équivalentes suivantes est satisfaite :
a) les valeurs propres de la matrice B sont strictement positives.
b) il existe une matrice A (p p) de rang p telle que B = AA0 .
c) pour tout vecteur colonne non nul x de Rp on a x0 Bx > 0.
Proposition 31 Soit D une matrice p p dé…nie positive quelconque et soit
b un vecteur de Rp . Il existe un vecteur aléatoire Y de Rp de loi Np (b; D).
Démonstration : La matrice D peut être écrite sous la forme AA0 .
Alors d’après la proposition (30), si X est de loi Np (0; I), Y = AX + b est
de loi Np (b; D).
Proposition 32 Soit Y = (Y1 ; Y2 ; :::; Yp )0 de loi Np (b; D) avec D = AA0
et soient Z1 = (Y1 ; Y2 ; :::; Yk )0 et Z2 = (Yk+1 ; Yk+2 ; :::; Yp )0 1
k
p …xé.
Alors Z1 et Z2 sont gaussiens et ils sont indépendants si et seulement si
Cov (Yi ; Yj ) = 0 dès que 1 i k et k + 1 j p.
Démonstration
0
0
1
1: Montrons que Z1 est un vecteur gaussien de loi
b1
Np @@ ::: A ; D(Z1 )A.
bk
La fonction caractéristique de (Y1 ; Y2 ; :::; Yk )0 est donnée par :
2 k
3
k
X
X
tj Yj 7
i
tj bj
6 i
1 0
6 j=1
7
j=1
E 6e
e 2 t(k) D(Y )t(k)
7 = bY (t1 ; t2 ; :::; tk ; 0; :::; 0) = e
4
5
21
où t(k) = (t1 ; t2 ; :::; tk ; 0; :::; 0)0 .
1 0
b
b
La deuxième exponentielle peut s’écrire telle que e 2 t(k) D(Z1 )t(k) où b
t(k) =
(t1 ; t2 ; :::; tk )0 .
En e¤et, D(Y ) = (Cov (Yi ; Yj )) 1 i p et D(Z1 ) = (Cov (Yi ; Yj )) 1 i k . D’autre
1 j p
1 j k
0
0
part, ceci montre que b
t(k) D(Z1 )b
t(k) = t(k) D(Y )t(k) > 0 dès que t1 ; t2 ; :::; tk
sont non tous nuls. Donc D(Z1 ) est dé…nie positive d’après le point (c) de
la remarque ci-dessus. Il existe donc d’après le point (a) de la remarque ci0
. Mais si T
dessus une matrice A1 (k k) 0
de rang
1 k telle que D(Z1 ) 2=0A1 A11
31
b1
b1
suit une Nk (0; I), alors A1 T1 + @ ::: A suivra une loi Nk 4@ ::: A ; D(Z1 )5,
bk
bk
donc d’après la proposition (31) aura la même2fonction
caractéristique
que
1
3
0
b1
Z1 donc aura la même loi, d’où Z1 suit la loi Nk 4@ ::: A ; D(Z1 )5. De même
bk
20
1
3
bk+1
0
Z2 suit la loi Np k 4@ ::: A ; D(Z2 )5 où on posera D(Z2 ) = A2 A2 avec A2
bp
(p k) (p k) de rang p k (même construction que pour Z1 ).
Z1 et Z2 sont indépendantes si et seulement si la loi de (Z1 ; Z2 ) c’est à dire
la loi de Y est égale au produit des lois de Z1 et de Z2 soit si et seulement
si :
p
1
2
p
jdet Aj
e
1
(y
2
b)0 [AA0 ]
1
(y b)
=
p
p
1
2
2
k
e
jdet A1 j
1
p k
1
2
e
(z1
1
2
0
b(1) ) [A1 A01 ]
(z2
1
(z1
0
b(2) ) [A2 A02 ]
1
(z2
jdet A2 j
où z1 = (y1 ; :::yk )0 , b(1) = (b1 ; :::; bk )0 , z2 = (yk+1 ; :::yp )0 , b(2) = (bk+1 ; :::; bp )0 .
Mais si Cov (Yi ; Yj ) = 0, 1 i k et k + 1 j p alors :
D(Y ) = AA0 =
D(Z1 )
0
0
D(Z2 )
0
=
A 1 A1
0
0
0
A 2 A2
L’égalité est alors véri…ée car l’inverse conserve la même forme.
Réciproquement, si Z1 est indépendant de Z2 , alors toute variable aléatoire
liée à Z1 est indépendante de toute variable aléatoire liée à Z2 , en particulier
22
b(1) )
b(2) )
Yi est indépendante de Yj dès que 1
Cov (Yi ; Yj = 0).
i
k et k + 1
j
p, donc
0
Corollaire 33 Soit Y = (Y1 ; Y2 ; :::; Yp ) un vecteur aléatoire de Rp de distribution de Gauss de dimension p. Pour que les Yi soient indépendants il faut
et il su¢ t que la matrice de dispersion de Y soit diagonale.
Démonstration : C’est une application immédiate de la proposition
(12).
Proposition 34 Si Y suit une loi de Gauss de dimension p, si B est une
matrice p p de rang p et si c est un vecteur de Rp alors Z = BY + c suit
une loi de Gauss de dimension p.
Démonstration : Le vecteur gaussien Y s’écrit en général AX + b avec
A de rang p et X suivant une loi Np (0; I), donc Z = BY +c = BAX +Bb +c
et BA est de rang p.
Corollaire 35 Si Y suit une loi de Gauss de dimension p et si C est une
matrice q p de rang q (donc q p) alors Z = CY suit une loi de Gauss de
dimension q.
b (p p) de rang p et
Démonstration : On complète C en une matrice C
b qui est de loi gaussienne de dimension p, il su¢ t alors de
on dé…nit Zb = CY
remarquer que Z est une projection de Zb et d’appliquer la proposition (12).
23
Chapitre 4
Régression et prédiction dans
les espaces gaussiens
4.1
Cas bidiemensionnel
Soit X = (X1 ; X2 )0 un vecteur gaussien de dimension 2. Nous avons
constaté que la loi conditionelle de X2 sachant X1 = x1 est la distribub
x ; 1 . Sa moyenne est une fonction linéaire de x1 calculée
tion N1
a2 1 a2
prédédemment telle que :
E [X2 / X1 = x1 ] =
b
Cov(X1 ; X2 )
x1
x1 =
a2
V ar (X1 )
Quel sens donner à ce résultat ?
Example 36 Supposons que dans une population donnée on observe les tailles
des pères de famille et des ainés de leurs enfants ; soit, respectivement, X1
et X2 . On peut supposer (hypothèse de Gauss) que le couple (X1 ; X2 ) suit
une loi de Gauss centrée (en retranchant du couple (X1 ; X2 ) le vecteur des
tailles moyennes (m1 ; m2 )). Dans ce modèle, la taille des …ls X2 suit une loi
de Gauss N (0; 22 ) (dans l’ensemble de la population), mais si l’on se restreint à la sous-population des …ls dont les pères ont une taille …xée x1 , la loi
1 ;X2 )
1 ;X2 )
de X2 est une distribution N1 Cov(X
x1 ; a12 et sa moyenne Cov(X
x1
V ar(X1 )
V ar(X1 )
indique la taille "espérée" d’un …ls ainé dont le père est de taille x1 . Nous
allons essayer de préciser ce que cela signi…e.
24
4.1.1
Principe de régression
Pour plus de généralité nous allons considérer une loi de Gauss non centrée
1
de dimension 2, N2 (m; D) où m =
et la matrice de dispersion D =
2
2
1
Cov (X1 ; X2 )
Cov (X1 ; X2 )
2
2
.
Proposition 37 Soit (X1 ; X2 ) un couple de variables aléatoires de loi N2 (m; D).
Il existe deux réels 6= 0 et tels que :
X2 = X1 +
+Z
(4.1)
où Z est une variable aléatoire indépendante de X1 et de moyenne nulle.
Démonstration : Posons Z1 = X2
X1 . Alors le couple (X1 ; Z1 ) est
gaussien car :
X1
1 0
X1
=
Z1
1
X2
Et, on conclut en appliquant la proposition 36. Par ailleurs, Z1 et X1 sont
indépendantes si et seulement si Cov (X1 ; Z1 ) = 0. Or,
Cov (X1 ; Z1 ) =
=
=
=
E [(X1 E(X1 )) (Z1 e(Z1 ))] =
E [(X1
(X1
1 )(X2
2
1 ))] =
2
E [(X1
E (X1
=
1 ) (X2
2 )]
1)
Cov (X1 ; X2 )
V ar(X1 )
1 ;X2 )
D’où Cov (X1 ; Z1 ) = 0 si et seulement si = Cov(X
. Il su¢ t alors de
V ar(X1 )
poser = E(Z1 ) = E (X2
X1 ) = 2
1 pour obtenir la proposition.
En posant Z = Z1
(indépendante de X1 ) on aboutit à la relation 4:1.
De…nition 38 La relation 4:1 s’appelle une régression de X2 en X1 .
4.1.2
Commentaire 1
Revenons au vecteur concret (X1 ; X2 )0 des tailles d’un père et de son …ls
ainé, supposé cette fois-ci non centré, ce qui est plus naturel. Nous obtenons
la décomposition suivante :
X2 = X1 +
25
+Z
(4.2)
1 ;X2 )
, = 2
où = Cov(X
1 et Z indépendant de X1 .
V ar(X1 )
Puisque E(Z) = 0, la taille x2 espérée d’un …ls ainé connaissant x1 celle de
son père est encore x1 + , mais la proposition 39 nous donne une précision
supplémentaire qui peut s’énoncer sous forme de loi "biologique" :
"la taille X2 d’un …ls ainé est fonction a¢ ne ( X1 + ) de la taille X1 de
son père à une erreur aléatoire Z près indépendante de X1 ".
Il faut évidemment se garder de toute interprétation littérale de cette
"loi", il ne s’agit que d’un modèle d’une part et d’autre part l’erreur Z peut
être prépondérante en fait. Qu’en est-il exactement ?
Z suit un loi de Gauss (puisque Z = Z1
et que Z1 suit une loi de
Gauss) de moyenne nulle et de variance :
V ar(Z) = E Z 2 = E (X2
( X1 + ))2
Si cette variance est grande l’équation 4:2 ne nous fournit pratiquement aucune information sur X2 lorqu’on connait X1 (Z est très dispersée et peut
prendre de grandes valeurs avec une probabilité importante) si au contraire
V ar(Z) est petite l’équation 4:2 nous dit que X2 ' X1 + avec une probabilité proche de 1. Tout dépend …nalement de V ar(Z).
et fournissent-ils un minimum à la fonction :
V (a; b) = E (X2
(aX1 + b))2
(4.3)
Proposition 39 On conserve les notation de la proposition précédente, alors
la fonction dé…nie par 4:3 atteint son minimum pour a = et b = .
Démonstration : Nous allons développer V (a; b) telle que :
V (a; b) = E f(X2
2)
2
a (X1
2
= E (X2
2 ) + a E (X1
2aE [(X1
1 ) (X2
1)
2
1)
b+
+(
2
2
a 1 g2
a
1
b)2
2 )]
Les autres termes du développement sont nuls. Alors,
V (a; b) =
2
2
+ a2
2
1
+(
2
a
1
b)2
2aCov (X1 ; X2 )
Le minimum de la fonction V (a; b) est solution des équations :
@V (a; b)
@V (a; b)
= 0 et
=0
@a
@b
26
Ainsi,
2
1
(
2
a
b)
1
2(
D’où
2
2Cov (X1 ; X2 ) + 2a
a
1
2
1
=0
b) = 0
Cov(X1 ; X2 )
=
V ar(X1 )
b= 2
1 =
a=
Cette solution est unique. D’autre part, si a et b tendent vers 1 alors V (a; b)
tend vers 1. Donc c’est nécessairement un minimum.
De…nition 40 Si et réalise le minimum de V (a; b) on dit que X1 +
est une prédiction (a¢ ne) de X2 sachant X1 .
4.1.3
–
Commentaire 2
et sont donc particulièrement bien choisis puisqu’ils fournissent une
régression (a¢ ne) de X2 en X1 et une prédiction (a¢ ne) de X2 sachant
X1 . On a à la fois :
X2 = X1 +
+ Z avec Z indépendant de X1 et E(Z) = 0
et
E (X2
( X1 + ))2 = V ar(Z) minimum
On ne peut espérer plus dans le cadre de cette théorie.
– L’hypothèse essentielle pour obtenir ces résultats est évidemment l’hypothèse de Gauss : (X1 ; X2 ) suit une loi N2 (m; D). Il ne faut surtout
pas croire que ces résultats s’étendent à d’autres lois continues (ou non).
– La proposition 41 nous fournit d’autre part un moyen de calcul pratique
de et . En e¤et, dans la pratique nous observons n réalisations de
(X1 ; X2 ), c’est à dire n couples de tailles d’un père et de son …ls ainé,
mais nous ignorons totalement m et D. La seule hypothèse que nous
faisons est que (X1 ; X2 ) suit une loi N2 (m; D), pour m et D …xes
mais inconnus. On peut représenter les n couples obtenus dans le plan
rapporté à deux axes orthonormés. La "meilleure" droite s’ajustant au
nuage des points sera d’équation x2 = x1 + , d’où un moyen pratique
de calcul numérique de et sans connaitre les valeurs des paramètres
m et D de la loi de (X1 ; X2 ).
Les résultats obtenus se généralisent naturellement au cas multidimensionnel.
27
4.2
Cas de dimension p
Proposition 41 Soient T et X deux vecteurs aléatoires à valeurs respectivement dans Rp et Rq et tels que le vecteur (T; X)0 à valeurs dans Rn
(n = p + q) soit gaussien de loi Nn (m; D). On suppose q p. Il existe une
matrice q p (q lignes et p colonnes) A unique de rang q et un vecteur de
Rq tels que :
X = AT +
+ Z avec Z indépendant de T et E(Z) = 0
Démonstration : Soit A une matrice q
on peut écrire :
(T; X
p de rang q quelconque, alors
Ip 0
A Iq
AT ) =
T
X
Donc, d’après la proposition 34 la variable aléatoire (T; X AT ) est un vecteur gaussien,. De plus, T et X AT sont indépendantes si et seulement si la
D(T )
0
matrice de dispersion de (T; X AT ) est du type
.
0
D(X AT )
Or cette matrice de dispersion est égale à :
Ip 0
A Iq
où D =
D
Ip 0
A Iq
0
D(T )
et où l’on a posé = (Cov (Ti ; Xj )) 1 i p .
D(X)
1 j q
Donc, T et X AT sont indépendantes si et seulement si AD(T ) + = 0,
soit A = (D(T )) 1 ce qui détermine A. Il su¢ t alors de poser Z = X
AT E(X AT ) pour obtenir la proposition.
De même, il est possible d’énoncer le résultat suivant :
0
Proposition 42 La matrice A rend minimum la quantité :
E (X
(At + ))0 (X
28
(At + ))
Chapitre 5
Exemple : Loi des vitesses de
Maxwell
En mécanique statistique classique on considère des molécules se déplaçant dans l’espace ambiant à trois dimensions que l’on rapporte à une origine et à une unité de longueur.Par raison de symétrie on fait l’hypothèse
suivante :
– Dans tout système d’axes orthonormés les trois coordonnées (X1 ; X2 ; X3 )
du vecteur vitesse X d’une molécule sont des variables aléatoires indépendantes ayant pour densité conjointe la fonction continue f (x1 ; x2 ; x3 ).
Proposition 43 Sous de telles hypothèses, la loi de probabilité de X est une
loi de Gauss N3 (0; 2 I) où > 0.
Démonstration : Soit (e1 ; e2 ; e3 ) une base orthonormée de l’espace
ambiant que l’on identi…e à la base canonique de R3 . Dans cette base, les
coordonnées de la vitesse sont notées (X1 ; X2 ; X3 ). Dans une nouvelle base
orthonormale (b1 ; b2 ; b3 ) on sait que les nouvelles coordonnées (Y1 ; Y2 ; Y3 ) seront obtenues à partir des anciennes par une transformation orthogonale
Y = T X. D’après l’hypothèse ci-dessus, la loi de Y doit être égale à la loi
de X. En particulier pour toute fonction continu à support compact h de R3
dans R on doit avoir E [h(Y )] = E [h(X)], soit avec des notations évidentes :
ZZZ
ZZZ
h (T x) f (x1 ; x2 ; x3 )dx1 dx2 dx3 =
h(x)f (x1 ; x2 ; x3 )dx1 dx2 dx3
29
En procédant au changement de variable y = T x dans R3 de jacobien égal à
1, on obtient :
Z
Z
0
h(y)f (T y)dy =
h(x)f (x)dx
R3
R3
Et, comme c’est vrai pour toute fonction h continue à support compact, alors
0
pour toute matrice orthogonale T on a f (T x) = f (x) et par conséquent
f (T x) = f (x) pour tout x 2 R3 .
Soient x et y deux vecteurs de R3 de même longueur. Il existe au moins une
rotation amenant x sur y. Il existe donc une transformation T orthogonale
telle que y = T x, d’où f (x) = f (y). En conséquence, f n’est fonction que de
la longueur de x, c’est à dire qu’il existe une fonction h de R+ dans R+ telle
que :
f (x1 ; x2 ; x3 ) = h(x21 + x22 + x23 )
(5.1)
D’autre part, on sait que X1 ; X2 ; X3 sont indépendantes, donc h(x21 + x22 +
x23 ) = f1 (x1 )f2 (x2 )f3 (x3 ). Comme le deuixième membre de l’égalité 5:1 est
symétrique en x1 ; x2 ; x3 , le premier l’est aussi, d’où f1 = f2 = f3 . De plus,
si on change dans 5:1 xi en xi , i = 1; 2; 3, f ne change pas, donc les fi ;
i = 1; 2; 3. D’où, on a :
f (x1 ; x2 ; x3 ) = g(x21 )g(x22 )g(x23 ) = h(x21 + x22 + x23 )
En faisant x1 = x2 = 0, il vient :
g(x21 ) [g(0)]2 = h(x21 )
D’où, g(x2 ) =
h(x2 )
.
[g(0)]2
Finalement on obtient l’équation :
h(x21
+
x22
+
x23 )
h(x21 )h(x22 )h(x23 )
=
[g(0)]6
où la fonction h est continue.
On sait que la seule solution de cette équation fonctionelle est h(x2 ) = Ae x .
Et pour que ce soit une densité de probabilité dans R3 , nécessairement h doit
être telle que :
h(x21 + x22 + x23 ) =
1
p
2
3e
La loi de (X1 ; X2 ; X3 ) est donc bien une N3 (0;
30
1
(x21 +x22 +x23 )
2 2
2
I) pour
> 0.
Chapitre 6
Exercices
6.1
Exercice1
Montrer que la densité de probabilité d’une variable multinormale satisfait
le système d’équations suivant :
@2f
@f
=
@ ij
@xi @xj
où
ij
6.2
i;j
sont les coe¢ cients de corrélation des Xi et Xj .
Exercice2
Soient X et Y deux variables suivant une loi binormale non singulière.
Montrer que les variables aléatoires X 2 + 2aXY + Y 2 et X 2 + 2bXY + Y 2 ne
peuvent être indépendantes que si a et b ont tous deux des valeurs absolues
égales à 1 et sont de signes opposés.
6.3
Exercice3
Trouver des conditions nécessaires et su¢ santes pour que trois nombres
donnés 12 , 13 et 23 puissent être les coe¢ cients de corrélatio d’une distribution tridimentionnelle.
31
6.4
Exercice4
Faire une étude détaillée de la loi de Student.
6.5
Exercice5
Montrer que si X1 et X2 ont des densités et sont indépendantes, et si Y1
et Y2 combinaisons linéaires de X1 et X2 sont indépendantes, alors X1 et X2
sont indépendantes.
6.6
Exercice6
Soient X1 ; X2 ; :::; Xp , p variables normales indépendantes et réduites. On
suppose que l’on a décomposé la somme des carrés de ces variables en k
formes quadratiques :
p
X
Xi2 = Q1 + Q2 + :::; +Qk
i=1
où les Qi ; i = 1; 2; :::; k sont de rang ri ; i = 1; 2; :::; k.
Montrer que l’une des trois conditions suivantes implique les deux autres :
a. La somme des ri est égale à p.
b. Chacune des formes quadratiques Qi est distribuée suivant une loi du 2 .
c. Toute les formes quadratiques Qi sont indépentamment distribuées.
6.7
Exercice7
1. Si X1 ; X2 ; :::; Xn sont n variables normales indépendantes, montrer que
n
n
X
X
2
1
1
2
Xi X sont indépendants.
X=n
Xi et S = n
i=1
i=1
2. Montrer que si X1 ; X2 ; :::; Xn sont n variables indépendantes et si X et S 2
sont indépendantes, alors les Xi sont des variables aléatoires normales.
32
Téléchargement