Université Mentouri Constantine Département de Mathématique Ecole Doctorale de Mathématique "Lois normales multidimentionnelles" Dr. Meghlaoui Dakhmouche Table des matières 1 Introduction 1.1 Loi de Gauss à une dimension . 1.1.1 Propriétés . . . . . . . . 1.1.2 Moments particuliers . . 1.1.3 Fonction caractéristique 1.1.4 Loi normale quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Lois de Gauss bidimensionnelles 2.1 Loi de Gauss bidimensionnelle centrée . . . . . . . . . . . 2.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Lois marginales des variables aléatoires X1 et X2 2.2.2 Covariance entre X1 et X2 . . . . . . . . . . . . . 2.2.3 Matrice de covariances du couple (X1 ; X2 ) . . . . 2.3 Loi gaussienne bidimensionnelle centrée et réduite . . . . 2.4 Lois gaussiennes conditionnelles . . . . . . . . . . . . . . 2.5 Lois gaussiennes bidimensionnelles quelconques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2 3 3 4 5 . . . . . . . . 7 7 9 10 11 12 12 14 15 3 Lois de Gauss de dimension p 16 3.1 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 4 Régression et prédiction dans les 4.1 Cas bidiemensionnel . . . . . . 4.1.1 Principe de régression . 4.1.2 Commentaire 1 . . . . . 4.1.3 Commentaire 2 . . . . . 4.2 Cas de dimension p . . . . . . . espaces gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Exemple : Loi des vitesses de Maxwell 1 . . . . . . . . . . . . . . . . . . . . . . . . . 23 23 24 24 26 27 28 6 Exercices 6.1 Exercice1 6.2 Exercice2 6.3 Exercice3 6.4 Exercice4 6.5 Exercice5 6.6 Exercice6 6.7 Exercice7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 30 30 30 31 31 31 31 Chapitre 1 Introduction 1.1 Loi de Gauss à une dimension La loi normale ou la loi de Gauss a été précédemment introduite comme limite de certaines lois discrètes, comme par exemple la loi Binomiale. En physique elle intervient dans de nombreux modèles (mouvement brownien, loi des vitesses de Maxwell, par exemple). Il a été déjà établi que la loi de la somme d’un grand nombre de variables aléatoires indépendantes, sous des conditions très générales, peut être approchée par la loi de Gauss, ce qui justi…era l’introduction ou l’utilisation de cette loi en théorie des erreurs d’observation et de mesure. Historiquement, c’est en ré‡échissant au problème des erreurs de mesure des constantes physiques (en astronomie plus précisément) que Gauss reconnut l’importance de la loi qui porte son nom ; les erreurs de mesure sont dues à l’addition d’un très grand nombre de petites causes (variables aléatoires) indépendantes. Cette loi joue un rôle capital en probabilité et en statistique. De…nition 1 On appelle loi de Gauss (ou loi normale, loi de Laplace-Gauss) centrée et réduite, une loi de probabilité de densité dé…nie sur R telle que : 1 f (x) = p e 2 3 x2 2 1.1.1 Propriétés La fonction f (x) est bien une densité de probabilité. Elle est positive et de plus : Z +1 x2 1 p e 2 dx = 1 2 1 R +1 R +1 1 2 2 En e¤et, considérons l’intégrale double 1 1 e 2 (x +y ) dxdy. Par ailleurs, en utilisant le changement des coordonnées cartésiennes en coordonnées polaires, on a : Z +1 Z +1 Z 2 Z +1 1 1 2 2 +y 2 x ( ) e 2 d e 2 d =2 dxdy = 1 1 0 De plus, en utilisant Fubini, on a : Z Z +1 Z +1 1 x2 +y 2 ) ( 2 e dxdy = 1 1 En posant I = 1.1.2 R +1 1 e 1 2 x 2 +1 e 0 1 2 x 2 Z dx 1 +1 e 1 2 y 2 dy =2 1 dx, on aura alors I 2 = 2 . D’où le résultat : 1 p 2 Z +1 e x2 2 dx = 1 1 Moments particuliers Moyenne La loi de probabilité de Gauss est dite centrée si elle est de moyenne nulle. Z +1 x2 x p e 2 dx = 0 2 1 En e¤et : Z +1 xe 1 x2 2 dx = lim A!1 Z +A xe x2 2 dx = 0 A car c’est l’intégrale d’une fonction impaire sur un intervalle symétrique. 4 Variance La loi de probabilité de Gauss est dite réduite si sa variance est égale à l’unité. En e¤et Z +1 2 Z +1 2 x2 x2 x x 2 p e 2 dx = 2 p e 2 dx E(X ) = 2 2 0 1 " #+1 Z x2 +1 x2 xe 2 1 p p e 2 dx = 1 = + 2 2 1 1 x2 en intégrant par partie et en posant u = x et dv = xe 2 . D’où Z +1 2 x2 x 2 p e 2 dx = 1 E(X ) = 2 1 Comme la moyenne est nulle alors la variance est égale au moment d’ordre 2 ; d’où le résultat. Remarque 2 La loi de probabilité de Gauss centrée et réduite est aussi appelée loi standard et sera notée N1 (0; 1). 1.1.3 Fonction caractéristique Proposition 3 La transformée de Fourier de la loi N1 (0; 1) est telle que ' (t) = e t2 2 . Démonstration : Par dé…nition, on a : Z +1 1 itX ' (t) = E e =p eitx e 2 1 Par ailleurs, e D’où 1 2 (x2 2itx) =e ' (t) = e t2 2 1 2 Z f(x +1 1 it)2 +t2 g 1 p e 2 5 =e t2 2 1 (x 2 it)2 e x2 2 1 (x 2 dx it)2 dx = e . t2 2 1.1.4 Loi normale quelconque Proposition 4 Soit X une variable aléatoire de loi N1 (0; 1), la variable aléatoire Y = aX + b (où a 6= 0 et b sont deux réels quelconques) suit une loi de densité de probabilité g (y) dé…nie sur R telle que : 1 g (y) = p e a 2 1 2 2 ( ya b ) La moyenne de Y est égale à b et sa variance à a2 . Démonstration : Considérons une fonction h continue à support compact. Alors, Z +1 1 2 1 E fh(Y )g = E fh (aX + b)g h(ax + b) p e 2 x dx 2 1 On é¤ectue le changement de variable y = ax + b avec x = Par conséquent, Z +1 1 z b 2 1 h(y) p e 2 ( a ) dz E fh(Y )g = a 2 1 y b a et dx = D’où, d’après une proposition établie plus haut, on déduit que g (y) = où y 2 R, est la densité de probabilité de Y . p1 a 2 dy . a e 1 2 Remarque 5 Il est clair que : E (Y ) = E (aX + b) = aE (X) + b = b et d’autre part V ar (Y ) = V ar (aX + b) = a2 V ar (X) = a2 De…nition 6 La loi de probabilité d’une variable aléatoire de densité g (y) dé…nie sur R telle que : 1 g (y) = p e a 2 1 2 2 ( ya b ) s’appelle loi de Gauss (ou loi normale, loi gaussienne) de moyenne b et de variance a2 et sera notée N1 (b; a2 ). 6 2 ( ya b ) Remarque 7 Nous constatons que la loi de Gauss est une loi à deux paramètres, la moyenne et la variance. Dans la pratique ce sont ces deux paramètres qu’il s’agira de déterminer. Par exemple, pour …xer la vraie valeur d’une constante physique au vue d’un échantillon de n mesures indépendantes, on fera l’hypothèse de Gauss : les mesures sont des variables aléatoires indépendantes de loi gaussienne de paramètres inconnus et on cherchera les valeurs des paramètres les mieux adaptées aux n mesures observées. Proposition 8 La transformée de Fourier ' (t) de la loi N1 (b; a2 ) est dé…nie telle que : 1 2 2 ' (t) = eitb e 2 a t Démonstration : Par dé…nition, on a : ' (t) = E eitY D’autre part, Y = aX + b avec X N (0; 1), d’où : ' (t) = E eit(aX+b) = eitb E eitaX = eitb e 7 1 2 2 a t 2 Chapitre 2 Lois de Gauss bidimensionnelles 2.1 Loi de Gauss bidimensionnelle centrée Une loi de Gauss centrée est obtenue en posant b = 0, et donc elle admet pour densité de probabilité une fonction f dé…nie telle que : 1 f (x) = p e a 2 x2 2a2 (2.1) 1 L’expression 2:1 est du type Ce 2 q(x) où q(x) est une forme quadratique en x. La généralisation la plus naturelle en dimension 2 est donc de considérer les densités de probabilité (s’il en existe) de la forme : f (x1 ; x2 ) = Ce 1 q(x1 ;x2 ) 2 où q (x1 ; x2 ) = a1 x21 + 2bx1 x2 + a2 x22 est une forme quadratique en x1 ; x2 . Pour que f soit une densité de probabilité il faut et il su¢ t (puisque f > 0 dès que C > 0) que : Z +1 Z +1 f (x1 ; x2 ) dx1 dx2 = 1 1 1 On est donc amené à se demander s’il existe des constantes C; a1 ; a2 ; b telles que : Z +1 Z +1 1 2 2 C Ce 2 (a1 x1 +2bx1 x2 +a2 x2 ) dx1 dx2 = 1 (2.2) 1 1 8 Proposition 9 L’égalité 2:2 est véri…ée dès que : a1 + a2 > 0 aa b2 > 0 p 1 2 a1 a2 b 2 = C 2 Démonstration : En notation matricielle, la forme quadratique q (x1 ; x2 ) peut s’écrire telle que : q (x1 ; x2 ) = x1 x2 en notant par x le vecteur colonne a1 b b a2 x1 x2 x1 x2 = x0 Bx , par x0 sa transposée et par B la a1 b . b a2 B est symétrique donc diagonalisable par une transformation orthogonale des axes tellle que : y1 x1 =T y2 x2 matrice où T est une matrice orthogonale (i.e. T 0 = T 1 , en notant T 0 la transposée de T ). Alors, 0 q (x1 ; x2 ) = x0 Bx = (T 0 y) BT 0 y = y 0 T BT 0 y où T BT 0 est une matrice diagonale telle que : T BT 0 = 1 0 0 2 Par ailleurs, le jacobien de la transformation y = T x est l’unité. D’où Z +1 Z +1 Z +1 Z +1 1 0 1 q(x ;x ) 1 2 dx1 dx2 = e 2 x Bx dx1 dx e 2 1 1 1 1 Z +1 Z +1 1 2 2 = e 2 ( 1 y1 + 2 y2 ) dy1 dy2 1 1 Z +1 Z +1 1 1 2 2 y 1 = e 2 1 dy1 e 2 2 y2 dy2 1 9 1 Ces intégrales n’ont de sens que si a alors : Z Z +1 1 2 y 1 e 2 1 dy1 1 > 0 et 1 +1 e 1 2 1 2 2 2 y2 > 0. Sous ces conditions, on dy2 = p p2 Finalement, d’après la relation 2:2, on a C p 1 2 C= 2 1 2 2 1 2 = 1, d’où : Mais on sait que 1 et 2 sont les valeurs propres de la matrice B, i.e. elles sont solution de l’équation du second degré : a1 b b a2 2 = 0 qui s’écrit (a1 + a2 ) + a1 a2 b2 = 0 Il est aisé de véri…er que le discriminant est positif. De plus, les racines sont positives si et seulement si leur somme et leur produit sont positifs, i.e. si : a1 + a2 > 0 et a1 a2 b2 > 0 On a alors : p 1 2 = p a1 a2 b2 d’où le résultat de la proposition. On peut aussi démontrer la proposition (9) sans utiliser les techniques de l’algère linéaire, en intégrant d’abord en x1 puis en x2 . a1 b véri…ant les condib a2 tions a1 +a2 > 0 et a1 a2 b2 > 0, est appelée matrice dé…nie positive. Comme nous venons de le voir, il est équivalent de dire que ses valeurs propres sont 0 strictement positives ou encore que pour tout x = x1 x2 6= 0 0 , x0 Bx > 0. Remarque 10 Une matrice symétrique B = De…nition 11 Sous les hypothèses de la proposition (9), une loi de probabilité de densité f (x1 ; x2 ) est appelée loi de Gauss bidimensionnelle centrée. 2.2 Propriétés On considère dans ce qui suit un couple variables aléatoires centrées (X1 ; X2 ) de densité de probabilité f (x1 ; x2 ). 10 2.2.1 Lois marginales des variables aléatoires X1 et X2 Les densités des lois marginales sont obtenues par intégration de f (x1 ; x2 ) par rapport à l’une ou l’autre des variables, soit : Z Z +1 1 1 1 2 2 q(x ;x ) a x 1 2 1 e 2 dx2 = Ce 2 1 e 2 (a2 x2 +2bx1 x2 ) dx2 g1 (x1 ) = C 1 On sait que : a2 x22 + 2bx1 x2 = a2 x2 + D’où 1 2 g1 (x1 ) = Ce Or D’où Z +1 e a1 1 a 2 2 b2 a2 x21 Z b x1 a2 +1 x2 + ab x1 1 a 2 2 e 2 b2 2 x a2 1 x2 + ab x1 2 2 dx2 1 2 2 dx2 = 1 g1 (x1 ) = p 2 1 q a2 a1 a2 b2 e 1 2 r 2 a2 a1 a2 b2 a2 x21 Donc la loi marginale de X1 est la loi normale N1 0; a1 aa22 b2 . Et en changeant l’indice 1 en l’indice 2 dans ce qui précède, on déduit que la densité de probabilité de X2 est telle que : g2 (x2 ) = p 2 1 q a1 a1 a2 b2 e 1 2 a1 a2 b2 a1 x22 Donc, la loi marginale de X2 est la loi normale N1 0; a1 aa21 b2 . Il est clair que les projections X1 et X2 sont aussi centrées, et que : V ar (X1 ) = a2 a1 a2 b2 et V ar (X2 ) = 11 a1 a1 a2 b2 2.2.2 Covariance entre X1 et X2 Les variables aléatoires X1 et X2 étant centrées donc de moyennes nulles, alors le calcul de la covariance nous donne : Z +1 Z +1 x1 x2 f (x1 ; x2 ) dx1 dx2 Cov (X1 ; X2 ) = E (X1 X2 ) = C 1 1 Z +1 Z +1 2 2 a2 bx 1 a1 ab x21 x2 + a 1 2 2 2 2 x1 e = C x2 e dx2 dx1 1 1 1 , l’intégrale entre accolades Après le changement de variable u = x2 + bx a2 s’écrit telle que : Z +1 Z +1 a2 bx1 1 bx1 2 x + 2 a2 x2 e 2 dx2 = u e 2 a2 u du a2 1 1 Z +1 bx1 1 a2 u2 e 2 = du 1 a2 p 2 = bx1 3 a22 D’où Cov (X1 ; X2 ) = = Cb Cb p 2 3 2 a p2 2 3 2 a2 Z +1 x21 e 1 2 a1 b2 a2 x21 dx1 1 p 2 a1 b2 a2 3 2 = b a1 a2 b2 Proposition 12 Les variables aléatoires X1 et X2 sont indépendantes si et seulement si Cov (X1 ; X2 ) = 0. Démonstration : Si les variables aléatoires X1 et X2 sont indépendantes, on sait que Cov (X1 ; X2 ) = 0. Réciproquement, Cov (X1 ; X2 ) = 0 () b = 0 () B = D’où f (x1 ; x2 ) = Ce 1 a x2 2 1 1 e a1 0 0 a2 1 a x2 2 2 2 Par conséquent, la densité du couple (X1 ; X2 ) étant le produit des densités de X1 et de X2 , alors X1 et X2 sont indépendantes. 12 2.2.3 Matrice de covariances du couple (X1 ; X2 ) De…nition 13 On appelle matrice de covariances ou matrice de dispersion la matrice D dé…nie telle que : D= V ar (X1 ) Cov (X1 ; X2 ) Cov (X1 ; X2 ) V ar (X2 ) Example 14 D’après les résultats précédents, on peut exprimer la matrice de dispersion D de X1 et X2 telle que : D= 1 a1 a2 b2 a2 b b a1 Proposition 15 La matrice de dispersion D est l’inverse de la matrice de la forme quadratique q (x1 ; x2 ), i.e. : D=B 1 Remarque 16 La loi de probabilité de densité f (x1 ; x2 ) sera alors notée N2 (0; D) par analogie avec le cas unidimensionnel (il faut se rappeler que D joue en dimension > 1 le même rôle que la variance). De plus, D est une matrice dé…nie positive car ses valeurs propres sont > 0. 2.3 Loi gaussienne bidimensionnelle centrée et réduite De…nition 17 Dans le cas particulier où : B= 1 0 0 1 = I2 i.e. D = B = I2 on obtient la loi normale N2 (0; I) de densité de probabilité f (x1 ; x2 ) telle que : 1 12 (x21 +x22 ) e f (x1 ; x2 ) = 2 Alors, la loi N2 (0; I) est appelée loi normale bidimensionnelle centrée et réduite. 13 On va montrer qu’à partir de cette loi on retrouve naturellement toutes les lois bidimensionnelles centrées. Reprenons les notations de la démonstration de la proposition (9). On a vu qu’il existe une matrice T telle que T BT 0 soit diagonale, i.e. T BT 0 = où 1 0 0 2 0 > 0 , 2 > 0 et T T = I. On peut alors écrire : 1 0 T BT = 0 1 0 = 0 p p0 1 0 En posant T 0 p0 1 0 2 et donc B=T p p 0 1 p 2 p 1 0 2 p0 p0 1 0 p0 2 T 2 =R 2 Il vient que : B = RR0 Remarque 18 S’il existe une matrice R telle que B = RR0 , on dit alors que R est la racine de B. De plus R est de rang 2. Posons A = (R0 ) 1 (A de rang 2), alors il vient que D = B 1 = (R0 ) 1 R 1 et donc D = AA0. Soit Y un vecteur aléatoire de loi N2 (0; I). Posons X = AY et cherchons 0 la loi de X. On remarque d’abord que B = (AA0 ) 1 . D’où, si on pose x = 0 x1 x2 et y = y1 y2 , on aura : 1 x0 Bx = x0 (A0 ) A 1x = y0y où x = Ay ou bien y = A 1 x. Soit h une fonction continue à support compact dé…nie sur R2 , alors : Z+1Z+1 1 1 2 2 h (y1 ; y2 ) e 2 (y1 +y2 ) dy1 dy2 E [h(X)] = E [h(AY )] = 2 1 1 Z+1Z+1 1 h (x1 ; x2 ) e = 2 1 1 14 1 0 x Bx 2 1 dx1 dx2 jdet (A)j où l’on a procédé au changement de variable x = Ay de jacobien 1 . det (A 1 ) = det(A) 1 Par conséquent, le vecteur aléatoire X a pour densité 2 jdet(A)j e 0 1 R2 . Par ailleurs, AA = D = B 1 , d’où jdet Aj = pdet B = p @y @x 1 0 x Bx 2 1 . a1 a2 b2 = sur On retrouve bien la loi étudiée plus haut. Proposition 19 Soit B une matrice dé…nie positive quelconque, il existe 0 alors une matrice A de même rang que B telle que AA = B 1 . De plus, si Y est un vecteur aléatoire de loi N2 (0; I), alors X = AY admet une loi de probabilité de densité f (x1 ; x2 ) telle que : p det B 1 x0 Bx e 2 f (x1 ; x2 ) = 2 0 x1 x2 . où x = Remarque 20 La proposition ci-dessus aurait pu être énoncée telle que : Soit D une matrice dé…nie positive quelconque et soit Y un vecteur aléatoire de loi de probabilité N2 (0; I). Alors il existe une matrice A de même rang que 0 D telle que AA = D et le vecteur aléatoire X = AY est de loi N2 (0; D). 2.4 Lois gaussiennes conditionnelles 0 Soit X = X1 X2 un vecteur aléatoire de loi de probabilité de densité f (x1 ; x2 ). On sait que la densité de la loi conditionnelle de la variable aléatoire X2 sachant X1 = x1 , notée fX1 =x1 (x2 ), est déterminée telle que : f (x1 ; x2 ) fX1 =x1 (x2 ) = Z+1 f (x1 ; x2 ) dx2 1 1 q(x1 ;x2 ) 2 Dans le cas gaussien f (x1 ; x2 ) = Ce f (x1 ; x2 ) Z+1 f (x1 ; x2 ) dx2 = 1 q(x1 ;x2 ) 2 Ce C 0e 1 2 a1 b2 a2 x21 1 = Ke 1 a 2 2 x2 + ab x1 2 15 . Alors = Ke 2 1 2 b2 +2bx1 x2 +a2 x22 a2 où K = p a p 2. 2 D’où Proposition 21 La loi conditionnelle de X2 sachant X1 = x1 est la loi N1 ( ab2 x1 ; a12 ). Remarque 22 La moyenne de la loi conditionnelle de X2 sachant X1 = x1 est une fonction linéaire de x1 et elle est notée telle que : E [X2 /X1 = x1 ] = b x1 a2 Par contre sa variance ne dépend pas de x1 et est égale à : V ar(X2 ) = 1 a2 Si b = 0 alors Cov(X1 ; X2 ) = 0 et donc la loi conditionnelle de X2 sachant X1 = x1 est une une loi N1 (0; a12 ). C’est la loi marginale de X2 et elle ne dépend pas de x1 . Et donc les variables aléatoires X2 sont indépendantes. 2.5 Lois gaussiennes bidimensionnelles quelconques A partir des lois gaussiennes bidimensionnelles centrées on peut engendrer par translation n’importe quelle loi gaussienne bidimensionnelles. En e¤et, supposons que X = (X1 ; X2 ) soit distribué suivant une loi gaussienne bidi0 mensionnelle centrée. Soit b = (b1 ; b2 ) un vecteur quelconque de R2 . Alors par dé…nition la variable aléatoire bidimensionnelle Y = X + b est distribuée suivant une loi gaussienne de vecteur moyenne b et de matrice de dispersion, la matrice de dispersion de X. 16 Chapitre 3 Lois de Gauss de dimension p Soit X1 ; X2 ; :::Xp , p variables aléatoires indépendantes de même loi normale N (0; 1). Il est clair que la loi du vecteur aléatoire X1 X2 ::: Xp est dé…nie sur Rp et est égale à la loi conjointe f (x1 ; x2 ; :::; xp ) des variables aléatoires X1 ; X2 ; :::Xp . De…nition 23 On appelle loi de Gauss ou loi normale centrée réduite de dimension p une loi de densité de probabilité dé…nie sur Rp telle que : p X 1 p x2i 2 1 i=1 e f (x1 ; x2 ; :::; xp ) = p 2 Elle est, en général, notée Np (0; I). Remarque 24 La somme p X x2i est une forme quadratique en x1 ; x2 ; :::xp . i=1 Il est possible alors de suivre la même démarche que précédemment pour déterminer la densité d’un vecteur gaussien quelconque. Soit (X1 ; X2 ; :::Xp ) un vecteur aléatoire de loi Np (0; I) alors E (Xi ) = 0 et V ar (Xi ) = 1 pour tout i, puisque la loi de Xi est une loi N1 (0; 1). De plus, si i 6= j Cov (Xi ; Xj ) = 0 puisque Xi et Xj sont indépendantes. D’où la p matrice de dispersion 1 de (X1 ; X2 ; :::Xp ) est la matrice identité de R , I = 0 1 0 ::: 0 B 0 1 ::: ::: C C B @ ::: ::: ::: 0 A.Ceci justi…e la notation Np (0; I). 0 ::: 0 1 17 3.1 Cas général Nous pourions comme dans le chapitre précédent, chercher les conditions 1 sur une forme quadratique q (x1 ; x2 ; :::xp ) pour que l’expression Ce 2 q(x1 ;x2 ;:::xp ) soit une densité de probabilité et introduire ainsi les lois de Gauss de dimension p. Pour renouveler l’intérêt nous allons cette fois procéder à l’envers et adopter la dé…nition suivante. De…nition 25 Soit X = (X1 ; X2 ; :::Xp ) un vecteur aléatoire de loi Np (0; I). Soit A une matrice p p de rang p et soit b un vecteur (colonne) de Rp . Alors, le vecteur aléatoire Y = AX + b suit une loi de Gauss de dimension p. Proposition 26 La loi de probabilité du vecteur aléatoire Y admet une densité de probabilité g dé…nie sur Rp telle que : g(y) = p où y 0 = 1 2 p jdet Aj e 1 (y 2 b)0 [AA0 ] 1 (y b) y1 y2 ::: yp . Démonstration : Pour déterminer la densité g de Y , il su¢ t de la faire apparaître dans le calcul de E [h(Y )] pour une fonction h continue à support compact quelconque de Rp dans R tel que : E [h(Y )] = E [h(AX + b)] = 0 où x = x1 x2 ::: xp Z +1 ::: 1 0 et x x = Z +1 1 p X 1 h (Ax + b) p 2 1 2 pe p X i=1 x2i dx1 :::dxp x2i . i=1 La matrice A est de rang p (rang plein) donc elle est inversible. Par ailleurs, on e¤ectue le changement de variables de Rp dans Rp tel que : x ! y = Ax + b avec x = A 1 Le jacobien de la transformation est alors : Dx = det A Dy 18 1 = 1 det A (y b) D’où E [h(Y )] = Or [A 1 Z +1 ::: 1 0 (y E [h(Y )] = b)] [A Z +1 1 Z +1 1 h(y) p 1 2 p jdet Aj e 1 2 [A 1 (y 0 b)] [A 1 (y (y b)] = (y b)0 [AA0 ] 1 (y b), d’où Z +1 0 1 1 0 1 h(y) p ::: e 2 (y b) [AA ] (y p 2 jdet Aj 1 b)] dy1 :::dyp 1 b) dy1 :::dyp Corollaire 27 Le vecteur Gaussien Y est tel que : E(Y ) = b et D(Y ) = AA0 où D(Y ) est la matrice de dispersion du vecteur Y . Démonstration : En e¤et, E(Y ) = E(AX + b) = AE(X) + b = b Et D(Y ) = E (AX + b b) (AX + b b)0 = E [AX(AX)0 ] = AE(XX 0 )A0 = AA0 0 Car E(XX ) = D(X) = I. Proposition 28 Soit Y = (Y1 ; Y2 ; :::; Yp ) un vecteur aléatoire gaussien de Rp . Alors, les variables aléatoires Yk sont distribuées suivant des lois de Gauss, et pour (t1 ; t2 ; :::; tp ) 2 Rp , il en est de même pour les variables aléap X toires ti Yi . i=1 Démonstration : Soit Y = AX + b où A = (aij )i;j=1;:::;p . Alors Yk = X akj Xj + bk j=1p 19 1 k p Et donc la fonction caractéristique de Yk pour 0 X 1 p i bk i Yk =e E e B i EB @e akj Xj j=1 6= 0, est telle que : C C = ei A bk E " p Y i akj Xj e j=1 # Or les variables aléatoires Xj ; j = 1; 2; :::; p sont indépendantes, donc E ei Yk = ei p Y bk 1 2 E ei akj Xj = ei bk e j=1 2 p X a2kj j=1 C’est évidemment la fonction caractéristique d’une variable aléatoire de Gauss. p X On procède de même pour montrer que ti Yi est une variable aléatoire de i=1 Gauss. En e¤et, on remarque que l’on a : p X ti Yi = i=1 p X k=1 tk bk + p X tk p X akj Xj = j=1 k=1 p X tk bk + p X j=1 k=1 Xj p X tk akj k=1 Et on continue comme précédemment pour les Yk . Proposition 29 La fonction caractéristique de la variable aléatoire Y de loi Np (b; D(Y )) est telle que : 0 'Y (t1 ; t2 ; :::; tp ) = eit b e 1 0 t D(Y 2 )t où b = E(Y ): Démonstration : En reprenant les notations de la proposition (30), on peut écrire : 2 X 3 p tk Yk 6 i 7 6 7 k=1 bY (t1 ; t2 ; :::; tp ) = E 4e 5 = Z Rp i e p X tk yk k=1 20 g (y1 ; y2 ; :::; yp ) dy1 dy2 :::dyp Or p X k=1 tk Yk = p X tk bk + p X Xj j=1 k=1 1 2 0 Donc bY t1 ; t2 ; :::; tp = eit b e p p X X j=1 k=1 tk akj p X 0 tk akj = t b + k=1 0 p p X X j=1 !2 B @ k=1 12 C tk akj A p X j=1 Xj p X tk akj k=1 et alors on a : = t0 A(t0 A)0 = t0 AA0 t = t0 D(Y )t d’où le résultat. Remarque 30 Soit B une matrice p p symétrique de rang p. Elle est dite dé…nie positive si l’une des 3 propriétés équivalentes suivantes est satisfaite : a) les valeurs propres de la matrice B sont strictement positives. b) il existe une matrice A (p p) de rang p telle que B = AA0 . c) pour tout vecteur colonne non nul x de Rp on a x0 Bx > 0. Proposition 31 Soit D une matrice p p dé…nie positive quelconque et soit b un vecteur de Rp . Il existe un vecteur aléatoire Y de Rp de loi Np (b; D). Démonstration : La matrice D peut être écrite sous la forme AA0 . Alors d’après la proposition (30), si X est de loi Np (0; I), Y = AX + b est de loi Np (b; D). Proposition 32 Soit Y = (Y1 ; Y2 ; :::; Yp )0 de loi Np (b; D) avec D = AA0 et soient Z1 = (Y1 ; Y2 ; :::; Yk )0 et Z2 = (Yk+1 ; Yk+2 ; :::; Yp )0 1 k p …xé. Alors Z1 et Z2 sont gaussiens et ils sont indépendants si et seulement si Cov (Yi ; Yj ) = 0 dès que 1 i k et k + 1 j p. Démonstration 0 0 1 1: Montrons que Z1 est un vecteur gaussien de loi b1 Np @@ ::: A ; D(Z1 )A. bk La fonction caractéristique de (Y1 ; Y2 ; :::; Yk )0 est donnée par : 2 k 3 k X X tj Yj 7 i tj bj 6 i 1 0 6 j=1 7 j=1 E 6e e 2 t(k) D(Y )t(k) 7 = bY (t1 ; t2 ; :::; tk ; 0; :::; 0) = e 4 5 21 où t(k) = (t1 ; t2 ; :::; tk ; 0; :::; 0)0 . 1 0 b b La deuxième exponentielle peut s’écrire telle que e 2 t(k) D(Z1 )t(k) où b t(k) = (t1 ; t2 ; :::; tk )0 . En e¤et, D(Y ) = (Cov (Yi ; Yj )) 1 i p et D(Z1 ) = (Cov (Yi ; Yj )) 1 i k . D’autre 1 j p 1 j k 0 0 part, ceci montre que b t(k) D(Z1 )b t(k) = t(k) D(Y )t(k) > 0 dès que t1 ; t2 ; :::; tk sont non tous nuls. Donc D(Z1 ) est dé…nie positive d’après le point (c) de la remarque ci-dessus. Il existe donc d’après le point (a) de la remarque ci0 . Mais si T dessus une matrice A1 (k k) 0 de rang 1 k telle que D(Z1 ) 2=0A1 A11 31 b1 b1 suit une Nk (0; I), alors A1 T1 + @ ::: A suivra une loi Nk 4@ ::: A ; D(Z1 )5, bk bk donc d’après la proposition (31) aura la même2fonction caractéristique que 1 3 0 b1 Z1 donc aura la même loi, d’où Z1 suit la loi Nk 4@ ::: A ; D(Z1 )5. De même bk 20 1 3 bk+1 0 Z2 suit la loi Np k 4@ ::: A ; D(Z2 )5 où on posera D(Z2 ) = A2 A2 avec A2 bp (p k) (p k) de rang p k (même construction que pour Z1 ). Z1 et Z2 sont indépendantes si et seulement si la loi de (Z1 ; Z2 ) c’est à dire la loi de Y est égale au produit des lois de Z1 et de Z2 soit si et seulement si : p 1 2 p jdet Aj e 1 (y 2 b)0 [AA0 ] 1 (y b) = p p 1 2 2 k e jdet A1 j 1 p k 1 2 e (z1 1 2 0 b(1) ) [A1 A01 ] (z2 1 (z1 0 b(2) ) [A2 A02 ] 1 (z2 jdet A2 j où z1 = (y1 ; :::yk )0 , b(1) = (b1 ; :::; bk )0 , z2 = (yk+1 ; :::yp )0 , b(2) = (bk+1 ; :::; bp )0 . Mais si Cov (Yi ; Yj ) = 0, 1 i k et k + 1 j p alors : D(Y ) = AA0 = D(Z1 ) 0 0 D(Z2 ) 0 = A 1 A1 0 0 0 A 2 A2 L’égalité est alors véri…ée car l’inverse conserve la même forme. Réciproquement, si Z1 est indépendant de Z2 , alors toute variable aléatoire liée à Z1 est indépendante de toute variable aléatoire liée à Z2 , en particulier 22 b(1) ) b(2) ) Yi est indépendante de Yj dès que 1 Cov (Yi ; Yj = 0). i k et k + 1 j p, donc 0 Corollaire 33 Soit Y = (Y1 ; Y2 ; :::; Yp ) un vecteur aléatoire de Rp de distribution de Gauss de dimension p. Pour que les Yi soient indépendants il faut et il su¢ t que la matrice de dispersion de Y soit diagonale. Démonstration : C’est une application immédiate de la proposition (12). Proposition 34 Si Y suit une loi de Gauss de dimension p, si B est une matrice p p de rang p et si c est un vecteur de Rp alors Z = BY + c suit une loi de Gauss de dimension p. Démonstration : Le vecteur gaussien Y s’écrit en général AX + b avec A de rang p et X suivant une loi Np (0; I), donc Z = BY +c = BAX +Bb +c et BA est de rang p. Corollaire 35 Si Y suit une loi de Gauss de dimension p et si C est une matrice q p de rang q (donc q p) alors Z = CY suit une loi de Gauss de dimension q. b (p p) de rang p et Démonstration : On complète C en une matrice C b qui est de loi gaussienne de dimension p, il su¢ t alors de on dé…nit Zb = CY remarquer que Z est une projection de Zb et d’appliquer la proposition (12). 23 Chapitre 4 Régression et prédiction dans les espaces gaussiens 4.1 Cas bidiemensionnel Soit X = (X1 ; X2 )0 un vecteur gaussien de dimension 2. Nous avons constaté que la loi conditionelle de X2 sachant X1 = x1 est la distribub x ; 1 . Sa moyenne est une fonction linéaire de x1 calculée tion N1 a2 1 a2 prédédemment telle que : E [X2 / X1 = x1 ] = b Cov(X1 ; X2 ) x1 x1 = a2 V ar (X1 ) Quel sens donner à ce résultat ? Example 36 Supposons que dans une population donnée on observe les tailles des pères de famille et des ainés de leurs enfants ; soit, respectivement, X1 et X2 . On peut supposer (hypothèse de Gauss) que le couple (X1 ; X2 ) suit une loi de Gauss centrée (en retranchant du couple (X1 ; X2 ) le vecteur des tailles moyennes (m1 ; m2 )). Dans ce modèle, la taille des …ls X2 suit une loi de Gauss N (0; 22 ) (dans l’ensemble de la population), mais si l’on se restreint à la sous-population des …ls dont les pères ont une taille …xée x1 , la loi 1 ;X2 ) 1 ;X2 ) de X2 est une distribution N1 Cov(X x1 ; a12 et sa moyenne Cov(X x1 V ar(X1 ) V ar(X1 ) indique la taille "espérée" d’un …ls ainé dont le père est de taille x1 . Nous allons essayer de préciser ce que cela signi…e. 24 4.1.1 Principe de régression Pour plus de généralité nous allons considérer une loi de Gauss non centrée 1 de dimension 2, N2 (m; D) où m = et la matrice de dispersion D = 2 2 1 Cov (X1 ; X2 ) Cov (X1 ; X2 ) 2 2 . Proposition 37 Soit (X1 ; X2 ) un couple de variables aléatoires de loi N2 (m; D). Il existe deux réels 6= 0 et tels que : X2 = X1 + +Z (4.1) où Z est une variable aléatoire indépendante de X1 et de moyenne nulle. Démonstration : Posons Z1 = X2 X1 . Alors le couple (X1 ; Z1 ) est gaussien car : X1 1 0 X1 = Z1 1 X2 Et, on conclut en appliquant la proposition 36. Par ailleurs, Z1 et X1 sont indépendantes si et seulement si Cov (X1 ; Z1 ) = 0. Or, Cov (X1 ; Z1 ) = = = = E [(X1 E(X1 )) (Z1 e(Z1 ))] = E [(X1 (X1 1 )(X2 2 1 ))] = 2 E [(X1 E (X1 = 1 ) (X2 2 )] 1) Cov (X1 ; X2 ) V ar(X1 ) 1 ;X2 ) D’où Cov (X1 ; Z1 ) = 0 si et seulement si = Cov(X . Il su¢ t alors de V ar(X1 ) poser = E(Z1 ) = E (X2 X1 ) = 2 1 pour obtenir la proposition. En posant Z = Z1 (indépendante de X1 ) on aboutit à la relation 4:1. De…nition 38 La relation 4:1 s’appelle une régression de X2 en X1 . 4.1.2 Commentaire 1 Revenons au vecteur concret (X1 ; X2 )0 des tailles d’un père et de son …ls ainé, supposé cette fois-ci non centré, ce qui est plus naturel. Nous obtenons la décomposition suivante : X2 = X1 + 25 +Z (4.2) 1 ;X2 ) , = 2 où = Cov(X 1 et Z indépendant de X1 . V ar(X1 ) Puisque E(Z) = 0, la taille x2 espérée d’un …ls ainé connaissant x1 celle de son père est encore x1 + , mais la proposition 39 nous donne une précision supplémentaire qui peut s’énoncer sous forme de loi "biologique" : "la taille X2 d’un …ls ainé est fonction a¢ ne ( X1 + ) de la taille X1 de son père à une erreur aléatoire Z près indépendante de X1 ". Il faut évidemment se garder de toute interprétation littérale de cette "loi", il ne s’agit que d’un modèle d’une part et d’autre part l’erreur Z peut être prépondérante en fait. Qu’en est-il exactement ? Z suit un loi de Gauss (puisque Z = Z1 et que Z1 suit une loi de Gauss) de moyenne nulle et de variance : V ar(Z) = E Z 2 = E (X2 ( X1 + ))2 Si cette variance est grande l’équation 4:2 ne nous fournit pratiquement aucune information sur X2 lorqu’on connait X1 (Z est très dispersée et peut prendre de grandes valeurs avec une probabilité importante) si au contraire V ar(Z) est petite l’équation 4:2 nous dit que X2 ' X1 + avec une probabilité proche de 1. Tout dépend …nalement de V ar(Z). et fournissent-ils un minimum à la fonction : V (a; b) = E (X2 (aX1 + b))2 (4.3) Proposition 39 On conserve les notation de la proposition précédente, alors la fonction dé…nie par 4:3 atteint son minimum pour a = et b = . Démonstration : Nous allons développer V (a; b) telle que : V (a; b) = E f(X2 2) 2 a (X1 2 = E (X2 2 ) + a E (X1 2aE [(X1 1 ) (X2 1) 2 1) b+ +( 2 2 a 1 g2 a 1 b)2 2 )] Les autres termes du développement sont nuls. Alors, V (a; b) = 2 2 + a2 2 1 +( 2 a 1 b)2 2aCov (X1 ; X2 ) Le minimum de la fonction V (a; b) est solution des équations : @V (a; b) @V (a; b) = 0 et =0 @a @b 26 Ainsi, 2 1 ( 2 a b) 1 2( D’où 2 2Cov (X1 ; X2 ) + 2a a 1 2 1 =0 b) = 0 Cov(X1 ; X2 ) = V ar(X1 ) b= 2 1 = a= Cette solution est unique. D’autre part, si a et b tendent vers 1 alors V (a; b) tend vers 1. Donc c’est nécessairement un minimum. De…nition 40 Si et réalise le minimum de V (a; b) on dit que X1 + est une prédiction (a¢ ne) de X2 sachant X1 . 4.1.3 – Commentaire 2 et sont donc particulièrement bien choisis puisqu’ils fournissent une régression (a¢ ne) de X2 en X1 et une prédiction (a¢ ne) de X2 sachant X1 . On a à la fois : X2 = X1 + + Z avec Z indépendant de X1 et E(Z) = 0 et E (X2 ( X1 + ))2 = V ar(Z) minimum On ne peut espérer plus dans le cadre de cette théorie. – L’hypothèse essentielle pour obtenir ces résultats est évidemment l’hypothèse de Gauss : (X1 ; X2 ) suit une loi N2 (m; D). Il ne faut surtout pas croire que ces résultats s’étendent à d’autres lois continues (ou non). – La proposition 41 nous fournit d’autre part un moyen de calcul pratique de et . En e¤et, dans la pratique nous observons n réalisations de (X1 ; X2 ), c’est à dire n couples de tailles d’un père et de son …ls ainé, mais nous ignorons totalement m et D. La seule hypothèse que nous faisons est que (X1 ; X2 ) suit une loi N2 (m; D), pour m et D …xes mais inconnus. On peut représenter les n couples obtenus dans le plan rapporté à deux axes orthonormés. La "meilleure" droite s’ajustant au nuage des points sera d’équation x2 = x1 + , d’où un moyen pratique de calcul numérique de et sans connaitre les valeurs des paramètres m et D de la loi de (X1 ; X2 ). Les résultats obtenus se généralisent naturellement au cas multidimensionnel. 27 4.2 Cas de dimension p Proposition 41 Soient T et X deux vecteurs aléatoires à valeurs respectivement dans Rp et Rq et tels que le vecteur (T; X)0 à valeurs dans Rn (n = p + q) soit gaussien de loi Nn (m; D). On suppose q p. Il existe une matrice q p (q lignes et p colonnes) A unique de rang q et un vecteur de Rq tels que : X = AT + + Z avec Z indépendant de T et E(Z) = 0 Démonstration : Soit A une matrice q on peut écrire : (T; X p de rang q quelconque, alors Ip 0 A Iq AT ) = T X Donc, d’après la proposition 34 la variable aléatoire (T; X AT ) est un vecteur gaussien,. De plus, T et X AT sont indépendantes si et seulement si la D(T ) 0 matrice de dispersion de (T; X AT ) est du type . 0 D(X AT ) Or cette matrice de dispersion est égale à : Ip 0 A Iq où D = D Ip 0 A Iq 0 D(T ) et où l’on a posé = (Cov (Ti ; Xj )) 1 i p . D(X) 1 j q Donc, T et X AT sont indépendantes si et seulement si AD(T ) + = 0, soit A = (D(T )) 1 ce qui détermine A. Il su¢ t alors de poser Z = X AT E(X AT ) pour obtenir la proposition. De même, il est possible d’énoncer le résultat suivant : 0 Proposition 42 La matrice A rend minimum la quantité : E (X (At + ))0 (X 28 (At + )) Chapitre 5 Exemple : Loi des vitesses de Maxwell En mécanique statistique classique on considère des molécules se déplaçant dans l’espace ambiant à trois dimensions que l’on rapporte à une origine et à une unité de longueur.Par raison de symétrie on fait l’hypothèse suivante : – Dans tout système d’axes orthonormés les trois coordonnées (X1 ; X2 ; X3 ) du vecteur vitesse X d’une molécule sont des variables aléatoires indépendantes ayant pour densité conjointe la fonction continue f (x1 ; x2 ; x3 ). Proposition 43 Sous de telles hypothèses, la loi de probabilité de X est une loi de Gauss N3 (0; 2 I) où > 0. Démonstration : Soit (e1 ; e2 ; e3 ) une base orthonormée de l’espace ambiant que l’on identi…e à la base canonique de R3 . Dans cette base, les coordonnées de la vitesse sont notées (X1 ; X2 ; X3 ). Dans une nouvelle base orthonormale (b1 ; b2 ; b3 ) on sait que les nouvelles coordonnées (Y1 ; Y2 ; Y3 ) seront obtenues à partir des anciennes par une transformation orthogonale Y = T X. D’après l’hypothèse ci-dessus, la loi de Y doit être égale à la loi de X. En particulier pour toute fonction continu à support compact h de R3 dans R on doit avoir E [h(Y )] = E [h(X)], soit avec des notations évidentes : ZZZ ZZZ h (T x) f (x1 ; x2 ; x3 )dx1 dx2 dx3 = h(x)f (x1 ; x2 ; x3 )dx1 dx2 dx3 29 En procédant au changement de variable y = T x dans R3 de jacobien égal à 1, on obtient : Z Z 0 h(y)f (T y)dy = h(x)f (x)dx R3 R3 Et, comme c’est vrai pour toute fonction h continue à support compact, alors 0 pour toute matrice orthogonale T on a f (T x) = f (x) et par conséquent f (T x) = f (x) pour tout x 2 R3 . Soient x et y deux vecteurs de R3 de même longueur. Il existe au moins une rotation amenant x sur y. Il existe donc une transformation T orthogonale telle que y = T x, d’où f (x) = f (y). En conséquence, f n’est fonction que de la longueur de x, c’est à dire qu’il existe une fonction h de R+ dans R+ telle que : f (x1 ; x2 ; x3 ) = h(x21 + x22 + x23 ) (5.1) D’autre part, on sait que X1 ; X2 ; X3 sont indépendantes, donc h(x21 + x22 + x23 ) = f1 (x1 )f2 (x2 )f3 (x3 ). Comme le deuixième membre de l’égalité 5:1 est symétrique en x1 ; x2 ; x3 , le premier l’est aussi, d’où f1 = f2 = f3 . De plus, si on change dans 5:1 xi en xi , i = 1; 2; 3, f ne change pas, donc les fi ; i = 1; 2; 3. D’où, on a : f (x1 ; x2 ; x3 ) = g(x21 )g(x22 )g(x23 ) = h(x21 + x22 + x23 ) En faisant x1 = x2 = 0, il vient : g(x21 ) [g(0)]2 = h(x21 ) D’où, g(x2 ) = h(x2 ) . [g(0)]2 Finalement on obtient l’équation : h(x21 + x22 + x23 ) h(x21 )h(x22 )h(x23 ) = [g(0)]6 où la fonction h est continue. On sait que la seule solution de cette équation fonctionelle est h(x2 ) = Ae x . Et pour que ce soit une densité de probabilité dans R3 , nécessairement h doit être telle que : h(x21 + x22 + x23 ) = 1 p 2 3e La loi de (X1 ; X2 ; X3 ) est donc bien une N3 (0; 30 1 (x21 +x22 +x23 ) 2 2 2 I) pour > 0. Chapitre 6 Exercices 6.1 Exercice1 Montrer que la densité de probabilité d’une variable multinormale satisfait le système d’équations suivant : @2f @f = @ ij @xi @xj où ij 6.2 i;j sont les coe¢ cients de corrélation des Xi et Xj . Exercice2 Soient X et Y deux variables suivant une loi binormale non singulière. Montrer que les variables aléatoires X 2 + 2aXY + Y 2 et X 2 + 2bXY + Y 2 ne peuvent être indépendantes que si a et b ont tous deux des valeurs absolues égales à 1 et sont de signes opposés. 6.3 Exercice3 Trouver des conditions nécessaires et su¢ santes pour que trois nombres donnés 12 , 13 et 23 puissent être les coe¢ cients de corrélatio d’une distribution tridimentionnelle. 31 6.4 Exercice4 Faire une étude détaillée de la loi de Student. 6.5 Exercice5 Montrer que si X1 et X2 ont des densités et sont indépendantes, et si Y1 et Y2 combinaisons linéaires de X1 et X2 sont indépendantes, alors X1 et X2 sont indépendantes. 6.6 Exercice6 Soient X1 ; X2 ; :::; Xp , p variables normales indépendantes et réduites. On suppose que l’on a décomposé la somme des carrés de ces variables en k formes quadratiques : p X Xi2 = Q1 + Q2 + :::; +Qk i=1 où les Qi ; i = 1; 2; :::; k sont de rang ri ; i = 1; 2; :::; k. Montrer que l’une des trois conditions suivantes implique les deux autres : a. La somme des ri est égale à p. b. Chacune des formes quadratiques Qi est distribuée suivant une loi du 2 . c. Toute les formes quadratiques Qi sont indépentamment distribuées. 6.7 Exercice7 1. Si X1 ; X2 ; :::; Xn sont n variables normales indépendantes, montrer que n n X X 2 1 1 2 Xi X sont indépendants. X=n Xi et S = n i=1 i=1 2. Montrer que si X1 ; X2 ; :::; Xn sont n variables indépendantes et si X et S 2 sont indépendantes, alors les Xi sont des variables aléatoires normales. 32