Méthodes inverses Travaux dirigés Séance 5 — Coombinaison de distributions gaussiennes Semaine du 9 mars 2009 Rappels et Compléments Soit X une variable aléatoire continue. • Une densité de probabilité associée à X est une fonction fX (x) telle que 8 b P (b ≥ X ≥ a) = fX (x) dx a est la probabilité que X prenne une valeur x comprise entre a et b réels. On a $∞ f (x) dx = 1. −∞ X $b a fX (x) dx ≥ 0 et • La densité de probabilitée cumulée (cdf) associée à X est la fonction 8 x FX (x) = P (x ≥ X) = fX (u) du; −∞ ainsi la densité de probabilité de X est la dérivée de la cdf : fX (x) = FX (x). • L’espérance de la variable aléatoire continue X est définie par 8 ∞ E(X) = x fX (x) dx. −∞ • Si Y = g(X) est une fonction de la variable alatoire X, alors Y est aussi une variable aléatoire et son espérance est donnée par E(Y ) = 8 ∞ y fY (y) dy = −∞ 8 ∞ g(x) fX (x) dx. −∞ • La variance de la variable aléatoire X est définie par p Q 2 var(X) = E [X − E(X)] . • L’écart-type de la variable aléatoire X est la racine carrée de sa variance : 0 σ(X) = var(X). • Le k-ième moment de la variable aléatoire X est défini par E(X k ). • La fonction génératrice des moments de X est définie par MX (t) = E(etX ). Ses dérivées successives (k) sont égales aux moments : MX (t) = E(X k ). • La fonction caractéristique de X est définie par ΦX (t) = E(eitX ). Sa transformée de Fourier est la densité de probabilité, et ses dérivées successives permettent aussi de déterminer les moments. 0. Questions prliminaires • Montrer que E(αX) = αE(X), où α est un scalaire. • Montrer que E(X + Y ) = E(X) + E(Y ), où X et Y sont des variables aléatoires ayant la même densité de probabilité. • Montrer que E[X − E(X)] = 0. • Montrer que var(X) = E(X 2 ) − [E(X)]2 . 1. On rappelle que la loi gaussienne correspond à la densité de probabilité suivante : f (x) = √1 e− σ 2π (x−x0 )2 2σ 2 . Soient deux variables aléatoires indépendantes X et Y , représentées par deux distributions de probabilité gaussiennes fX (x) et fY (y). • Déterminer la densité de probabilité jointe fXY (x, y). 1 T • Déterminer le nombre K et les matrices A et C tels que fXY (x, y) = Ke− 2 A C−1 A . C est la matrice de covariance. Lorsque les variables aléatoires sont indépendantes, elle est diagonale. 2. Quand les variables aléatoires ne sont pas indépendantes, la matrice de covariance est une matrice symétrique non-diagonale w Wet ses éléments diagonaux sont les variances des variables aléatoires. Soit la 2 −2 matrice C = . Calculer la matrice diagonale D et celle de changement de base S, telles −2 5 que C = SDST . Que dire alors des composantes du vecteur SA ? 3. Soit fX1 X2 (x1 , x2 ) la densité de probabilité jointe des variables aléatoires X1 et X2 . Que sont les densités de probabilité marginales fX1 (x1 ) et fX2 (x2 ) ? 4. La covariance de deux variables aléatoires X1 et X2 est définie par 8 ∞8 ∞ cov(X1 , X2 ) = [x1 − E(X1 )][x2 − E(X2 )] fX1 X2 (x1 , x2 ) dx1 dx2 , −∞ −∞ et les éléments de la matrice de covariance sont donnés par 8 ∞8 ∞ [xi − E(Xi )][xj − E(Xj )] fXi Xj (xi , xj ) dxi dxj , Cij = −∞ −∞ où i et j valent 1 ou 2. • Montrer que cov(X, X) = var(X). • Montrer que si X et Y sont deux variables aléatoires indépendantes, cov(X, Y ) = 0. i D • On rappelle que cov(X, X) = var(X) = E [X − E(X)2 = E(X 2 ) − [E(X)]2 . Montrer que cette propriété peut se généraliser pour X1 et X2 deux variables aléatoires quelconques, cov(X1 , X2 ) = E ([X1 − E(X1 )][X2 − E(X2 )]) = E(X1 X2 ) − E(X1 )E(X2 ). 5. Soient X1 et X2 deux variables aléatoires gaussiennes, d’écart-types respectifs σ1 et σ2 , et fX1 X2 (x1 , x2 ) la densité de probabilité jointe de X1 et X2 . On précise que cette densité de distribution jointe peut se mettre sous la forme vue à la question 1, avec une matrice de covariance C non diagonale 0 et un facteur K donné par K −1 = 2π var(X1 )var(X2 ) − cov(X1 , X2 )2 . Déterminer les courbes fX1 X2 (x1 , x2 ) = constante, dans le plan (x1 , x2 ) en posant cov(X1 , X2 ) = rσ1 σ2 , où r est appelé le coefficient de corrélation (1 ≥ |r|).