Le fichier pdf du TD 5.

publicité
Méthodes inverses
Travaux dirigés
Séance 5 — Coombinaison de distributions gaussiennes
Semaine du 9 mars 2009
Rappels et Compléments
Soit X une variable aléatoire continue.
• Une densité de probabilité associée à X est une fonction fX (x) telle que
8 b
P (b ≥ X ≥ a) =
fX (x) dx
a
est la probabilité que X prenne une valeur x comprise entre a et b réels. On a
$∞
f (x) dx = 1.
−∞ X
$b
a
fX (x) dx ≥ 0 et
• La densité de probabilitée cumulée (cdf) associée à X est la fonction
8 x
FX (x) = P (x ≥ X) =
fX (u) du;
−∞
ainsi la densité de probabilité de X est la dérivée de la cdf : fX (x) = FX (x).
• L’espérance de la variable aléatoire continue X est définie par
8 ∞
E(X) =
x fX (x) dx.
−∞
• Si Y = g(X) est une fonction de la variable alatoire X, alors Y est aussi une variable aléatoire et son
espérance est donnée par
E(Y ) =
8
∞
y fY (y) dy =
−∞
8
∞
g(x) fX (x) dx.
−∞
• La variance de la variable aléatoire X est définie par
p
Q
2
var(X) = E [X − E(X)] .
• L’écart-type de la variable aléatoire X est la racine carrée de sa variance :
0
σ(X) = var(X).
• Le k-ième moment de la variable aléatoire X est défini par E(X k ).
• La fonction génératrice des moments de X est définie par MX (t) = E(etX ). Ses dérivées successives
(k)
sont égales aux moments : MX (t) = E(X k ).
• La fonction caractéristique de X est définie par ΦX (t) = E(eitX ). Sa transformée de Fourier est la
densité de probabilité, et ses dérivées successives permettent aussi de déterminer les moments.
0. Questions prliminaires
• Montrer que E(αX) = αE(X), où α est un scalaire.
• Montrer que E(X + Y ) = E(X) + E(Y ), où X et Y sont des variables aléatoires ayant la même densité
de probabilité.
• Montrer que E[X − E(X)] = 0.
• Montrer que var(X) = E(X 2 ) − [E(X)]2 .
1. On rappelle que la loi gaussienne correspond à la densité de probabilité suivante : f (x) =
√1 e−
σ 2π
(x−x0 )2
2σ 2
.
Soient deux variables aléatoires indépendantes X et Y , représentées par deux distributions de probabilité gaussiennes fX (x) et fY (y).
• Déterminer la densité de probabilité jointe fXY (x, y).
1
T
• Déterminer le nombre K et les matrices A et C tels que fXY (x, y) = Ke− 2 A
C−1 A
. C est la
matrice de covariance. Lorsque les variables aléatoires sont indépendantes, elle est diagonale.
2. Quand les variables aléatoires ne sont pas indépendantes, la matrice de covariance est une matrice
symétrique non-diagonale
w
Wet ses éléments diagonaux sont les variances des variables aléatoires. Soit la
2 −2
matrice C =
. Calculer la matrice diagonale D et celle de changement de base S, telles
−2 5
que C = SDST . Que dire alors des composantes du vecteur SA ?
3. Soit fX1 X2 (x1 , x2 ) la densité de probabilité jointe des variables aléatoires X1 et X2 . Que sont les
densités de probabilité marginales fX1 (x1 ) et fX2 (x2 ) ?
4. La covariance de deux variables aléatoires X1 et X2 est définie par
8 ∞8 ∞
cov(X1 , X2 ) =
[x1 − E(X1 )][x2 − E(X2 )] fX1 X2 (x1 , x2 ) dx1 dx2 ,
−∞
−∞
et les éléments de la matrice de covariance sont donnés par
8 ∞8 ∞
[xi − E(Xi )][xj − E(Xj )] fXi Xj (xi , xj ) dxi dxj ,
Cij =
−∞
−∞
où i et j valent 1 ou 2.
• Montrer que cov(X, X) = var(X).
• Montrer que si X et Y sont deux variables aléatoires indépendantes, cov(X, Y ) = 0.
i
D
• On rappelle que cov(X, X) = var(X) = E [X − E(X)2 = E(X 2 ) − [E(X)]2 . Montrer que cette
propriété peut se généraliser pour X1 et X2 deux variables aléatoires quelconques, cov(X1 , X2 ) =
E ([X1 − E(X1 )][X2 − E(X2 )]) = E(X1 X2 ) − E(X1 )E(X2 ).
5. Soient X1 et X2 deux variables aléatoires gaussiennes, d’écart-types respectifs σ1 et σ2 , et fX1 X2 (x1 , x2 )
la densité de probabilité jointe de X1 et X2 . On précise que cette densité de distribution jointe
peut se mettre sous la forme vue à la question 1, avec une matrice de covariance C non diagonale
0
et un facteur K donné par K −1 = 2π var(X1 )var(X2 ) − cov(X1 , X2 )2 . Déterminer les courbes
fX1 X2 (x1 , x2 ) = constante, dans le plan (x1 , x2 ) en posant cov(X1 , X2 ) = rσ1 σ2 , où r est appelé
le coefficient de corrélation (1 ≥ |r|).
Téléchargement