2) v.a indépendantes

publicité
Cours Proba 25/11/09
Variables aléatoires à deux dimensions suite
d) Fonction de répartition à deux dimensions
Rappel
F(x)  P(X  x)
Sur les variables à une dimension:
F(x, y)  P(X  x,Y  y)
A deux dimensions:
2) v.a indépendantes
a) Définitions:
les v.a X et Y sont indépendantes ssi:
P(X  x,Y  y)  P(X  x)P(Y  y)
ou
f (x, y)  f X (x) fY (y)
Analogie avec
P(A  B)  P(A)P(B)
Si indépendance:
Connaissance de
Connaissance de
avec A et B indépendants
P(X  x,Y  y)
P(X  x)
et
P(Y  y)
De même:
connaissance de
connaissance de
f (x, y)
f X (x)
et
fY (y)
b) Exemples:
Cas de v.a discrètes
1
Cours Proba 25/11/09
Variables aléatoires à deux dimensions suite
P(X  x,Y  y)  P(X  x)P(Y  y)
(x, y)
Si c’est indépendants:
Par exemple:
P(X  2,Y  3)  0, 35
P(X  2)P(Y  3)  0, 7  0, 5  0, 35
P(X  1,Y  1)  0, 06
P(X  1)P(Y  1)  0, 3  0,2  0, 06
etc. => variable indépendantes
Contre exemple:
Jeu avec une pièce de monnaie et un dé. On avait
P(X  1,Y  10€ )  0
P(X  1)P(Y  10€ ) 
11 5

0
21 72
donc X et Y pas indépendantes
• Cas d’une v.a continue
cible
-> carré
1
1
1
f (x, y)  , f X (x)  , fY (y) 
4
2
2
On avait
d’où ici, f (x, y)  f X (x) fY (y)
=> X, Y sont des v.a indépendantes
-> disque
2
2
2
X et Y sont liés par la relation X  Y  a
1
f (x, y)  2
a
On a vu que
2
f X (x)  2 a 2  x 2  f (x, y)  f X (x) fY (y)
a
2
fY (y)  2 a 2  y 2
Si X et Y indépendants
a
c) Conséquences:
Si X et Y sont indépendants
P(x1  X  x2 , y1  Y  y2 )  P(x1  X  x2 )P(y1  Y  y2 )
Remarque:
2
Cours Proba 25/11/09
Variables aléatoires à deux dimensions suite
F(x, y)  P(X  x,Y  y)
F(x, y)  P(X  x)P(Y  y)
F(x, y)  FX (x)FY (y)
d) Extension à n variables
(x, y)  h(x,
Théorème: n v.a X1, X2,…Xn
sony)
indépendantes si
P(X1  x1 , X2  x2 Xn  xn )  P(X1  x1 )P(X2  x2 )P(Xn  xn )
° f Xn (xn )
f (x1 , x2 xn )  f X1 (x1 ) f X 2
(x2
)
  h[X( ),Y ( )]
3) Fonctions de variables aléatoires
a) Définition
Soit (X, Y) un couple de v.a
Soit h une fonction de
2
dans
alors l’explication de
est aussi une v.a notée h(X,Y )
2
Exemple: h(X,Y )  X  Y , X  4Y 
b) Lois de probabilité de h(X,Y )
• Cas v.a discrète:
Cela va se calculer à partir de P(X  x,Y  y)
Relativement simple dans le cas discret
Méthode donnée sur l’exemple:
Car disjoints
Car indépendants
Soit X et Y deux v.a à valeurs entières et indépendantes
Soit h(X,Y )  X  Y noté S
• Loi de probabilité de S ?
On a
P(S  X  Y  s)  P[(X  0,Y  s)  (X  1,Y  s  1) (X  s,Y  0)]
 P(X  0,Y  s)  P(X  1,Y  s  1)   P(X  s,Y  0)
 P(X  0)P(Y  s)  P(X  1)P(Y  s  1)   P(X  s)P(Y  0)
s
P(S  s)   P(X  x)P(Y  s  x)
Alors
Exemple:
Csx x s  x

x  0 s!
x0 s
 e(    ) 

e(    )
(   )s
s!
3
Cours Proba 25/11/09
Variables aléatoires à deux dimensions suite
P(X  x) 
x
e 
x!
y 
P(Y  y) 
e
y!
Y suit la loi de Poisson de paramètre μ:
s
x
y
P(S  s)   e  
e 
x!
(s

x)!
x 0
d’où
X suit la loi de Poisson de paramètre λ:
f (x, y)
 P[(X,Y )
h(X,Y )  s]
Loi de poisson de paramètre  + 
• v.a continues:
On veut calculer la densité de probabilité de la v.a h(X,Y ) ?
On connaît la densité de proibabilité jointe du couple (X, Y) notée
Méthode: On va déterminer la fonction de répartition de h(X,Y )
Si on note s  h(X,Y )
F(s)  P(S  s)  P[h(X,Y )  s]
tel que
On peut voir que h(X,Y )  s correspond à une région du plan notée A(s) limitée par la
courbe h(x, y)  s (frontière)
f (x, y)dx dy

F(s)  P[(X,Y ) / (x, y) A(s))]

D’où
A(s){(x, y)/ x  ys}
F(s) 
x 
 dys x f (x, y)dy  dx
f
(x,
y)dx

 x   y

A(s)
Exemple: Loi de probabilité de S  X  Y

Densité de probabilité jointe de f (x, y) est connue
dérivée
F(s)de sP[X  Y  s]
On a


x
f (x, s  x)dx

f est connue
f (s)  F '(s) 
donc
donc
f (s)  F '(s) 

d
ds

 s  x f (x, y)dy  dx
x    y 


d  y s  x
f (x, y)dy dx
x   ds 
 y 


4
Cours Proba 25/11/09
Variables aléatoires à deux dimensions suite
On pourra calculer cette intégrale
Cas particulier:
Si X et Y indépendantes f (x, y)  f X (x) fY (y)
On peut montrer que f X Y  f X  fY
E
h(X)   h(x)de
f (x)dx
c)Espérance
h(X,Y)
x
• Rappel : Cas à une dimension
E(X)   x xP(X  x)
v.a discrète
E(X)   xf (x)dx
v.a continue
E h(X)   x h(x)P(X  x)
x
d’où
Par analogie:
Si X et Y v.a discrète:
E h(X,Y )    h(x, y)P(X  x,Y  y)
x
Si X et Y v.a continues:
y
E h(X,Y )    h(x, y) f (x, y)dx dy
x y
Exemple fondamentaux:
 E(aX  bY )aaE(X)
b(Y dy
)  b   yf (y)dx dy
  xf (x,y)dx
x y
x y
si a et b sont des constantes, on parle d’un opérateur dit linéaire

Démonstration: a  x   f (x, y)dy
 )]y
 E(aX  bY )  E[h(X,Y
x

où h(X,Y )  aX  bY
or
f X (x)


dx  b y 
y 




x

f (x, y)dx dy

fY (y)
E[h(X,Y )]  a xfh(x,
y) f (x,
dy    ax  by  f (x, y)dx dy
(x)dx
 by)dx
yf (y)dy

x y
x
X

y
Y
x y
 aE(X)  bE(Y )
5
Cours Proba 25/11/09
Variables aléatoires à deux dimensions suite
E(X,Y )  E(X)E(Y )
--> X, Y indépendants alors
h(X,Y )  XY
Attention, la réciproque est fausse !!!
   h(x, y)P(X  x,Y  y)
x
y
   xyP(X  x)P(Y  y) car X et Y Indépendants
x
y



   xP(X  x)   yP(Y  y)
 x
 y

Démonstration:
 E(X)E(Y )
E(XY )  E  f (X,Y ) ou
E h(X)g(Y )  E  f (x)E g(y)
2
De même, siXet
Yhindépendants
(x, y)P(X  x,Y  y)  (  h(x, y)P(X  x,Y  y))2
x
y de h(X,Y)
x
y
d) Variance
Rappel:


  h (x, y) f (x, y)dx dy    h(x, y) f (x, y)dx du 
 D

D
2
2
Var(X)  E (X  E(X))2   E(X 2 )  (E(X))2
Donc
Var[h(X,Y )]  E[(h(X,Y )  E[h(X,Y )])2 ]  E[(h(X,Y ))2 ]  (E[h(X,Y )])2
cov(X,Y )  E(X,Y )  E(X)E(Y )
4) Covariance et coefficient de corrélation:
a) Covariance
Définition:
Soient X et Y deux v.a alors la covariance de X et Y vaut
Propriété: Si X et Y indépendants alors cov(X,Y )  0
de même
Var(aX  bY )  a2Var(X)  b2Var(Y )  2ab cov(X,Y )
6
Cours Proba 25/11/09
Variables aléatoires à deux dimensions suite
b) Coefficient de corrélation
Définition:
Soient X et Y deux v.a. Le coefficient de corrélation vaut

cov(X,Y )
 X Y
on a 1  p  1 deux cas extrèmes
 X et Y indépendants
 cov(X,Y )  0
0
 X Y
E(XX)  E(X)E(X) E(X 2 )  (E(X))2 Var(X)




 1


Var(X)
Var(X)
Var(X)
X
X
on va avoir
(a,b)
Donc ce coefficient de corrélation mesure le degré d’indépendance
entre X et Y
cov(X, X)
Si on veut montrer que
 1
• Démonstration:
On pose Z  aX  bY
2 2
2 2
 Z2  a 2  X2  
b 2
2 a) b cov(X,Y
)  Var(Z)  0
cov
(X,Y
Y 
X Y  0
2
)   2 2
  x 2   x  cov
0 (X,Y
si on poseX xY  a

Or
cov2 (X,Y )
1
2
2 2
  4b2 (cov(X,Y))X2 2 
Y 4   Xb
2
  0
 4 f2 1cov2 (X,Y )  4  X2 b 2 Y2  0
Il faut que
  1
 1    1
7
Téléchargement