Probabilités discrètes - Site de Mohamed Amine EL AFRIT

publicité
Esnard Aurélien
Cours de Probabilité
ENSERB informatique
Probabilités discrètes
Généralités
Espérance mathématique :
EX  
 w.P X  w
w
On notera parmi les propriétés de E :
E est linéaire
E E X E
  
-
X 
la formule de transfert,
E  f  X  
 f w.P X  w
w
E X   0 pour une variable aléatoire centrée.
-
 

Variance : Var ( X )  E X  E  X   E  X  E  X 
On donne les propriétés suivantes :
2
2
2
-
VarX   2Var X 
-
X est constante si et seulement si

Var X   0 .
  X   Var X 
On a :  X      X  .
Ecart-type :
Couple (X,Y)
Loi conjointe et Loi marginale :
La loi conjointe de (X,Y) est P
X , Y   A  B  PX  A, Y  B .
Si P X  A  P X  A, Y  B , alors on dit que X est une loi marginale.
Variables aléatoires indépendantes :
X et Y sont indépendantes si A, B
Covariance :
C
XY
P X  A, Y  B  P X  A  PY  B .
 E XY   E X .EY  .
En particulier, on trouve
C
XX
 Var X  .
Si X et Y sont indépendantes alors
E XY   E X .EY  , d'où
La matrice des covariances s'écrit :
C
C   XX
 CYX
Coefficient de corrélation :
 XY 
Loi de S=X+Y :
S  w peut s'écrire
XY
 0.
C XY 
 . Elle est symétrique et positive.
CYY 
C XY
 X . Y
On a les propriétés suivantes :
X , Y 
-
C
 X ,Y
 X ,Y  1
 X   et Y  w    . Ainsi PS  w   P X   , Y  w    .



Page 1 sur 8
16/04/17
Esnard Aurélien
Cours de Probabilité
ENSERB informatique
PS  w   P X     P Y  w    , le produit de
De plus, si X et Y sont indépendantes alors

convolution des lois X et Y.
Variance d'une somme de variables aléatoires :
Var X  Y   Var X   VarY   2.C XY .
Var X  Y   Var X   VarY  .
Si X et Y sont indépendantes, alors on a la formule :
Fonction génératrice
Considérons une variable aléatoire X entière.
Sa fonction génératrice est définit par :
G X z    p X  n .z n de rayon R  1 .
n
Cette fonction caractérise la loi X, et P X  n  
On calcule :
1
n 
G X 0 .
n!
E  X   G X 1
-
Var  X   G X 1  G X 1  G X 1 .
2
-
Si X et Y sont indépendantes, alors
GX Y  GX .GY .
Loi binomiale et Loi de Poisson
Loi binomiale de paramètre d et d’ordre n :
Considérons une expérience pendant laquelle un événement A peut arriver avec la probabilité d. On répète cette
expérience n fois de façon indépendante.
X : nombre de fois où A s’est produit
Y : indicatrice de l’événement A (Y=1 si A s’est produit, 0 sinon).
Y1, Y2, …, Yn : échantillon de modèle Y.
On a
X  Yi .
On montre facilement que
0, si k  n

.
P X  k    k k
n k
Cn d 1  d  , sinon
On établit ensuite que :
-
Loi de Poisson de paramètre a :
Si l’on pose
Var X   nd 1  d 
E X   nd
en utilisant G X  z   1  dz  d  .
n
a k a
e
k!
a k a
e .

n   k!
P X  k  
a  nd , alors C nk d k 1  d 
k
En pratique, on fait l’approximation de la loi binomiale d’ordre n et de paramètre d par la loi de Poisson de
paramètre a  nd , pour n  30 .
On établit que :
-
Var X   a
E X   a
a  z 1
en utilisant G X z   e
.
Page 2 sur 8
16/04/17
Esnard Aurélien
Cours de Probabilité
ENSERB informatique
Théorème : stabilité des lois de Poisson pour la somme
Supposons que X suit la loi de Poisson de paramètre a et que Y suit la loi de Poisson de paramètre b, alors X+Y
suit la loi de Poisson de paramètre a+b.
Probabilités générales
Note : Seul le cas diffus est développé dans ce chapitre.
Généralités
On définit dans le cas diffus la probabilité pour la loi X :
P X  A   f ( x)dx où f représente la densité
A
de la loi X. La densité vérifie la propriété fondamentale des probabilités :
P X     f ( x)dx  1 .

L’espérance se définit, dans le cas diffus, comme suit : E ( X ) 
 x dp( x)   x. f ( x) dx .
Les propriétés restent les mêmes que pour les probabilités discrètes.
La formule de transfert s'écrit: E h X  
 hx  f x dx .
La variance, la covariance et l'écart-type, … restent inchangés.
Loi de S = X+ Y :
Soit h la densité de la loi S, f la densité de la loi X et g la densité de la loi Y.
Pour X et Y indépendants, la densité de S est le produit de convolution des densité de X et Y, soit :
s
hs    f  g s  
 f s  y g  y dy .

De façon générale, la densité d'une somme de n variables indépendantes est le produit de convolution des
densités.
Loi de -X :
F X x  1  FX  x et f  X x  f X  x
Loi conjointe d’un couple (X,Y)
Considérons la densité h( x, y ) , on a
P X , Y   A  B  
 h( x, y)dxdy . On pourra noter que la densité
A B
de la loi en X est
 h( x, y)dy , de même pour la densité de la loi en Y.
B
Pour des variables aléatoires indépendantes, on a
P X , Y   A  B  P X  A  PY  B .
Théorème : X et Y sont indépendants si h( x, y )  f ( x) g ( y ) .
Fonction de répartition
On définit la fonction répartition comme suit :
On a :
lim F ( x)  1
-
F (x)  Prob- , x    Prob X  x .
x 
-
lim F ( x)  0
x  
F ( x)   f et F ( x)  f ( x) , où f représente la densité et a  Inf  .
x
Dans le cas diffus, on a
a
Ainsi on peut calculer la probabilité,
Px  A   f .
A
Page 3 sur 8
16/04/17
Esnard Aurélien
Cours de Probabilité
ENSERB informatique
Fonction caractéristique
Soit X une variable aléatoire de densité f et u un réel quelconque.
La fonction caractéristique de X est définit par
  e
 X u   E e
iuX
iux
f ( x)dx .
On a les propriétés suivantes :
-
u
Transformée de Fourier :  X (u )  fˆ 

 2 
X (0)  i.E X 
2
Var  X     X (0)   X (0) 
si X et Y sont indépendants,  X Y   X  Y .
Loi exponentielle de paramètre a et de début t0
Problème de durée de vie :
Par exemple un appareil est mis en marche à l’instant t0. La variable aléatoire X désigne l’instant où l’appareil
tombe en panne. On fait l’hypothèse de non-vieillissement de la machine, c’est à dire a t  a .
Si F est la fonction de répartition de X, on démontre que :
1  F t   e
 a t  t 0 

,
t  t0 .
Ensuite, on établit les résultats suivants :
-
EX  
1
 t0
a
1
Var  X   2
a
 a t  t 0 
densité : f t   a.e
Loi normale (Gauss)
Loi normale réduite N 0,1 :
La loi est de densité :
f 0,1 x  
Supposons que X suit N
Alors il vient :
E X 0
-
0,1.
1
  . x 2
 x2 
exp    . On rappelle que  e  2  dx  2 .
2
 2 
1
 
Var X  =1 donc  X
1
 u2 

la fonction caractéristique  X u   exp  
2


N m,   :
On suppose que X suit N 0,1 et on pose Y  X  m , alors Y suit N m,   .
Loi normale générale
De même il vient :
EY
-
  m
Var Y    2 donc  X  
 y m
la densité s’écrit f m,  y   f 0,1 

  
 1  y  m 2 

exp   
 2    
2


Page 4 sur 8
1
16/04/17
Esnard Aurélien
Cours de Probabilité
ENSERB informatique
Théorème : Stabilité des lois normales
Si Y1 suit N m1 ,  1 , si Y2 suit N m2 ,  2 et si Y1, Y2 sont indépendantes, alors

avec



Y1  Y2  suit N m, 
 m  m1  m2
 2
2
2 .
   1   2
Moyenne de lois normales
Y suit N m,  , et Y1 , Y2 , , Yn un échantillon.

La moyenne

Y 


1
 
1
 , car Var Y  Var Y  .
Yi suit N  m,

n
n i
n

Couple Gaussien : (X1, X2)
Hypothèses : X1 suit
N m1 ,  1 , X2 suit N m2 ,  2  , r  1 .
La densité de la loi du couple s'exprime :

1
hx1 , x 2   
 2 .  . 1  r 2
1 2



  exp   1
2

 2. 1  r

avec r le coefficient de corrélation,
r
C X1 X 2
 1 2
 x  m  2  x  m
1
2
   2
 1
  1    2
2

 x  m1  x 2  m2
  2r  1


  1   2
.
Dans le cas d'un couple Gaussien, C X 1 X 2  0 si et seulement si X1 et X2 sont indépendantes. En général, la
réciproque est fausse.
Loi conditionnelle :
La loi conditionnelle à une valeur y0 : P  X  A / Y  y 0  
 hx, y dx
0
A
 hx, y dx
.
0
R
C'est une loi normale
N m,   , avec m  E  X    y0  E Y 
X
r
Y
et
  1  r 2 . X .
Loi des grands nombres – Théorème central limite
Convergence en probabilité (CVP)
Soient Yn n et un réel a.




 Yn  a     0, lim Prob Yn  a     0 .
n 
 CVP 
Inégalité de Markoff
Hypothèses : a  0 , X à valeurs réelles positives tel que
Alors, ProbX  a.m  
m  E X    .
1
.
a
Inégalité de Tchebycheff
b  0 , Y tel que E Y 2    .
1
2




Alors, Prob Y - E Y  b  2 ou encore Prob Y - EY   b   2 .
b
b
Hypothèses :
Page 5 sur 8
16/04/17
 
 
 
Esnard Aurélien
Cours de Probabilité
Loi des grands nombres
Hypothèses : X tel que
ENSERB informatique
 
E X 2 existe, et X 1 , X 2 ,, X n un échantillon.
1 n
 X i converge en probabilité vers l’espérance E X  .
n i 1
Alors X n 
Convergence en loi
 X n n converge en loi vers X si et seulement si la fonction de répartition FX n converge simplement vers
 P X  x  .
c’est à dire P X n  x  n

FX ,
 P X  l  .
Dans le cas d’une variable aléatoire entière, cela signifie aussi P X n  l  n

Théorème Paul Levy
 X n n converge en loi vers X si et seulement si la fonction caractéristique  X n converge vers
X .
Théorème central limite
 
x
E X 2 existe,
Soit X tel que
3
f ( x)dx   et X 1 , X 2 ,, X n un échantillon.
E X   0 ,   X    .
1 n
Soit Yn 
 Xi .
n i 1
Alors Yn n converge vers la loi normale N 0,   .
On suppose
Utilisation pratique du théorème central limite
Soit une variable aléatoire X et X 1 , X 2 ,, X n un échantillon.
-
-
Pour
Pour
n  30 , Y 
n  30 , Y 
n
1
n
X
i 1
i
suit (approximativement) une loi normale N


n .E  X ,  X .
 

1 n
X i suit (approximativement) une loi normale N  E  X , X  .

n i 1
n. 

En conclusion, il est normal de trouver une loi normale !
Loi du chi-deux : 
Soit
2
X 1 , X 2 ,, X n un échantillon de la loi N 0,1 .
n
Un   Xi .
2
i 1
On dit que Un suit la loi du  à n degrés de liberté et pour
2

n  30 , on considère que

1
n
U n  n suit
(approximativement) la loi N 0, 2 .
Processus Markoviens discrets en temps et en valeurs
Définitions
Processus : X (t ) variable aléatoire qui dépend du temps.
Un processus discret en valeurs est tel que t X (t ) est une variable aléatoire discrète.
Page 6 sur 8
16/04/17
Esnard Aurélien
Cours de Probabilité
Discrets en temps revient à considérer une suite d'instants
ENSERB informatique
t 0 , t1 ,, t n au lieu de prendre le temps en continue.
Les X (t i ) sont notés X (i ) .
Définitions Markovien
Un processus discret en temps et en valeurs est dit Markovien si et seulement si : m,
n  m  1, ei ,
PX m1  em1 ,, X n  en X m  em X m1  em1 ,, X n  en   PX m1  em1 ,, X n  en X m  em , X m1  em1 ,, X 0  e0 
En d'autres termes, l'état futur ne dépend (directement) que du présent et pas du passé.
Propriété : Loi des n-uplets
Dans le cas d'un processus Markovien, on a :
P X 0  e.0 , , X n  en    PX k  ek X k 1  ek 1   P X 0  e0  .


 
k 1
n
initialisation
transition
Les chaînes de Markov
Les chaînes de Markov représentent un cas particuliers important des processus Markoviens.
Définition : Chaîne de Markov
Ce sont les processus Markoviens vérifiant la propriété suivante :
n, k PX n  e X 0  e  PX nk  e X k  e
Il y a invariance des transitions, ou autrement les règles ne changent pas au cours du jeu. Il y a nonvieillissement du processus.
On suppose de plus que les valeurs possibles de X sont en nombre finis :
Notons
e1 ,, en encore notées 1,, n .
Gi , j  PX 1  j X 0  i   PX k 1  j X k  i , pour i, j  1,  , n .


transition
 
On note G la matrice des transitions, G  Gi , j .
Théorème :
 
PX k  j X 0  i   G k
i, j
.
Ainsi la matrice de transition pour la kème étape est Gk.
Exemple fondamental : La marche aléatoire
On considère un promeneur se déplaçant étape par étape soit à droite soit à gauche de façon équiprobable. Si il se
trouve sur un bord, il y restent ( bord absorbant). Les règles n'évoluent pas au cours du temps. Il s'agit d'une
chaîne de Markov.
0
 1

1 / 2 0
La matrice G de transition est : 
0 1/ 2

 0
0

0
0   bord absorbant à droite

1 / 2 0 
0
1/ 2

0
1   bord absorbant à gauche
On remarque que cette matrice est stochastique car la somme des coefficients de chaque ligne fait 1.
Le coefficient encadré s’écrit
PX 1  3 X 0  2  1 / 2 et représente la probabilité d’arriver en position 2, en
partant de la position 3.
On peut représenter la marche aléatoire avec le tableau ci-dessous.
Page 7 sur 8
16/04/17
Esnard Aurélien
Cours de Probabilité
ENSERB informatique
Etape 5
Etape 4
Etape 3
Etape 2
Etape 1
1
2
3
4
Etape 0
On cherche à connaître le comportement asymptotique ou à long terme du promeneur.
Pour cela, on calcule Gk et on prend sa limite en l'infini :
 1

2 / 3

G 
1/ 3

 0

0
0
0
0
0 0 

0 1 / 3   proba d' arriver en j, en partant de i  2
0 2 / 3

0 1 
Ainsi, on peut résumer le contenu de cette matrice en disant que :
- le promeneur parti de 1 reste en 1 (bord absorbant)
- le promeneur parti de 2 a une probabilité 2/3 d'échouer à gauche et 1/3 d'échouer à droite
- le promeneur parti de 3 a une probabilité 1/3 d'échouer à gauche et 2/3 d'échouer à droite
- le promeneur parti de 1 reste en 1 (bord absorbant).
Page 8 sur 8
16/04/17
Téléchargement