Esnard Aurélien Cours de Probabilité ENSERB informatique Probabilités discrètes Généralités Espérance mathématique : EX w.P X w w On notera parmi les propriétés de E : E est linéaire E E X E - X la formule de transfert, E f X f w.P X w w E X 0 pour une variable aléatoire centrée. - Variance : Var ( X ) E X E X E X E X On donne les propriétés suivantes : 2 2 2 - VarX 2Var X - X est constante si et seulement si Var X 0 . X Var X On a : X X . Ecart-type : Couple (X,Y) Loi conjointe et Loi marginale : La loi conjointe de (X,Y) est P X , Y A B PX A, Y B . Si P X A P X A, Y B , alors on dit que X est une loi marginale. Variables aléatoires indépendantes : X et Y sont indépendantes si A, B Covariance : C XY P X A, Y B P X A PY B . E XY E X .EY . En particulier, on trouve C XX Var X . Si X et Y sont indépendantes alors E XY E X .EY , d'où La matrice des covariances s'écrit : C C XX CYX Coefficient de corrélation : XY Loi de S=X+Y : S w peut s'écrire XY 0. C XY . Elle est symétrique et positive. CYY C XY X . Y On a les propriétés suivantes : X , Y - C X ,Y X ,Y 1 X et Y w . Ainsi PS w P X , Y w . Page 1 sur 8 16/04/17 Esnard Aurélien Cours de Probabilité ENSERB informatique PS w P X P Y w , le produit de De plus, si X et Y sont indépendantes alors convolution des lois X et Y. Variance d'une somme de variables aléatoires : Var X Y Var X VarY 2.C XY . Var X Y Var X VarY . Si X et Y sont indépendantes, alors on a la formule : Fonction génératrice Considérons une variable aléatoire X entière. Sa fonction génératrice est définit par : G X z p X n .z n de rayon R 1 . n Cette fonction caractérise la loi X, et P X n On calcule : 1 n G X 0 . n! E X G X 1 - Var X G X 1 G X 1 G X 1 . 2 - Si X et Y sont indépendantes, alors GX Y GX .GY . Loi binomiale et Loi de Poisson Loi binomiale de paramètre d et d’ordre n : Considérons une expérience pendant laquelle un événement A peut arriver avec la probabilité d. On répète cette expérience n fois de façon indépendante. X : nombre de fois où A s’est produit Y : indicatrice de l’événement A (Y=1 si A s’est produit, 0 sinon). Y1, Y2, …, Yn : échantillon de modèle Y. On a X Yi . On montre facilement que 0, si k n . P X k k k n k Cn d 1 d , sinon On établit ensuite que : - Loi de Poisson de paramètre a : Si l’on pose Var X nd 1 d E X nd en utilisant G X z 1 dz d . n a k a e k! a k a e . n k! P X k a nd , alors C nk d k 1 d k En pratique, on fait l’approximation de la loi binomiale d’ordre n et de paramètre d par la loi de Poisson de paramètre a nd , pour n 30 . On établit que : - Var X a E X a a z 1 en utilisant G X z e . Page 2 sur 8 16/04/17 Esnard Aurélien Cours de Probabilité ENSERB informatique Théorème : stabilité des lois de Poisson pour la somme Supposons que X suit la loi de Poisson de paramètre a et que Y suit la loi de Poisson de paramètre b, alors X+Y suit la loi de Poisson de paramètre a+b. Probabilités générales Note : Seul le cas diffus est développé dans ce chapitre. Généralités On définit dans le cas diffus la probabilité pour la loi X : P X A f ( x)dx où f représente la densité A de la loi X. La densité vérifie la propriété fondamentale des probabilités : P X f ( x)dx 1 . L’espérance se définit, dans le cas diffus, comme suit : E ( X ) x dp( x) x. f ( x) dx . Les propriétés restent les mêmes que pour les probabilités discrètes. La formule de transfert s'écrit: E h X hx f x dx . La variance, la covariance et l'écart-type, … restent inchangés. Loi de S = X+ Y : Soit h la densité de la loi S, f la densité de la loi X et g la densité de la loi Y. Pour X et Y indépendants, la densité de S est le produit de convolution des densité de X et Y, soit : s hs f g s f s y g y dy . De façon générale, la densité d'une somme de n variables indépendantes est le produit de convolution des densités. Loi de -X : F X x 1 FX x et f X x f X x Loi conjointe d’un couple (X,Y) Considérons la densité h( x, y ) , on a P X , Y A B h( x, y)dxdy . On pourra noter que la densité A B de la loi en X est h( x, y)dy , de même pour la densité de la loi en Y. B Pour des variables aléatoires indépendantes, on a P X , Y A B P X A PY B . Théorème : X et Y sont indépendants si h( x, y ) f ( x) g ( y ) . Fonction de répartition On définit la fonction répartition comme suit : On a : lim F ( x) 1 - F (x) Prob- , x Prob X x . x - lim F ( x) 0 x F ( x) f et F ( x) f ( x) , où f représente la densité et a Inf . x Dans le cas diffus, on a a Ainsi on peut calculer la probabilité, Px A f . A Page 3 sur 8 16/04/17 Esnard Aurélien Cours de Probabilité ENSERB informatique Fonction caractéristique Soit X une variable aléatoire de densité f et u un réel quelconque. La fonction caractéristique de X est définit par e X u E e iuX iux f ( x)dx . On a les propriétés suivantes : - u Transformée de Fourier : X (u ) fˆ 2 X (0) i.E X 2 Var X X (0) X (0) si X et Y sont indépendants, X Y X Y . Loi exponentielle de paramètre a et de début t0 Problème de durée de vie : Par exemple un appareil est mis en marche à l’instant t0. La variable aléatoire X désigne l’instant où l’appareil tombe en panne. On fait l’hypothèse de non-vieillissement de la machine, c’est à dire a t a . Si F est la fonction de répartition de X, on démontre que : 1 F t e a t t 0 , t t0 . Ensuite, on établit les résultats suivants : - EX 1 t0 a 1 Var X 2 a a t t 0 densité : f t a.e Loi normale (Gauss) Loi normale réduite N 0,1 : La loi est de densité : f 0,1 x Supposons que X suit N Alors il vient : E X 0 - 0,1. 1 . x 2 x2 exp . On rappelle que e 2 dx 2 . 2 2 1 Var X =1 donc X 1 u2 la fonction caractéristique X u exp 2 N m, : On suppose que X suit N 0,1 et on pose Y X m , alors Y suit N m, . Loi normale générale De même il vient : EY - m Var Y 2 donc X y m la densité s’écrit f m, y f 0,1 1 y m 2 exp 2 2 Page 4 sur 8 1 16/04/17 Esnard Aurélien Cours de Probabilité ENSERB informatique Théorème : Stabilité des lois normales Si Y1 suit N m1 , 1 , si Y2 suit N m2 , 2 et si Y1, Y2 sont indépendantes, alors avec Y1 Y2 suit N m, m m1 m2 2 2 2 . 1 2 Moyenne de lois normales Y suit N m, , et Y1 , Y2 , , Yn un échantillon. La moyenne Y 1 1 , car Var Y Var Y . Yi suit N m, n n i n Couple Gaussien : (X1, X2) Hypothèses : X1 suit N m1 , 1 , X2 suit N m2 , 2 , r 1 . La densité de la loi du couple s'exprime : 1 hx1 , x 2 2 . . 1 r 2 1 2 exp 1 2 2. 1 r avec r le coefficient de corrélation, r C X1 X 2 1 2 x m 2 x m 1 2 2 1 1 2 2 x m1 x 2 m2 2r 1 1 2 . Dans le cas d'un couple Gaussien, C X 1 X 2 0 si et seulement si X1 et X2 sont indépendantes. En général, la réciproque est fausse. Loi conditionnelle : La loi conditionnelle à une valeur y0 : P X A / Y y 0 hx, y dx 0 A hx, y dx . 0 R C'est une loi normale N m, , avec m E X y0 E Y X r Y et 1 r 2 . X . Loi des grands nombres – Théorème central limite Convergence en probabilité (CVP) Soient Yn n et un réel a. Yn a 0, lim Prob Yn a 0 . n CVP Inégalité de Markoff Hypothèses : a 0 , X à valeurs réelles positives tel que Alors, ProbX a.m m E X . 1 . a Inégalité de Tchebycheff b 0 , Y tel que E Y 2 . 1 2 Alors, Prob Y - E Y b 2 ou encore Prob Y - EY b 2 . b b Hypothèses : Page 5 sur 8 16/04/17 Esnard Aurélien Cours de Probabilité Loi des grands nombres Hypothèses : X tel que ENSERB informatique E X 2 existe, et X 1 , X 2 ,, X n un échantillon. 1 n X i converge en probabilité vers l’espérance E X . n i 1 Alors X n Convergence en loi X n n converge en loi vers X si et seulement si la fonction de répartition FX n converge simplement vers P X x . c’est à dire P X n x n FX , P X l . Dans le cas d’une variable aléatoire entière, cela signifie aussi P X n l n Théorème Paul Levy X n n converge en loi vers X si et seulement si la fonction caractéristique X n converge vers X . Théorème central limite x E X 2 existe, Soit X tel que 3 f ( x)dx et X 1 , X 2 ,, X n un échantillon. E X 0 , X . 1 n Soit Yn Xi . n i 1 Alors Yn n converge vers la loi normale N 0, . On suppose Utilisation pratique du théorème central limite Soit une variable aléatoire X et X 1 , X 2 ,, X n un échantillon. - - Pour Pour n 30 , Y n 30 , Y n 1 n X i 1 i suit (approximativement) une loi normale N n .E X , X . 1 n X i suit (approximativement) une loi normale N E X , X . n i 1 n. En conclusion, il est normal de trouver une loi normale ! Loi du chi-deux : Soit 2 X 1 , X 2 ,, X n un échantillon de la loi N 0,1 . n Un Xi . 2 i 1 On dit que Un suit la loi du à n degrés de liberté et pour 2 n 30 , on considère que 1 n U n n suit (approximativement) la loi N 0, 2 . Processus Markoviens discrets en temps et en valeurs Définitions Processus : X (t ) variable aléatoire qui dépend du temps. Un processus discret en valeurs est tel que t X (t ) est une variable aléatoire discrète. Page 6 sur 8 16/04/17 Esnard Aurélien Cours de Probabilité Discrets en temps revient à considérer une suite d'instants ENSERB informatique t 0 , t1 ,, t n au lieu de prendre le temps en continue. Les X (t i ) sont notés X (i ) . Définitions Markovien Un processus discret en temps et en valeurs est dit Markovien si et seulement si : m, n m 1, ei , PX m1 em1 ,, X n en X m em X m1 em1 ,, X n en PX m1 em1 ,, X n en X m em , X m1 em1 ,, X 0 e0 En d'autres termes, l'état futur ne dépend (directement) que du présent et pas du passé. Propriété : Loi des n-uplets Dans le cas d'un processus Markovien, on a : P X 0 e.0 , , X n en PX k ek X k 1 ek 1 P X 0 e0 . k 1 n initialisation transition Les chaînes de Markov Les chaînes de Markov représentent un cas particuliers important des processus Markoviens. Définition : Chaîne de Markov Ce sont les processus Markoviens vérifiant la propriété suivante : n, k PX n e X 0 e PX nk e X k e Il y a invariance des transitions, ou autrement les règles ne changent pas au cours du jeu. Il y a nonvieillissement du processus. On suppose de plus que les valeurs possibles de X sont en nombre finis : Notons e1 ,, en encore notées 1,, n . Gi , j PX 1 j X 0 i PX k 1 j X k i , pour i, j 1, , n . transition On note G la matrice des transitions, G Gi , j . Théorème : PX k j X 0 i G k i, j . Ainsi la matrice de transition pour la kème étape est Gk. Exemple fondamental : La marche aléatoire On considère un promeneur se déplaçant étape par étape soit à droite soit à gauche de façon équiprobable. Si il se trouve sur un bord, il y restent ( bord absorbant). Les règles n'évoluent pas au cours du temps. Il s'agit d'une chaîne de Markov. 0 1 1 / 2 0 La matrice G de transition est : 0 1/ 2 0 0 0 0 bord absorbant à droite 1 / 2 0 0 1/ 2 0 1 bord absorbant à gauche On remarque que cette matrice est stochastique car la somme des coefficients de chaque ligne fait 1. Le coefficient encadré s’écrit PX 1 3 X 0 2 1 / 2 et représente la probabilité d’arriver en position 2, en partant de la position 3. On peut représenter la marche aléatoire avec le tableau ci-dessous. Page 7 sur 8 16/04/17 Esnard Aurélien Cours de Probabilité ENSERB informatique Etape 5 Etape 4 Etape 3 Etape 2 Etape 1 1 2 3 4 Etape 0 On cherche à connaître le comportement asymptotique ou à long terme du promeneur. Pour cela, on calcule Gk et on prend sa limite en l'infini : 1 2 / 3 G 1/ 3 0 0 0 0 0 0 0 0 1 / 3 proba d' arriver en j, en partant de i 2 0 2 / 3 0 1 Ainsi, on peut résumer le contenu de cette matrice en disant que : - le promeneur parti de 1 reste en 1 (bord absorbant) - le promeneur parti de 2 a une probabilité 2/3 d'échouer à gauche et 1/3 d'échouer à droite - le promeneur parti de 3 a une probabilité 1/3 d'échouer à gauche et 2/3 d'échouer à droite - le promeneur parti de 1 reste en 1 (bord absorbant). Page 8 sur 8 16/04/17