Variable aléatoire, espérance, écart-­‐type, le cas discret Définitions 1) Soit une expérience aléatoire ε et l’ensemble de ses issues (fini ou dénombrable) dénoté par U, son univers associé. Une variable aléatoire réelle X est une application de U dans ! qui associe un nombre réel xi à une issue donnée. La notation X = xi correspond à l’événement de !(U ) admettant pour image xi. Ainsi, si une probabilité est définie sur !(U ) alors on notera la probabilité de l’événement admettant xi pour image par P(X = xi) ou plus simplement (s’il n’y a pas de confusion possible) par pi . On appelle loi de probabilité (ou distribution) l’ensemble des couples (xi ; pi ) . Exemple. ε est « lancer deux dés non pipés », U = {(i ; j) où 1 ! i ! 6 et 1 ! j ! 6 }. X : (i ; j) ! ("1)i+ j (i + j) . On gagne cette somme si l’image est > 0 sinon on la perd ! P( X = 12) = 1/ 36 = P( X = 2) ; P( X = !11) = 1/ 18 etc. Question. Ce jeu est-il équitable ? Pour y répondre déterminons le « gain moyen ». 2) L’espérance mathématique d’une variable aléatoire X est la somme des images xi pondérées par leur probabilité P(X = xi). En somme c’est une sorte de valeur moyenne obtenue après n itérations de l’expérience aléatoire ε . Elle se note et se calcule par : E( X ) = # xi ! P( X = xi ) = # xi ! pi ou encore µ X 1"i"n 1"i"n Exercice. Montrer que pour le jeu précédent E(X) = 0 et donc qu’il est équitable. 3) Pour mesurer la dispersion autour de la moyenne on introduit la notion de variance et d’écart type des concepts à la base issus des sciences statistiques. Par définition la variance se note et s’obtient ainsi : V ( X ) = E "#( X ! µ X )2 $% = & (xi ! µ X )2 ' pi i Au verso figure une preuve (élémentaire) de la formule de König : V ( X ) = E( X 2 ) ! (E( X ))2 Preuve de la formule de König. V ( X ) = E "#( X ! µ X )2 $% = & (xi ! µ X )2 ' pi = & x 2i ' pi ! 2 µ X & xi ' pi + µ 2X & pi = i i i i = E( X 2 ) ! 2 µ 2X + µ 2X = E( X 2 ) ! (E( X ))2 = µ X 2 ! µ 2X On appelle écart type le nombre ! = V ( X ) . Ce nombre correspond encore mieux à une mesure de dispersion autour de µ puisqu’il admet les mêmes unités que µ . 4) Si X et Y sont deux variables aléatoires discrètes alors on définit pij = P( X = xi ,Y = y j ) , la probabilité conjointe. On dit que X et Y sont indépendantes si !i et j on a P( X = xi ,Y = y j ) = P( X = xi )P(Y = y j ) ou plus simplement pij = pi ! p j . Par définition on pose : E( X + Y ) = ! pij (xi + y j ) et E( X !Y ) = " pij (xi y j ) i, j i, j Théorème. Soit X et Y des variables aléatoires discrètes relatives à une épreuve 1) E( X + Y ) = E( X ) + E(Y ) 2) Si X et Y sont indépendantes alors E( X !Y ) = E( X ) ! E(Y ) 3) Si X et Y sont indépendantes alors V ( X + Y ) = V ( X ) + V (Y ) ε . Alors Preuves. 1) E( X + Y ) = ! (xi + y j ) pij = ! (xi pij + y j pij ) = ! xi ! pij + ! y j ! pij = ! xi pi + ! y j p j = E( X ) + E(Y ) i, j i, j i j j i i j Remarque. Ci-dessus nous avons utilisé le fait que : E( X ) = ! xi pi = ! xi pij où i et j i i, j parcourent toutes les valeurs possibles des variables aléatoires X et Y. 2) var. E( XY ) = ! xi y j pij = ! xi y j P(x = xi , y = y j ) = ! xi y j P(x = xi )P( y = y j ) i, j indep. i, j i, j = ! xi P(x = xi ) " ! y j P( y = y j ) = E( X ) " E(Y ) i j 3) par V ( X + Y ) = " (xi + y j )2 pij ! µ 2X +Y = " (x 2i + 2xi y j + y 2j ) pij ! (E( X + Y ))2 König i, j i, j linéar. = " x 2i pij + 2" xi y j pij + " y 2j pij ! (E( X ) + E(Y ))2 esper. i, j i, j i, j = " x p + 2" xi y j pij + " y 2j pij ! µ 2X ! 2 µ X µY ! µY2 i, j 2 i ij i, j i, j par = " x 2i pi + 2" xi y j pij + " y 2j p j ! µ 2X ! 2 µ X µY ! µY2 Remar i i, j j par = " x 2i pi + 2" xi y j pi p j + " y 2j p j ! µ 2X ! 2 µ X µY ! µY2 indep i i, j j = " x p + 2" xi pi " y j p j + " y 2j p j ! µ 2X ! 2 µ X µY ! µY2 i 2 i i i j j = µ X 2 + 2 µ X µY + µY 2 ! µ ! 2 µ X µY ! µY2 2 X = µ X 2 ! µ 2X + µY 2 ! µY2 par = V ( X ) + V (Y ) König Soit une épreuve « genre binaire » (réussie ou ratée) répétée n-fois (épreuves identiques). On note Xi la variable aléatoire prenant la valeur 1 si ‘réussi’, 0 sinon, au i-ième essai. Une telle variable aléatoire s’appelle de Bernoulli (1685). Supposons P( X i = 1) = p (un nombre compris entre 0 et 1) et donc P( X i = 0) = 1! p . Posons X = X 1 + X 2 + X 3 +!+ X n la variable aléatoire qui somme le nombre de réussites. Alors E( X ) = E( X 1 + X 2 + X 3 +!+ X n ) = E( X 1 ) +!+ E( X n ) = np ( ) et V ( X ) = V ( X 1 +!+ X n ) = V ( X 1 ) +!+ V ( X n ) = µ X 2 ! µ 2X n = ( p ! p 2 )n = (1! p) pn 1 1 La variable aléatoire qui compte le nombre k de réussites sur n épreuves s’appelle une loi binomiale (de paramètre n et p). On la note et elle s’obtient par : ! n $ k n'k P( X = k) = # & p (1' p) " k % n Exercice. Montrer que 1) ! P( X = k) = 1 k=0 2) µ = np 3) ! 2 = V ( X ) = np(1" p)