Variable aléatoire, espérance, écart

publicité
Variable aléatoire, espérance, écart-­‐type, le cas discret
Définitions
1) Soit une expérience aléatoire ε et l’ensemble de ses issues (fini ou dénombrable) dénoté par U,
son univers associé. Une variable aléatoire réelle X est une application de U dans ! qui associe
un nombre réel xi à une issue donnée. La notation X = xi correspond à l’événement de !(U )
admettant pour image xi. Ainsi, si une probabilité est définie sur !(U ) alors on notera la
probabilité de l’événement admettant xi pour image par P(X = xi) ou plus simplement (s’il n’y a
pas de confusion possible) par pi .
On appelle loi de probabilité (ou distribution) l’ensemble des couples (xi ; pi ) .
Exemple.
ε
est « lancer deux dés non pipés », U = {(i ; j) où 1 ! i ! 6 et 1 ! j ! 6 }.
X : (i ; j) ! ("1)i+ j (i + j) . On gagne cette somme si l’image est > 0 sinon on la perd !
P( X = 12) = 1/ 36 = P( X = 2) ; P( X = !11) = 1/ 18 etc.
Question. Ce jeu est-il équitable ? Pour y répondre déterminons le « gain moyen ».
2) L’espérance mathématique d’une variable aléatoire X est la somme des images xi
pondérées par leur probabilité P(X = xi). En somme c’est une sorte de valeur moyenne
obtenue après n itérations de l’expérience aléatoire ε .
Elle se note et se calcule par : E( X ) = # xi ! P( X = xi ) = # xi ! pi ou encore µ X
1"i"n
1"i"n
Exercice. Montrer que pour le jeu précédent E(X) = 0 et donc qu’il est équitable.
3) Pour mesurer la dispersion autour de la moyenne on introduit la notion de variance et
d’écart type des concepts à la base issus des sciences statistiques.
Par définition la variance se note et s’obtient ainsi : V ( X ) = E "#( X ! µ X )2 $% = & (xi ! µ X )2 ' pi
i
Au verso figure une preuve (élémentaire) de la formule de König : V ( X ) = E( X 2 ) ! (E( X ))2
Preuve de la formule de König.
V ( X ) = E "#( X ! µ X )2 $% = & (xi ! µ X )2 ' pi = & x 2i ' pi ! 2 µ X & xi ' pi + µ 2X & pi =
i
i
i
i
= E( X 2 ) ! 2 µ 2X + µ 2X = E( X 2 ) ! (E( X ))2 = µ X 2 ! µ 2X
On appelle écart type le nombre ! = V ( X ) . Ce nombre correspond encore mieux à une
mesure de dispersion autour de µ puisqu’il admet les mêmes unités que µ .
4) Si X et Y sont deux variables aléatoires discrètes alors on définit pij = P( X = xi ,Y = y j ) ,
la probabilité conjointe. On dit que X et Y sont indépendantes si !i et j on a
P( X = xi ,Y = y j ) = P( X = xi )P(Y = y j ) ou plus simplement pij = pi ! p j .
Par définition on pose : E( X + Y ) = ! pij (xi + y j ) et E( X !Y ) = " pij (xi y j )
i, j
i, j
Théorème. Soit X et Y des variables aléatoires discrètes relatives à une épreuve
1) E( X + Y ) = E( X ) + E(Y )
2) Si X et Y sont indépendantes alors E( X !Y ) = E( X ) ! E(Y )
3) Si X et Y sont indépendantes alors V ( X + Y ) = V ( X ) + V (Y )
ε . Alors
Preuves.
1) E( X + Y ) = ! (xi + y j ) pij = ! (xi pij + y j pij ) = ! xi ! pij + ! y j ! pij = ! xi pi + ! y j p j = E( X ) + E(Y )
i, j
i, j
i
j
j
i
i
j
Remarque. Ci-dessus nous avons utilisé le fait que : E( X ) = ! xi pi = ! xi pij où i et j
i
i, j
parcourent toutes les valeurs possibles des variables aléatoires X et Y.
2)
var.
E( XY ) = ! xi y j pij = ! xi y j P(x = xi , y = y j ) = ! xi y j P(x = xi )P( y = y j )
i, j
indep. i, j
i, j
= ! xi P(x = xi ) " ! y j P( y = y j ) = E( X ) " E(Y )
i
j
3)
par
V ( X + Y ) = " (xi + y j )2 pij ! µ 2X +Y = " (x 2i + 2xi y j + y 2j ) pij ! (E( X + Y ))2
König i, j
i, j
linéar.
= " x 2i pij + 2" xi y j pij + " y 2j pij ! (E( X ) + E(Y ))2
esper. i, j
i, j
i, j
= " x p + 2" xi y j pij + " y 2j pij ! µ 2X ! 2 µ X µY ! µY2
i, j
2
i ij
i, j
i, j
par
= " x 2i pi + 2" xi y j pij + " y 2j p j ! µ 2X ! 2 µ X µY ! µY2
Remar i
i, j
j
par
= " x 2i pi + 2" xi y j pi p j + " y 2j p j ! µ 2X ! 2 µ X µY ! µY2
indep i
i, j
j
= " x p + 2" xi pi " y j p j + " y 2j p j ! µ 2X ! 2 µ X µY ! µY2
i
2
i i
i
j
j
= µ X 2 + 2 µ X µY + µY 2 ! µ ! 2 µ X µY ! µY2
2
X
= µ X 2 ! µ 2X + µY 2 ! µY2
par
= V ( X ) + V (Y )
König
Soit une épreuve « genre binaire » (réussie ou ratée) répétée n-fois (épreuves identiques).
On note Xi la variable aléatoire prenant la valeur 1 si ‘réussi’, 0 sinon, au i-ième essai.
Une telle variable aléatoire s’appelle de Bernoulli (1685).
Supposons P( X i = 1) = p (un nombre compris entre 0 et 1) et donc P( X i = 0) = 1! p .
Posons X = X 1 + X 2 + X 3 +!+ X n la variable aléatoire qui somme le nombre de réussites.
Alors E( X ) = E( X 1 + X 2 + X 3 +!+ X n ) = E( X 1 ) +!+ E( X n ) = np
(
)
et V ( X ) = V ( X 1 +!+ X n ) = V ( X 1 ) +!+ V ( X n ) = µ X 2 ! µ 2X n = ( p ! p 2 )n = (1! p) pn
1
1
La variable aléatoire qui compte le nombre k de réussites sur n épreuves s’appelle une loi
binomiale (de paramètre n et p). On la note et elle s’obtient par :
! n $ k
n'k
P( X = k) = #
& p (1' p)
" k %
n
Exercice. Montrer que 1) ! P( X = k) = 1
k=0
2) µ = np 3) ! 2 = V ( X ) = np(1" p)
Téléchargement