Chapitre 14 : Variables aléatoires finies

publicité
ECS3 Carnot
Chapitre 14
2013/2014
Chapitre 14 : Variables aléatoires finies
Dans tout ce chapitre, (Ω, P(Ω)) est un espace probabilisable fini.
1
Motivation
Prenons un exemple : on considère l’expérience aléatoire obtenue par le jet de deux
dés (de couleur différente). On modélise cette expérience par Ω = [[ 1 ; 6 ]]2 , A = P(Ω).
Supposons que le résultat qui nous intéresse soit la somme des deux chiffres obtenus et que
l’on s’intéresse plus particulièrement à l’évènement A : « la somme obtenue est 7 ». On
décompose en évènements élémentaires :
A = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}
On préfère considérer une fonctions (ici la fonction S : Ω →
somme des chiffres obtenus) et dire que l’évènement A est
R
qui à ω ∈ Ω associe la
A = [S = 7] = {ω ∈ Ω, S(ω) = 7}
qui est plus facile à manipuler.
Pour les sceptiques, signalons que si on refuse d’utiliser les variables aléatoires, la situation devient vite intenable lorsque l’expérience considérée a de nombreux résultat : l’univers
(même fini) peut être très gros et difficile à décrire. Pour se convaincre, on peut essayer de
décrire l’univers de l’expérience suivante : ondistribue complètement un jeu de 52 cartes à
4 joueurs (on remarquera que Card Ω = 52
13 = 635013559600). L’utilisation de variables
aléatoires permet de faire abstraction du modèle.
2
Définitions
2.1
Variable aléatoire réelle discrète
Définition 2.1.1
Soit (Ω, A) est un espace probabilisable fini. On appelle variable aléatoire réelle sur
(Ω, A) toute application
Ω −→ R
X:
ω 7−→ X(ω)
On dit que l’ensemble X(Ω) = {X(ω), ω ∈ Ω} est l’univers-image de X.
Définition 2.1.2
Soit X une variable aléatoire réelle sur Ω et x ∈ R. On note
[X = x] = X −1 (x) = {ω ∈ Ω, X(ω) = x}
[X 6 x] = X −1 (] − ∞, x]) = {ω ∈ Ω, X(ω) 6 x}
[X > x] = X −1 (]x, +∞[) = {ω ∈ Ω, X(ω) > x}
On a en particulier [X 6 x] = [X > x] et [a 6 X 6 b] = X −1 ([a, b]) = [X > a]∩[X 6 b].
J. Gärtner.
1
ECS3 Carnot
Plus généralement, si I ⊂
parties sont des événements.
Chapitre 14
R on note [X
2013/2014
∈ I] = {ω ∈ Ω, X(ω) ∈ I}. Toutes ces
Lorsqu’on étudie une variable aléatoire il est bon d’essayer de préciser son image X(Ω).
Exemple. On joue à Pile ou Face n fois. L’univers est Ω = {0, 1}n où 1 symbolise le Pile
et A = P(Ω). Soit X la variable aléatoire qui donne le nombre de Piles obtenus.
On a X(Ω) = {0, 1, 2, 3, . . . , n}.
L’évènement [X = 0] est {(0, . . . , 0)}, l’évenement [X = 1] = {(ε1 , . . . , εn ), ∃! i ∈
[[ 1 ; n ]] , εi = 1}. On a par exemple [X > n − 1] = {(1, . . . , 1)}.
n
L’évènement « obtenir plus de pile que de face » est l’évènement (X > [ ]) = (X >
2
n
[ ] + 1).
2
Exercice. On s’intéresse à l’expérience aléatoire qui consiste ne le jet de deux dés de
couleur différente. Pour chaque jet, on considère la somme des deux chiffres obtenus.
Donner un espace probabilisable qui modélise cette expérience. Définir une variable
aléatoire réelle X qui traduit le résultat de cette expérience. Vérifier que c’est bien une
variable aléatoire réelle. Décrire X(Ω). Donner sous forme explicite les évènements (X = 1),
26
69
(X = 4), (X > 5), ( 6 X < ).
10
11
Exercice. On dispose d’une urne contenant N boules numérotées de 1 à N . On tire sans
remise successivement n boules. Décrire Ω. On note X l’application qui à ω ∈ Ω associe
le plus grand nombre tiré. Décrire X(Ω). Montrer que X est une variable aléatoire réelle
finie. Que valent les évènements (X 6 n − 1) et (X 6 N + 1) ? Quel est le cardinal de
(X 6 n) ?
2.2
Exemples de variables aléatoires
1. Une application constante est une variable aléatoire, on l’appelle variable aléatoire
certaine.
2. Une variable aléatoire X telle que Card X(Ω) = 2 est appelée variable aléatoire
de Bernoulli.
3. Si on s’interesse à un schéma binomial, répétition de n épreuves de Bernoulli indépendantes, la variable Xi qui vaut 1 si la iieme étape est un succès et 0 sinon est une
variable de Bernoulli. La variable donnant le nombre de succès au cours du schéma
est une variable aléatoire, d’univers image [[ 0 ; n ]], appelée variable de loi binomiale.
4. On jette simultanément deux dés équilibrés. On note X la somme des résultats obtenus. Alors X(Ω) = [[ 2 ; 12 ]]. On a par exemple [X = 6] = [X > 5] ∩ [X > 6] et
[X < 3, 2] = [X = 2] ∪ [X = 3].
2.3
Système complet d’événements associé à une variable aléatoire
Proposition 2.3.1
Soit (Ω, A) un espace probabilisable fini. Pour toute variable aléatoire réelle finie X sur
(Ω, A), l’ensemble
{[X = x], x ∈ X(Ω)}
est un système complet d’évènements. On l’appelle le système complet d’évènements associés à X.
J. Gärtner.
2
ECS3 Carnot
Chapitre 14
2013/2014
Démonstration : On sait que (X = x) ∈ A par définition d’une variable aléatoire réelle. Si
x 6= y ∈ X(Ω), il est clair que (X =
S x) ∩ (X = y) = ∅ : les évènements (X = x) et
(X = y) sont incompatibles. De plus x∈X(Ω) (X = x) = (X ∈ X(Ω)) = Ω. Ce qui montre
le résultat attendu.
Remarque. Les événements du système complet d’événements associé à X sont en quelque
sorte les événements les « plus petits » que l’on puisse considérer à l’aide de X. C’est la
quintessence de l’information apportée par X. Tout événements que l’on décrit à partir de
ce système complet ne tient compte uniquement de ce que l’on sait de l’expérience aléatoire
considérée par la connaissance de X.
Exemple. On joue deux fois à Pile ou Face. On a Ω = {0, 1}2 et A = P(Ω). Soit X la
variable aléatoire qui donne le nombre de Pile obtenus. On a X(Ω) = {0, 1, 2} et (X =
0) = {(F, F )}, (X = 1) = {(P, F ), (F, P )}, (X = 2) = {(P, P )} est un système complet
d’évènements.
Exercice. Dans l’expérience consistant au jet consécutif de deux dés, soit X la variable
aléatoire réelle finie qui donne la somme des chiffres obtenus. Décrire le système complet
d’évènements associé à X.
2.4
Lois de probabilité d’une variable aléatoire
Soit (Ω, A, P ) un espace probabilisé fini et X une variables aléatoire réelle sur (Ω, A). Vu
les remarques faites sur le système complet associé à X, la définition suivante est naturelle.
Définition 2.4.1
Soit (Ω, A, P ) un espace probabilisé fini et X une variables aléatoire réelle sur (Ω, A).
La donnée de la loi de probabilité est équivalente à la donnée de lunivers image
X(Ω) et de l’ensemble des probabilités
{P (X = x), x ∈ X(Ω)}
Remarque. Il est possible que deux variables aléatoires X et Y de même image aient
même loi. On note dans ce cas X ֒→ Y .
Exemple.
1. Soit X : ω 7→ a une variable aléatoire certaine. Sa loi est alors {P (X =
a) = 1}.
2. Soit X : Ω → {0, 1} une variable aléatoire de Bernoulli. Sa loi est {P (X = 1) =
p, P (X = 0) = 1 − p}.
3. On jette un dé équilibré, on note X le numéro obtenu. Alors X est une variable
1
aléatoire et sa loi est donnée par X(Ω) = [[ 1 ; 6 ]] et ∀k ∈ [[ 1 ; 6 ]] , P (X = k) = .
6
Proposition 2.4.1
Soit (Ω, A, P ) un espace probabilisé fini et X une variable aléatoire réelle finie.
alors
X
P (X = x) = 1
x∈X(Ω)
et si on numérote les éléments de X(Ω), c’est-à-dire que l’on pose X(Ω) = {xi , i ∈
[[ 1 ; n ] } on a
J. Gärtner.
3
ECS3 Carnot
Chapitre 14
n
X
2013/2014
P (X = xi ) = 1
i=1
Il faut toujours vérifier ce point lorsque l’on donne une loi de probabilité.
Démonstration : Ceci découle du fait que {(X = x), x ∈ X(Ω)} est un système complet
d’évènements (on utilise les deux propriétés : d’abord que Ω est l’union de tous les événements du système, puis que ces événements sont deux à deux incompatibles). On a donc
P
P
S
(X = x).
1 = P (Ω) = P ( x∈X(Ω) [X = x]) =
x∈X(Ω)
Exercice. On dispose d’une urne contenant N boules numérotées de 1 à N . On tire sans
remise successivement n boules. Préciser l’espace probabilisé de travail. Soit X la variable
aléatoire réelle finie égale au plus grand numéro des n boules prélevées. Que vaut X(Ω) ?
N
P
k−1
N
Donner la loi de X. En déduire que
n−1 = n .
k=n
2.5
Fonction de répartition
Définition 2.5.1
Soit (Ω, A, P ) un espace probabilisé fini et X une variable aléatoire réelle finie. L’application
R −→ R
FX :
x 7−→ P (X 6 x)
est appelée Fonction de répartition de X.
Exemple. DESSINS : remarquer que la loi de chaque variable se lit dans les sauts de FX .
1. Variable aléatoire certaine. Si x < a FX (x) = 0 et si x > a FX (x) = 1.
2. Variable aléatoire de Bernoulli. (Rappel : P (X = 0) = 1 − p et P (X = 1) = p). Si
x < 0 FX (x) = 0 si x ∈ [0, 1[ FX (x) = 1 − p et si x > 1, FX (x) = 1.
3. Variables aléatoires uniformes. X(Ω) = {x1 , . . . , xn } avec x1 < · · · < xn . Si x < x1 ,
i
FX (x) = 0. Si x ∈ [xi , xi+1 [ avec i ∈ [[ 1 ; n − 1 ]] Fx (x) = et si x > xn , FX (x) = 1.
n
On remarque que la loi de X se lit dans les sauts de FX .
Nous allons étudier maintenant les propriétés des fonctions de répartitions de variables
aléatoires réelles finies. Nous utilisons les notions de limite et de continuité, qui seront
rappelées dans un chapitre ultérieur. Attention : le point 4. du théorème ci-dessous dépend
de manière cruciale de l’hypothèse « X finie » !
Théorème 2.5.1
La fonction de répartition FX d’une variable aléatoire réelle finie X est
1. Croissante sur R.
2. ∀x ∈ R, 0 6 FX (x) 6 1 et lim FX (x) = 0, lim FX (x) = 1.
x→−∞
x→+∞
3. FX est continue à droite : ∀x ∈ R, lim FX (t) = FX (x).
t→x
t>x
J. Gärtner.
4
ECS3 Carnot
Chapitre 14
2013/2014
4. FX prend un nombre fini de valeurs, elle n’a qu’un nombre fini de discontinuités.
Elle est continue en tout point de R r X(Ω).
5. ∀x ∈ R, lim FX (t) = FX (x) − P (X = x) = P (X < x)
t→x
t<x
6. FX est continue en x si et seulement si P (X = x) = 0, i.e. x ∈
/ X(Ω).
7. Si X(Ω) = {x1 , . . . , xn } avec x1 < · · · < xn , on a
∀x ∈ R, FX (x) =
X
P (X = xi )
i∈[[ 1 ; n ]]
xi 6x
La preuve de ce théorème est intéressante pour commencer à comprendre comment
manipuler les variables aléatoires.
Démonstration :
1. Soient x, y ∈ R tels que x 6 y. On a ] − ∞, x] ⊂] − ∞, y] donc
(X 6 x) ⊂ (X 6 y) et P (X 6 x) 6 P (X 6 y). C’est donc que FX (x) 6 FX (y) et FX
est croissante.
2. FX (x) = P (X 6 x) ∈ [0, 1]. Posons X(Ω) = {x1 , . . . , xn } avec x1 < · · · < xn .
Calculons lim FX (x). Si x < x1 , alors (X 6 x) = ∅. Donc FX (x) = P (X 6 x) = 0.
x→−∞
Sur ] − ∞, x1 [, FX est la fonction constante nulle, lim FX (x) = 0.
x→−∞
Montrons que lim FX (x) = 1. Dès que x > xn on a (X 6 xn ) ⊂ (X 6 x). Mais
Sx→+∞
n
(X 6 xn ) = k=1 (X = xk ) = (X ∈ X(Ω)) = Ω. Ainsi 1 = P (X 6 xn ) 6 P (X 6
x) 6 1 et FX (x) = 1. FX est la fonction constante à 1 sue ]xn , +∞[, sa limite est 1.
3. Si t < x1 ou t > xn on a vu que FX était constante donc continueSà droite. De
même, si i ∈ [[ 1 ; n − 1 ]] et t ∈ [xi , xi+1 [, FX (t) = P (X 6 t) = P ( k=1 iP (X =
i
P
P (X = xk ) est contante. Ainsi pour tout x ∈ [x1 , xn [ il existe un unique
xk )) =
k=1
i ∈ [[ 1 ; n − 1 ]] tel que x ∈ [xi , xi+1 [. Alors lim FX (t) = FX (x) = FX (xi ).
t→x
t>x
4. C’est une conséquence de la preuve de 3. : si ∀i, x 6= xi , FX est constante sur un
intervalle ouvert centré en x.
5. Si x ∈
/ X(Ω), on vient de voir au point 4. que FX est continue en x. Comme P (X =
x) = 0 (puisque x n’est pas une valeur de X !), on a bien lim FX (t) = FX (x) − P (X =
t→x
t<x
x).
Si x est l’un des xi , avec i 6= 1, on a pour t ∈]xi−1 , xi [, FX (t) = P (X 6 t) = P (X <
xi ). C’est une fonction constante, d’où le résultat sur la limite. Si x = x1 , pour tout
t < x on a FX (t) = 0 = P (X < x1 ), et le résultat suit.
6. et 7. Evident au vu des points précédents.
Théorème 2.5.2 (La fonction de répartition caractérise la Loi )
Si X et Y sont deux variables aléatoires réelles finies de même fonction de répartition,
alors X et Y ont même loi de probabilité, i.e. X ֒→ Y .
Démonstration : En effet la loi de X est la donnée pour tout x ∈ X(Ω) de P (X = x).
Soit x ∈ R quelconque. D’après le théorème précédent, P (X = x) = FX (x) − lim FX (t).
t→x
t<x
Mais FX = FY donc P (X = x) = FY (x) − lim FY (t) = P (Y = x). Ceci montre que
t→x
t<x
X(Ω) = Y (Ω) et que X et Y ont même loi.
J. Gärtner.
5
ECS3 Carnot
Chapitre 14
2013/2014
Remarque. Les propriétés des variables aléatoires finies montrent que si X(Ω) = {x1 , . . . xn }
avec x1 < · · · < xn alors on a P (X = x1 ) = FX (x1 ) et
∀i ∈ [[ 2 ; n ]] , P (X = xi ) = FX (xi ) − FX (xi−1 )
Exemple. Soit X une variable aléatoire finie de fonction de répartition

0
si x < 0







1


si 0 6 x < 1



2




3



si 1 6 x < 2
5
x 7→

4



si 2 6 x < 4

 5




9



si 4 6 x < 7


10




1
si x > 7
1
3
Alors X(Ω) = {0, 1, 2, 4, 7} et P (X = 0) = , P (X = 1) = FX (1) − FX (0) = −
2
5
1
1
1
1
=
, P (X = 2) = FX (2) − FX (1) = , P (X = 4) = FX (4) − FX (2) =
et
2
10
5
10
1
P (X = 7) = FX (7) − FX (4) = .
10
Remarque. Pour la variable aléatoire de l’exemple ci-dessus, on a P (X < 0) = 0. On dit
dans ce cas que X est presque-sûrement positive.
Exercice. On considère k > 0 urnes contenant chacune n boules identiques numérotées
de 1 à n. On extrait une boule de chaque urne, on note Xi le numéro de la boule tirée
dans l’urne i et on pose M = sup{X1 , . . . , Xk }. Montrer que M est une variable aléatoire.
Calculer la fonction de répartition de la variable aléatoire M , en déduire sa loi.
2.6
Transfert d’une variable aléatoire
Définition 2.6.1
Soit X une variable aléatoire réelle finie définie sur un espace probabilisable fini (Ω, A).
Soit g : X(Ω) → R une application. Alors
Ω −→ R
Y :
ω 7−→ g(X(ω))
est une variable aléatoire finie, notée g(X), appelée transfert de X par g.
Exemple. On lance deux fois de suite un dé. Cette expérience est modélisée par (Ω =
[[ 1 ; 6 ]]2 , P(Ω), P ) où P est la probabilité uniforme. Soit X la variable aléatoire donnant la
différence des chiffres obtenus aux deux lancers et Y = |X|. Alors par transfert Y est une
variable aléatoire finie sur (Ω, P(Ω)). L’évènement [X = −1] ne peut pas s’écrire à l’aide
des événements de l’ensemble {(Y ∈ I), I ⊂ [[ 0 ; 5 ]]}.
Autrement dit, en général en effectuant un transfert on perd de l’information.
Exercice : Donner X(Ω) et Y (Ω).
J. Gärtner.
6
ECS3 Carnot
Chapitre 14
2013/2014
Pour bien comprendre ce qu’est un transfert, il faut connaître les exemples ci-dessous
sur le bout des doigts :
Exemple. Soit X une variable aléatoire réelle finie d’image {x1 , . . . , xn }. Donnons la loi
de Y = g(X) lors que
1. g(x) = ax + b avec a 6= 0. Alors Y (Ω) = {axi + b, i ∈ [[ 1 ; n ]]} et
P (Y = yi ) = P (X =
yi − b
)
a
2. g(x) = x2 alors Y (Ω) = {x2i , i ∈ [[ 1 ; n ] } et
P (X = 0)
si yi = 0
√
√
P (Y = yi ) =
P (X = yi ) + P (X = − yi ) si yi 6= 0
3. Si g est une bijection (par exemple donnée par g(x) = ex ), P (Y = yi ) = P (X =
g−1 (yi )).
4. Si X strictement positive et g : x 7→ ln x, alors P (Y = yi ) = P (X = eyi ).
Bien entendu tous ces calculs se justifient en explicitant les événements. Par exemple,
√
√
si y 6= 0 il est clair que [X 2 = y] = [X = y] ∪ [X = − y] et que ces événements sont
incompatibles.
Le théorème suivant (à la limite du programme), permet de donner en général la loi
d’un transfert.
Théorème 2.6.1
Si X est une variable aléatoire finie d’image {x1 , . . . , xn } et g : X(Ω) → R. La loi de
Y = g(X) est donnée par
X
P (Y = y) =
P (X = xi )
i∈[[ 1 ; n ]] t.q. g(xi )=y
Exercice. On lance deux fois de suite un dé. Cette expérience est modélisée par (Ω =
[[ 1 ; 6 ]]2 , P(Ω), P ) où P est la probabilité uniforme. Soit X la variable aléatoire donnant
la différence des chiffres obtenus aux deux lancers et Y = |X|. Alors par transfert Y est
une variable aléatoire finie sur (Ω, P(Ω)). Donner la loi de X et la loi de Y .
3
Moments d’une variable aléatoire réelle finie
3.1
Espérance
3.1.1 Définition
Définition 3.1.1
Soit X une variable aléatoire réelle finie sur (Ω, A, P ) et telle que X(Ω) = {x1 , . . . , xn }.
L’espérance (mathématique) de X est le réel
E(X) =
n
X
xi P (X = xi ) =
i=1
J. Gärtner.
X
x∈X(Ω)
7
xP (X = x)
ECS3 Carnot
Chapitre 14
2013/2014
Proposition 3.1.1
Si Ω est un univers fini et A = P(Ω), alors
E(X) =
X
X(ω)P (ω)
ω∈Ω
Démonstration : On note X(Ω) = {x1 , . . . , xn }. L’égalité annoncée dans la proposition pron
P
xi P (X = xi ).
vient d’un réarrangement de la somme
i=1
Remarque. Toute variable aléatoire finie a une espérance (ce qui n’est pas le cas en
général). Cette espérance est une moyenne pondérée. Lorsque X est le gain possible d’un
jeu, E(X) représente le gain que l’on peut espérer « en moyenne » lorsque l’on joue plusieurs
parties.
Exemple. On joue 2 fois à Pile ou Face avec une pièce biaisée qui tombe sur Pile (symbolisé
par 1) avec probabilité p ∈]0, 1[. La mise est de 1 euros. Si la pièce tombe sur pile, on gagne
3 euros. Sinon la mise est perdue. L’univers est Ω = {0, 1}n , on prend A = P(Ω) et P la
probabilité définie par indépendance des tirages (modèle étudié à la fin du chapitre 8). On
note X la variable aléatoire qui donne le gain (algébrique) du joueur. X est une variable
aléatoire car l’algèbre choisie est l’algèbre discrète. On a X(Ω) = {−2, 1, 4}. La loi de X
est : P (X = −2) = P ((0, 0)) = (1−p)2 P (X = 1) = P ((0, 1)∪(1, 0)) = 2p(1−p) et P (X =
4) = P (1, 1) = p2 . En moyenne le joueur gagne E(X) = −1×(1−p)2 +1×(2p(1−p))+4×p2 .
Si p = 0, 1 (pièce fortement biaisée...) l’espérance vaut −0, 59 : en moyenne (sur un grand
nombre d’expériences) le joueur perd près de 60 centimes.
Exemple.
1. La variable aléatoire certaine égale à a a pour espérance E(X) = a.
2. La variable aléatoire X : Ω → {0, 1} de loi P (X = 1) = p a pour espérance p.
3. L’exemple précédent peut aussi s’exprimer en fixant un événement A de Ω et en
remarquant que X : Ω → {0, 1} définie par X(ω) = 1 si ω ∈ A et X(ω) = 0 sinon
est une variable aléatoire de Bernoulli. Sa loi est donnée par P (X = 1) = P (A) (car
[X = 1] = A !) et E(X) = P (A).
P
1
4. On jette un dé équilibré, on note X le numéro obtenu, on a E(X) = 6k=1 k × =
6
6×7 1
7
× = .
2
6
2
3.1.2
Propriétés de l’espérance
Proposition 3.1.2 (Positivité)
Soit X une variable aléatoire finie positive (i.e. X(Ω) ⊂ R+ ). Alors E(X) > 0 et si
E(X) = 0, X est presque-sûrement nulle (i.e. P (X = 0) = 1).
Démonstration : Par définition E(X) =
n
P
xi P (X = xi ). C’est une somme de termes positifs
i=1
par hypothèse.
Si cette somme est nulle, pour tout i, xi P (X = xi ) = 0 puisque c’est une somme de
termes positifs. Si P (X = xi ) > 0, alors xi = 0 d’où le résultat.
J. Gärtner.
8
ECS3 Carnot
Chapitre 14
2013/2014
Proposition 3.1.3 (Linéarité de l’espérance cas facile)
Soient a, b ∈ R et X une variable aléatoire réelle finie. Alors E(aX + b) = aE(X) + b.
Démonstration : Posons Y = aX + b et X(Ω) = {x1 , . . . , xn }. Si a = 0, Y est la variable
aléatoire certaine b qui est bien d’espérance b. Sinon, on a vu que Y (Ω) = {axi + b, i ∈
[[ 1 ; n ]]} et que P (Y = axi + b) = P (X = xi ). Donc
E(Y ) =
n
X
(axi + b)P (X = xi ) = aE(X) + b
i=1
Remarque. C’est un cas particulier du théorème de transfert que l’on verra ci-dessous.
Définition 3.1.2
Soit X une variable aléatoire réelle finie. Si E(X) = 0 on dit que X est centrée.
Dans le cas où X n’est pas d’espérance nulle, on peut considérer la variable aléatoire
centrée associée à X ; c’est X − E(X).
Démonstration : En effet, E(X −E(X)) = E(X)−E(X) = 0 d’après la proposition ci-dessus.
Proposition 3.1.4 (Additivité de l’espérance)
Soit X, Y deux variables aléatoires réelles finies définies sur un même espace probabilisé.
Alors
E(X + Y ) = E(X) + E(Y )
Démonstration : La démonstration est simple lorsque A = P(Ω) car dans ce cas E(X + Y ) =
P
(X(ω) + Y (ω))P (ω) et on utilise la linéarité de la somme.
ω∈Ω
On a donc
Proposition 3.1.5 (Linéarité de l’espérance)
Soit X, Y deux variables aléatoires réelles finies définies sur un même espace probabilisé.
Alors si a, b ∈ R,
E(aX + bY ) = aE(X) + bE(Y )
Démonstration : Exercice
Proposition 3.1.6 (Croissance)
Si X et Y sont deux variables aléatoires finies définie sur un même espace probabilisé
telles que ∀ω ∈ Ω, X(ω) 6 Y (ω), alors E(X) 6 E(Y ).
Démonstration : On a Y −X donc par positivité de l’espérance E(Y −X) > 0 et par linéarité
E(Y − X) = E(Y ) − E(X) donc E(Y ) > E(X).
3.1.3
Théorème de transfert
Le théorème de transfert permet de calculer l’espérance du transfert d’une variable
aléatoire uniquement à l’aide de la loi de cette variable.
Théorème 3.1.1 (Théorème de transfert )
Soit X une variable aléatoire réelle finie et X(Ω) = {x1 , . . . , xn }. Soit g une application
J. Gärtner.
9
ECS3 Carnot
Chapitre 14
2013/2014
de X(Ω) dans R. Alors
E(g(X)) =
n
X
g(xi )P (X = xi ) =
i=1
X
g(x)P (X = x)
x∈X(Ω)
Démonstration : Rappelons que E(X) =
P
X(ω)P (ω). On a donc (en se rappelant que
ω∈Ω
[X = x] = {ω ∈ Ω, X(ω) = x} et que ces ensembles constituent un système complet
d’événements)
E(g(X)) =
X
g(X(ω))P (ω)
ω∈Ω
=
X
X
g(X(ω))P (ω)
x∈X(Ω) ω∈[X=x]
=
g(x)
X
g(x)P (
X
g(x)P (X = x)
[
ω)
ω∈[X=x]
x∈X(Ω)
=
P (ω)
ω∈[X=x]
x∈X(Ω)
=
X
X
x∈X(Ω)
Exemple. On considère l’expérience du jet successif de deux dés. X est la variable aléatoire
qui donne la différence du premier et du deuxième jet, et Y = |X|. Nous pouvons calculer
E(Y ) à l’aide uniquement de la loi de X.
E(Y ) = 5(P (X = −5)+P (X = 5))+4(P (X = −4)+P (X = 4))+· · ·+P (X = −1)+P (X = 1)
Il n’est pas nécessaire de calculer explicitement la loi de Y .
Exercice. Soit X une variable aléatoire réelle finie telle que X(Ω) = [[ 0 ; n ] et ∀k ∈
[[ 0 ; n ]] , P (X = k) = nk pk (1 − p)n−k . Posons Y = X(X − 1). C’est une variable aléatoire
réelle finie. Calculer E(Y ) (on remarquera qu’il n’est pas nécessaire de préciser Y (Ω)).
3.2
Variance
Définition 3.2.1
Soit X une variable aléatoire réelle finie. La variance de X est le nombre réel
V (X) = E((X − E(X))2 )
D’après le théorème de transfert, on a, en notant µ = E(X)
X
V (X) =
(x − µ)2 P (X = x)
x∈X(Ω)
La variance mesure en quelque sorte l’écart de X par rapport à son espérance E(X).
En pratique on utilise rarement la définition de V (X) pour calculer la variance. On lui
préfère la formule suivante, qui simplifie un peu les calculs.
J. Gärtner.
10
ECS3 Carnot
Chapitre 14
2013/2014
Proposition 3.2.1 (Formule de Kœnig-Huygens)
Soit X une variable aléatoire réelle finie. Alors
V (X) = E(X 2 ) − (E(X))2
Démonstration : En effet en utilisant la linéarité de l’espérance V (X) = E((X − E(X))2 ) =
E(X 2 − 2XE(X) + (E(X)2 )) = E(X 2 ) − 2E(X)E(X) + E(X)2 = E(X 2 ) − (E(X))2 .
Exemple. On joue 2 fois à Pile ou Face avec une pièce biaisée qui tombe sur Pile (symbolisé
par 1) avec probabilité p ∈]0, 1[. La mise est de 1 euros. Si la pièce tombe sur pile, on gagne
3 euros. Sinon la mise est perdue.
On a vu plus haut que l’univers est Ω = {0, 1}2 , on prend A = P(Ω).
On note X la variable aléatoire qui donne le gain (algébrique) du joueur. X est une
variable aléatoire car l’algèbre choisie est l’algèbre discrète.
On a X(Ω) = {−2, 1, 4}.
La loi de X est : P (X = −2) = P ((0, 0)) = (1−p)2 P (X = 1) = P ((0, 1)∪(1, 0)) = 2p(1−p)
et P (X = 4) = P (1, 1) = p2 .
En moyenne le joueur gagne E(X) = −2 × (1 − p)2 + 1 × (2p(1 − p)) + 4 × p2 .
Si on souhaite calculer la variance, on peut utiliser la formule de Kœnig-Huygens, pour
cela on commence par calculer E(X 2 ) à l’aide du théorème de transfert :
X
E(X 2 ) =
k2 P (X = k) = 4P (X = −2)+P (X = 1)+16P (X = 4) = 4(1−p)2 +2p(1−p)+16p2
k∈X(Ω)
On connaît aussi E(X)2 = (−2 × (1 − p)2 + 1 × (2p(1 − p)) + 4 × p2 )2 .
On a donc tout pour calculer
V (X) = E(X 2 ) − E(X)2
2
P Ou bien on utilise2la définition (et le théorème de transfert) : V (X) = E((X−E(X)) ) =
k∈X(Ω) (k − E(X)) P (X = k)
En général le calcul à l’aide de la formule de Kœnig-Huygens est plus rapide.
Exercice. Dans une urne en contenant N boules numérotées de 1 à N , on tire simultanément n boules. Soit X la variable aléatoire donnant le plus grand des numéros tirés.
Calculer E(X) et V (X).
Proposition 3.2.2
Soit X une variable aléatoire réelle finie et a, b ∈ R. Alors
1. V (X) > 0.
2. V (X) = 0 ⇔ X = E(X) presque sûrement, i.e. X est une variable aléatoire
certaine.
3. V (aX + b) = a2 V (X)
Démonstration :
1. En effet (X − E(X))2 > 0 donc E(X − E(X))2 ) > 0.
2. Si X est une v.a. certaine, alors X = E(X) presque sûrement et P (X−E(X) = 0) = 1.
La variable (X − E(X))2 est nulle presque sûrement et son espérance est nulle.
Réciproquement si V (X) = 0 alors la v.a. positive (X − E(X))2 est d’espérance nulle,
donc nulle presque sûrement. P (X = E(X)) = 1.
J. Gärtner.
11
ECS3 Carnot
Chapitre 14
2013/2014
3. On a (aX + b − E(aX + b))2 = (aX + b − aE(X) − b)2 = (aX − aE(X))2 = a2 (X −
E(X))2 . Le résultat suit par linéarité de l’espérance.
Exercice. Soit X une variable aléatoire finie d’image {x1 , . . . , xn }. Montrer que
V (X) =
X
(xi − xj )2 P (X = xi )P (X = xj ) =
16i<j6n
1 X
(X(ω) − X(ω ′ ))2 P (ω)P (ω ′ )
2
′
ω,ω ∈Ω
Définition 3.2.2
Soit X une variable aléatoire réelle finie. On appelle écart-type de X le réel
p
σ(X) = V (X)
Si E(X) = 0 et σ(X) = 1 on dit que X est centrée réduite.
Proposition 3.2.3
Pour toute variable aléatoire réelle finie X, la variable
X∗ =
X − E(X)
σ(X)
est centrée réduite. On l’appelle variable aléatoire centrée réduite associée à X.
Démonstration : On a E(X ∗ ) = 0 par linéarité et V (X ∗ ) =
1
V (X) = 1.
σ(X)2
On emploie souvent l’écart type comme mesure de dispersion, c’est-à-dire de la manière
dont la variable aléatoire s’étale autour de son espérance (ou encore, on pourrait remarquer
qu’une variable aléatoire dont l’écart-type est petit, que la probabilité qu’elle prenne des
valeurs très éloignées de son espérance est très faible). Cette interprétation de l’écart-type
et de la variance est justifié par l’inégalité de Bienaymé-Tchebychev, que l’on verra à la fin
de l’année.
4
4.1
Lois finies classiques
Loi certaine
Lorsque qu’une variable aléatoire X est constante, on dit qu’elle est certaine. On a
X(Ω) = a et P (X = a) = 1. Dans ce cas E(X) = a et V (X) = 0.
4.2
Loi uniforme
Modèle : C’est la loi que l’on rencontre en situation d’équiprobabilité ; une variable dont
toutes les valeurs sont équiprobables. Par exemple : une urne contient 15 boules numérotées,
on tire une boule au hasard et on note X son numéro.
J. Gärtner.
12
ECS3 Carnot
Chapitre 14
2013/2014
Définition 4.2.1
Une variable aléatoire réelle X telle queX(Ω) = [[ 1 ; n ]] et
∀k ∈ [[ 1 ; n ]] , P (X = k) =
1
n
est une variable aléatoire qui suit une loi uniforme sur [[ 1 ; n ]]. On note alors X ֒→
U([[ 1 ; n ]]).
Exemple. On jette un dé équilibré. Soit X la variable aléatoire qui donne le résultat.
X ֒→ U([[ 1 ; 6 ]]).
– Si x < 1 alors
– Soit i ∈ [[ 1 ; 5 ]]. Si i 6 x < i + 1 alors
– Si 6 6 x alors
1
1/6
1
6
x
Proposition 4.2.1 (Espérance et variance)
Si X ֒→ U([[ 1 ; n ]]), alors
E(X) =
Démonstration : On a E(X) =
n
P
n+1
2
V (X) =
kP (X = k) =
k=1
D’après le théorème de transfert E(X 2 ) =
n
P
k=1
J. Gärtner.
13
n2 − 1
12
n k
P
n+1
=
.
2
k=1 n
k 2 P (X = k) =
n k2
P
(n + 1)(2n + 1)
=
.
n
6
k=1
ECS3 Carnot
Chapitre 14
2013/2014
D’après la formule de Kœnig-Huygens,
V (X) = E(X 2 ) − E(X)2
(n + 1)(2n + 1) (n + 1)2
−
6
4
(n + 1)(4n + 2 − 3n − 3)
=
12
n2 − 1
=
12
=
Remarque. La valeur de l’espérance est intuitive : la loi uniforme donne le même « poids »
à toutes les valeurs entre 1 et n. En moyenne, on est donc vers le milieu de l’intervalle !
Le cas général ci-dessous est présenté à titre d’exemple de techniques classiques. Il
convient de retenir la définition et les méthodes !
Définition 4.2.2 (Cas général )
Si a, b ∈ Z avec a < b, on définit la loi uniforme sur [[ a ; b ]] par X ֒→ U([[ a ; b ]]) si et
seulement si X(Ω) = [[ a ; b ]] et
∀k ∈ [[ a ; b ]] , P (X = k) =
1
b−a+1
Ceci correspond à une répartition équilibrée entre tous les points de [[ a ; b ]].
Proposition 4.2.2 (Lien entre les lois uniformes)
Soit a, b ∈ Z et Y ֒→ U([[ 1 ; b − a + 1 ]]). Posons X = Y + a − 1. Alors
X ֒→ U([[ a ; b ]])
Démonstration : En effet, par transfert, X est une variable aléatoire et X(Ω) = [[ a ; b ] . On
a de plus (toujours le théorème de transfert, cas bijectif car la fonction x 7→ x + a − 1 est
1
bijective) ∀k ∈ [[ a ; b ]] , P (X = k) = P (Y = k − a + 1) =
.
b−a+1
Proposition 4.2.3 (Espérance et variance)
Si X ֒→ U([[ a ; b ]]) alors E(X) =
a+b
(b − a + 1)2 − 1
et V (X) =
2
12
Démonstration : Il est important de comprendre le principe de cette preuve qui peut servir !
On utilise la proposition précédente : soit Y = X − a + 1. Alors Y ֒→ U([[ 1 ; b − a + 1 ]])
et X = Y +a−1. On a donc E(X) = E(Y )+a−1 et V (X) = V (Y ). Comme on connaît déjà
(b − a + 1)2 − 1
b−a+2
b+a
b−a
et V (Y ) =
on a donc E(X) =
+a−1 =
et
E(Y ) =
2
12
2
2
2
(b − a + 1) − 1
la variance est bien V (X) =
.
12
4.3
Loi de Bernoulli
Modèle : La loi de Bernoulli se rencontre lorsqu’une expérience aléatoire est une épreuve
de Bernoulli (une expérience qui n’a que deux issues possibles : succès et échec). C’est la
loi de la variable aléatoire qui vaut 1 en cas de succès, et 0 en cas d’échec.
J. Gärtner.
14
ECS3 Carnot
Chapitre 14
2013/2014
Définition 4.3.1
Soit p ∈]0, 1[. Si X est une variable aléatoire réelle telle queX(Ω) = {0, 1}, on dit que
X est une variable aléatoire de Bernoulli.
Son paramètre est la probabilité de succès p = P (X = 1).
On note X ֒→ B(1, p).
Fonction de répartition
– Si x < 0 alors
– Si 0 6 x < 1 alors
– Si 1 6 x alors
1
1−p
1
x
Proposition 4.3.1 (Espérance et variance)
Si X ֒→ B(1, p) alors
E(X) = p
V (X) = p(1 − p)
Démonstration : E(X) = 0(1 − p) + 1 × p = p. On remarque que X 2 ֒→ B(1, p) donc
E(X 2 ) = p et d’après la formule de Kœnig-Huygens, V (X) = E(X 2 ) − E(X)2 = p − p2 .
4.4
Loi binomiale ou loi des tirages avec remise
Modèle : On considère une expérience qui se déroule en répétant n fois, de manière
indépendante, une épreuve de Bernoulli. Le succès à une épreuve donnée ne dépend pas
des autres résultats. Soit X la variable aléatoire égale au nombre de succès dans cette série
de n épreuves de Bernoulli. On dit que X suit la loi binomiale.
Alors on a déjà vu que X(Ω) = [[ 0 ; n ]]
et
n k
∀k ∈ [[ 0 ; n ]] , P (X = k) =
p (1 − p)n−k
k
Définition 4.4.1
Soit n ∈ N∗ , p ∈]0, 1[. Soit X une variable aléatoire réelle telle que X(Ω) = [[ 0 ; n ]] et
n k
∀k ∈ [[ 0 ; n ]] , P (X = k) =
p (1 − p)n−k
k
J. Gärtner.
15
ECS3 Carnot
Chapitre 14
2013/2014
On dit que X sui la loi binomiale de paramètre (n, p). On note X ֒→ B(n, p).
Méthode : Lorsque l’on rencontre une variable aléatoire X qui semble être une variable
de loi binomiale, on a deux possibilités pour déterminer sa loi :
– Soit on utilise le modèle : on explicite le fait que X compte le nombre de succès dans
une répétition indépendante d’épreuves de Bernoulli.
– Soit on calcule explicitement la loi : on explicite X(Ω) et pour tout k ∈ [[ 0 ; n ]]
on décrit [X = k] de manière suffisamment précise pour prouver que P (X = k) =
n k
n−k .
k p (1 − p)
Remarque. X est la somme de n variables aléatoires de Bernoulli : X =
n
P
Xk où Xk
k=1
est la variable aléatoire indicatrice de l’évènement « la kième épreuve est un succès ». 1
Exercice. On dispose d’une urne qui contient N boules dont b blanches et n noires. On
b
pose p = . On tire successivement avec remise n boules de l’urne. On note X la variable
N
aléatoire qui donne le nombre de boules blanches tirées. Montrer que X ֒→ B(n, p). Ceci
justifie le nom de loi des tirages avec remise donné à la loi binomiale.
Exercice. Soit X une variable aléatoire de loi binomiale de paramètre (n, p). Quelle est
la loi de la variable Y = n − X ?
Proposition 4.4.1 (Espérance et variance)
Si X ֒→ B(n, p), alors
E(X) = np
V (X) = np(1 − p)
Démonstration : On a
n
X
n k
E(X) =
k
p (1 − p)n−k
k
k=0
n
X
n−1 k
=
n
p (1 − p)n−k
k−1
k=1
n−1
X k =n
pk+1 (1 − p)n−k−1
n−1
k=0
= np(p + (1 − p))n−1 = np
Pour le calcul de la variance, il faut remarquer que k 2 = k(k − 1) + k. Cette astuce
permet
très souvent
de faciliter les calculs de variance
car elle permet
d’itérer la formule
n
n−1
k nk = n n−1
:
on
utilise
le
fait
que
k(k
−
1)
=
n(k
−
1)
=
n(n
− 1) n−2
k−1
k
k−1
k−2 .
On a
V (X) = E(X 2 ) − E(X)2 = E(X(X − 1)) + E(X) − E(X)2 = E(X(X − 1)) + np − (np)2
1. Les variables de Bernoulli sont, comme on le verra plus tard, de même paramètre p et indépendantes.
J. Gärtner.
16
ECS3 Carnot
Chapitre 14
2013/2014
et à l’aide du théorème de transfert
n
X
n k
k(k − 1)
p (1 − p)n−k
k
k=0
n X
n−2 k
p (1 − p)n−k
= n(n − 1)
k−2
k=2
n X
n − 2 k−2
p
(1 − p)n−k
= n(n − 1)p2
k−2
k=2
n−2
X n − 2
2
= n(n − 1)p
pk (1 − p)n−2−k
k
E(X(X − 1)) =
k=0
= n(n − 1)p2 (p + (1 − p))n−2 = n(n − 1)p2
D’où
V (X) = n(n − 1)p2 + np − (np)2 = np(1 − p)
Remarque. La formule donnant l’espérance E(X) = np est cohérente avec l’interprétation
d’une loi binomiale comme somme de variables de Bernoulli « indépendantes ». Si X =
n
n
n
P
P
P
p = np.
E(Xk ) =
Xk où Xk ֒→ B(1, p) alors E(X) =
k=1
k=1
k=1
Attention, la somme des variance n’est en générale pas la variance de la somme, sauf
condition d’indépendance. C.f. cours de l’année prochaine !
4.5
Loi hypergéométrique ou loi des tirages sans remise
Cette loi n’est plus au programme, mais est présentée ici à titre d’exercice. C.f. TD !
Modèle : On dispose d’une urne contenant N boules dont b blanches et r rouges. On
b
pose p =
la proportion de boules blanches. On tire successivement sans remise n boules
N
de l’urne (on suppose n 6 N ).
Ω est l’ensemble des parties à n boules de l’urne qui en contient N . On a Card Ω = N
n .
Au vu des hypothèse, on peut supposer que l’espace probabilisé qui convient est l’espace
(Ω, P(Ω), P ) où P est la probabilité uniforme. On note X la variable aléatoire qui donne
le nombre de boules blanches tirées.
Alors 2 X(Ω) = [[ max(0, n − r) ; min(n, b) ]] = [[ max(0, n − N (1 − p)) ; min(n, N p) ]]
car si on tire plus de boule qu’il y a de boules rouges, X(ω) > n − r et on peut tirer
au plus la totalité des boules blanches disponibles (si on tire plus de boules qu’il n’y a de
boules blanches).
Tirer exactement k boules blanches revient à tirer k boules blanches et n − k boules
rouges. Ainsi
∀k ∈ X(Ω), P (X = k) =
b r k n−k
N
n
X est la somme de n variables de Bernoulli : X =
=
n
P
N p N (1−p)
k
n−k
N
n
Xk où Xk est la variable aléatoire
k=1
indicatrice de l’évènement « le k-ième tirage est une boule blanche ». 3
2. On peut considérer que X(Ω) = [[ 0 ; n ]] quitte à ajouter des événements négligeables, voir impossibles !
3. Au contraire de la loi binomiale, ces variables de Bernoulli sont dépendantes : leur paramètre dépend
du nombre de boules blanches déjà tirées. Ce résultat sera précisé ultérieurement.
J. Gärtner.
17
ECS3 Carnot
Chapitre 14
2013/2014
Définition 4.5.1
Soit N ∈ N et p ∈]0, 1[ tel que N p ∈ N. Soit X une variable aléatoire telle que
X(Ω) = [[ max(0, n − N (1 − p)) ; min(n, N p) ]] et
∀k ∈ [[ max(0, n − N (1 − p)) ; min(n, N p) ]] , P (X = k) =
N p N (1−p)
k
n−k
N
n
Alors on dit que X suit la loi hypergéométrique de paramètres (N, n, p). On note
X ֒→ H(N, n, p).
Exemple. Un lac contient r poissons dont r1 sont malades. On effectue un prélèvement
de n poissons. Quelle est la probabilité d’obtenir exactement k1 poissons malades ?
Proposition 4.5.1 (Formule de Vandermonde)
Soit X ֒→ H(N, n, p). Alors puisque {[X = k], k ∈ [[ max(0, n − N (1 − p)) ; min(n, N p) ]]}
est un système complet d’évènements, on a
min(n,N p)
X
k=max(0,n−N (1−p))
Np
k
n
k
Ou encore, en utilisant la convention
N (1 − p)
N
=
n−k
n
= 0 si k ∈
/ [[ 0 ; n ]] :
n X
N p N (1 − p)
k=0
k
n−k
=
N
n
Proposition 4.5.2 (Espérance)
Soit X ֒→ H(N, n, p). Alors
E(X) = np
Démonstration : On a, à l’aide de la formule de Vandermonde et en se rappelant que k
E(X) =
n
X
k=0
k
Np
k
N (1−p)
n−k
N
n
=
Np
k
= Np
n N p X N p − 1 N (1 − p)
Np N − 1
= np
=
N
N
k−1
n−1
n−k
n
n
k=1
Remarque. Il n’est pas exigé de connaitre la variance d’une loi hypergéométrique : si
N −n
X ֒→ H(N, n, p), alors V (X) = np(1 − p)
.
N −1
Démonstration : Pour calculer V (X), calculons E(X 2 ) à l’aide du théorème de transfert et
de la formule déjà utilisée pour la loi binomiale (k 2 = k(k − 1) + k) :
J. Gärtner.
18
N p−1
k−1
:
ECS3 Carnot
Chapitre 14
2
E(X ) =
=
n
X
k=0
n
X
k=0
k
2
Np
k
N (1−p)
n−k
N
n
(k(k − 1) + k)
2013/2014
Np
k
N (1−p)
n−k
N
n
n N p(N p − 1) X N p − 2 N (1 − p)
+ E(X)
N
k−2
n−k
n
k=2
N p(N p − 1) N − 2
=
+ np
N
n−2
n
=
N p(N p − 1)(N − 2)!n!(N − n)!
+ np
N !(n − 2)!(N − 2 − (n − 2))!
Np − 1
+ np
= n(n − 1)p
N −1
=
Donc V (X) = n(n − 1)p
J. Gärtner.
N −n
Np − 1
+ np − (np)2 = np(1 − p)
.
N −1
N −1
19
ECS3 Carnot
4.6
Chapitre 14
2013/2014
Résumé sur les lois classiques
1. Loi certaine : X : ω 7→ a. E(X) = a et V (X) = 0.
2. Loi uniforme sur [[ 1 ; n ]] : équiprobabilité des résultats. Si X ֒→ U([[ 1 ; n ]]) alors
– X(Ω) =
– ∀k ∈
– E(X) =
– V (X) =
– Loi uniforme sur [[ a ; b ]] : Y (Ω) = [[ a ; b ]] et ∀k ∈ [[ a ; b ]] , P (Y = k) =
– Les variables Y et X − a + 1 ont
– On sait donc retrouver espérance et variance.
3. Loi de Bernoulli de paramètre p ∈]0, 1[ : loi du succès dans une expérience qui n’a
que deux issues. Si X ֒→ B(1, p) alors
– X(Ω) =
– ∀k ∈
– E(X) =
– V (X) =
4. Loi de binomiale de paramètre (n, p) : loi du nombre de succès dans une répétition
indépendante d’épreuves de Bernoulli, ou loi des tirages avec remise (n est le nombre
de répétitions, p la probabilité de succès). Si X ֒→ B(n, p) alors
– X(Ω) =
– ∀k ∈
– E(X) =
– V (X) =
J. Gärtner.
20
Téléchargement