Variables aléatoires

publicité
Variables aléatoires
I Variable aléatoire réelle
I.A
I.B
I.C
I.D
Variable aléatoire . . . . . . . . . . . . . . . . . . .
Loi de probabilité . . . . . . . . . . . . . . . . . . .
Fonction de répartition . . . . . . . . . . . . . . . .
Image d'une variable aléatoire par une application
II Lois usuelles
II.A
II.B
II.C
II.D
II.E
II.F
Loi certaine . . .
Loi uniforme . .
Loi de Bernoulli .
Loi binomiale . .
Loi géométrique .
Loi de Poisson .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
2
2
3
3
3
3
3
4
5
5
III Espérance d'une variable aléatoire
7
IV Variance et écart type
9
Dans tout le chapitre, on note (Ω, P ) un espace probabilisé, où Ω est un ensemble ni ou dénombrable.
I
Variable aléatoire réelle
I.A
Variable aléatoire
Dénition 1. Une variable aléatoire réelle X est une application dénie sur Ω et à valeurs dans R.
X:
Remarque 1. L'ensemble X(Ω) = {X(ω),
→
R
7
→
X(ω)
Ω
ω
ω ∈ Ω} est un ensemble ni ou dénombrable. On peut donc le noter :
X(Ω) = {x0 , x1 , . . . , xk , . . .} = {xi , i ∈ I}
où I = [[0, p]] ou N
et si Ω est ni, le cardinal de X(Ω) est inférieur ou égal à celui de Ω (strictement inférieur si l'application X n'est pas
injective).
Exemple 1. On jette deux dés à 6 faces : un bleu et un rouge. L'univers des résultats possibles est :
Ω = {1, 2, 3, 4, 5, 6}2 .
Pour tout couple ω = (i, j) de Ω, on peut dénir X(ω) = i + j , et représenter tous les cas possibles dans le tableau
suivant :
i\j
1
2
3
4
5
6
1
2
3
4
5
6
7
2
3
4
5
6
7
8
3
4
5
6
7
8
9
4
5
6
7
8
9
10
5
6
7
8
9
10
11
6
7
8
9
10
11
12
On a ici X(Ω) = {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}.
Il faut comprendre la variable aléatoire X de la manière suivante : ω ∈ Ω est le résultat brut de l'expérience (le couple
de chires donné par le lancer de dés), mais X(ω) ∈ X(Ω) est l'observation d'un résultat particulier qui nous intéresse
(ici la somme).
1
I.B
Loi de probabilité
Dénition 2. Soit
X une variable aléatoire. On appelle loi de probabilité de la variable aléatoire X , l'application
dénie pour x ∈ X(Ω) par :
−1
PX ({x}) = P X
(x) = P (X = x)
et pour B ⊂ X(Ω) par :
PX (B) =
X
P (X = xk )
xk ∈B
Remarque 2. Cette dénition peut être étendue à tout x ∈ R. Dans ce cas, si x ∈/
X(Ω), on a PX ({x}) = 0.
Théorème 1. L'application PX est une probabilité sur X(Ω).
−1 ({x }) pour x ∈ X(Ω) forme
Démonstration. On a clairement, pour tout xk ∈ X(Ω), PX ({x} ∈ [0, 1]. De plus, l'ensemble des X
k
k
clairement un système complet d'évènements de Ω et en conséquence :

X
X
P (X = xk ) =
xk ∈X(Ω)
P (X
−1

[
({xk })) = P 
xk ∈X(Ω)
X
−1
({xk }) = P (Ω) = 1
xk ∈X(Ω)
Exemple 2. On peut dénir la loi de probabilité de la variable aléatoire de l'exemple 1 en considérant l'équiprobabilité
sur Ω. Par exemple :
X −1 (3) = {(1, 2), (2, 1)}
et P (X = 3) =
card (X −1 (3))
2
=
card (Ω)
36
Plus généralement, on peut représenter les résultats dans le tableau suivant :
k
P (X = k)
2
3
4
5
6
7
8
9
10
11
12
1
36
2
36
3
36
4
36
5
36
6
36
5
36
4
36
3
36
2
36
1
36
Remarque 3. Deux variables aléatoires d'une même expérience aléatoire peuvent avoir même loi sans être égales.
On reprend toujours l'exemple 1 en notant X1 le nombre de points donnés par le dé bleu, et X2 le nombre de points donnés par le dé rouge. X1 et X2 sont deux varaibles aléatoires dénies sur le même espace probabilisé Ω = {1, 2, 3, 4, 5, 6}2
muni de l'équiprobabilité.
On a X1 (Ω) = X2 (Ω) = {1, 2, 3, 4, 5, 6} et :
∀k ∈ [[1, 6]] ,
P (X1 = k) =
1
,
6
P (X2 = k) =
1
6
Donc X1 et X2 ont même loi : PX1 = PX2 . Pour autant, on n'a pas égalité des variables aléatoires puisque par exemple
X1 {(1, 2)} = 1, et X2 {(1, 2)} = 2.
Il faut ainsi comprendre que les variables aléatoires X1 et X2 traduisent l'observation de deux résultats diérents (celui
du dé bleu et celui du dé rouge) mais de même nature (un chire entre 1 et 6 avec l'équiprobabilité)
I.C
Fonction de répartition
Dénition 3. Soit X une variable aléatoire. On appelle fonction de répartition de la variable aléatoire X , l'application
dénie pour x ∈ R par :
FX ({x}) = P (X 6 x) =
X
P (X = xk )
xk ∈X(Ω)
xk 6x
Proposition 1. La fonction de répartition FX est croissante sur R.
Démonstration.
C'est immédiat si on observe que si x 6 y, on a {X 6 x} ⊂ {X 6 y}.
2
Proposition 2.
Démonstration.
FX = FY si et seulement si PX = PY .
Admis.
Remarque 4. On peut déterminer la loi d'une variable aléatoire à partir de sa fonction de répartition :
Si X(Ω) = {x0 , x1 , . . . , xp } avec x0 < x1 < · · · < xp , alors PX (x0 ) = FX (x0 ) et :
∀k ∈ [[1, p]] , PX (xk ) = FX (xk ) − FX (xk−1 ).
Si X(Ω) = {xn , n ∈ N} avec (xn )n∈N croissante, alors PX (x0 ) = FX (x0 ), et pour k > 1 :
PX (xk ) = FX (xk ) − FX (xk−1 )
Exercice 1
Donner la représentation graphique de la fonction de répartition de la variable aléatoire X de l'exemple 1.
I.D
[va008]
Image d'une variable aléatoire par une application
Dénition 4. Soit X une variable aléatoire réelle et f une fonction de R à valeurs réelles. L'application :
f (X) :
→
R
7
→
f (X)(ω) = f X(ω)
Ω
w
est une variable aléatoire réelle appelée image de X par f .
Remarque 5. En pratique, on utilisera les variables aléatoires :
2
X :
II
II.A
Ω
w
→
R
2
2
7
→
X (ω) = X(ω)
et X :
3
Ω
w
→
R
3
3
7
→
X (ω) = X(ω)
Lois usuelles
Loi certaine
Dénition 5. La variable aléatoire X suit la loi certaine sur l'ensemble X(Ω) = {x0 } si et seulement si :
P (X = x0 ) = 1
II.B
Loi uniforme
Dénition 6. La variable aléatoire X suit la loi uniforme sur l'ensemble X(Ω) = {x1 , · · · , xn } si et seulement si PX
est l'équiprobabilité sur cet ensemble, autrement dit :
∀k ∈ [[1, n]] ,
P (X = xk ) =
Exemple 3. On lance un dé bien équilibré. Le nombre
{1, 2, 3, 4, 5, 6}.
II.C
1
.
n
X de points indiqués par ce dé suit la loi uniforme sur
Loi de Bernoulli
Dénition 7. Soit p ∈ [0, 1]. La variable aléatoire X suit la loi de Bernoulli B(p) de paramètre p sur l'ensemble
X(Ω) = {0, 1} si et seulement si :
P (X = 1) = p
et P (X = 0) = 1 − p = q
Notation : X ,→ B(p).
3
Remarque 6. La loi de Bernoulli sert à modéliser une situation où l'on n'observe que deux issues : l'une de probabilité
p et l'autre de probabilité q = 1 − p.
Exemples 4.
1. On lance une pièce de monnaie, en notant X = 1 si le résultat est pile et X = 0 si le résultat est face. X suit la
loi de Bernoulli de paramètre p = 1/2 (mais aussi la loi d'équiprobabilité).
2. On eectue un tirage avec remise dans une urne contenant 2 boules blanches et 3 boules noires, en notant X = 1
en cas d'apparition de la boule blanche, et 0 sinon. X suit la loi de Bernoulli de paramètre p = 2/5
II.D
Loi binomiale
Exercice 2
On considère des épreuves répétées indépendantes avec même probabilité de succès p ∈]0, 1[. On introduit l'évènement :
Ri = {succès à la i-ème épreuve}
ainsi que les évènements :
A
= {Au moins un succès au cours des n premières épreuves}
B
= {Exactement k succès au cours des n premières épreuves}
C
= {Toutes les épreuves donnent un succès}
1. Traduire en termes ensemblistes, à l'aide des Ri , l'évènement A, puis l'évènement A.
En déduire P (A).
2. On considère une partie I de [[1, n]] de cardinal k avec 0 < k < n, J son complémentaire dans [[1, n]], ainsi que
l'évènement :
BI = {Exactement k succès aux i-èmes épreuves pour i ∈ I parmi les n premières épreuves}
(a) Traduire en termes ensemblistes, à l'aide des Ri , l'évènement BI . En déduire P (BI ).
(b) En remarquant que B =
[
BI , en déduire la probabilité P (B).
I⊂[[1,n]]
card (I)=k
(c) Que dire des cas k = 0, et k = n ?
3. Montrer que pour tout n > 1, on a 0 6 P (C) 6 pn . En déduire P (C).
[va009]
Dénition 8. Soit p ∈ [0, 1] et n ∈ N∗ . La variable aléatoire X suit la loi binomiale B(n, p) de paramètres n et p sur
l'ensemble X(Ω) = {0, 1, . . . , n} si et seulement si :
∀k ∈ [[0, n]] ,
P (X = k) =
n k
p (1 − p)n−k .
k
Notation : X ,→ B(n, p).
Remarque 7. La loi binomiale est la loi satisfaite par une variable aléatoire donnant le nombre de succès lors de n
épreuves identiques et indépendantes, la probabilité du succès à chaque épreuve étant p.
Exemple 5. On eectue 10 tirages avec remise dans une urne contenant 2 boules blanches et 3 boules noires, en notant
X le nombre d'apparitions de la boule blanche. X suit la loi binomiale de paramètres n = 10 et p = 2/5.
Exercice 3
Vérier que la loi binomiale dénit bien une loi de probabilité sur [[0, n]].
4
[va010]
II.E
Loi géométrique
Exercice 4
On considère une suite innie d'épreuves répétées indépendantes avec même probabilité de succès p ∈]0, 1[. On note X
le numéro (aléatoire) de la première épreuve où l'on obtient un succès. Si l'on n'obtient jamais de succès, on conviendra
que X = +∞. De plus on introduit l'évènement :
Ri = {succès à la i-ème épreuve}
1. Traduire en termes ensemblistes à l'aide des Ri l'évènement {X = k}.
2. En déduire P (X = k).
3. Calculer P (X ∈ N∗ ) et en déduire P (X = +∞).
[va011]
Le résultat de l'exercice justie la dénition qui suit :
Dénition 9. Soit p ∈]0, 1[. La variable aléatoire X suit la loi géométrique G(p) de paramètre p sur l'ensemble
X(Ω) = N∗ si et seulement si :
∀k ∈ N∗ , P (X = k) = p(1 − p)k−1 .
Notation : X ,→ G(p).
Remarque 8. La loi géométrique est la loi satisfaite par une variable aléatoire donnant le numéro du premier succès
lors d'une série d'épreuves identiques et indépendantes, la probabilité du succès à chaque épreuve étant p.
Exemple 6. On lance indéniment un dé bien équilibré à six faces. Si
obtenir un six, alors X suit une loi géométrique de paramètre p = 1/6.
X est le nombre de lancers nécessaires pour
Exercice 5
Vérier que la loi géométrique dénit bien une loi de probabilité sur N∗ .
[va012]
Exercice 6
Montrer de deux manières diérentes que si X suit une loi géométrique de paramètre p, on a
∀n ∈ N, P (X > n) = q n , avec q = 1 − p.
[va013]
Exercice 7
Un tireur atteint une cible une fois sur trois. Déterminer le nombre n de tirs pour qu'il atteigne une cible avec une
probabilité supérieure à 80%
[va028]
II.F
Loi de Poisson
Dénition 10. Soit λ > 0. La variable aléatoire X suit la loi de Poisson P(λ) de paramètre λ sur l'ensemble X(Ω) = N
si et seulement si :
∀k ∈ N,
P (X = k) = e−λ
λk
.
k!
Notation : X ,→ P(λ).
Exemple 7. Soit X la variable aléatoire égale au nombre d'appels reçus par un standard téléphonique dans un intervalle
de temps [0, T ] : la loi de X est une loi de Poisson.
Exercice 8
Vérier que la loi de Poisson dénit bien une loi de probabilité sur N.
5
[va014]
Exercice 9
On admet que le nombre d'accidents survenant sur une autoroute quotidiennement est une variable aléatoire qui suit
une loi de Poisson de paramètre λ = 3. Quelle est la probabilité qu'il y ait au moins 2 accidents lors d'un jour donné ?
[va016]
Exercice 10
On suppose que Xn est une variable aléatoire qui suit une loi binomiale de paramètre (n, pn ) avec lim npn = λ > 0.
On pose également un =
n→+∞
npn
. k ∈ N est un entier xé.
λ
1. Que vaut lim un ?
n→+∞
2. Exprimer P (Xn = k) en fonction de n, k, un et λ.
n−k
n!
λun
.
3. Calculer lim k
et lim 1 −
n→+∞ n (n − k)!
n→+∞
n
4. En déduire lim P (Xn = k).
n→+∞
[va017]
Le résultat de l'exercice donne le théorème suivant :
Théorème 2 (Approximation binomiale par la loi de Poisson).
Si, pour tout n ∈ N, Xn suit une loi binomiale de paramètre (n, pn ) et si lim npn = λ, alors, pour tout k ∈ N, on a :
n→+∞
lim P (Xn = k) = e−λ
n→+∞
λk
.
k!
Remarque 9. Ce théorème sert de justication théorique à la règle pratique suivante : lorsque n est très grand et
p très petit , de sorte qu'on obtient un produit np proche de l'unité, voire de la dizaine, on peut approximer la loi
binomiale B(n, p) par la loi de Poisson P(λ) avec λ = np. (en admettant que l'erreur commise est susamment faible).
Exemple 8. Soit
X la variable aléatoire donnant le nombre de personnes qui réservent en ligne, un jour donné, le
vol Paris-Madrid du 10 juin à 10h30. On peut raisonnablement considérer que le fait pour un client de réserver ce vol
est indépendant du choix des autres clients. Si la probabilité qu'un client réserve est p, alors X suit en principe la loi
binomiale B(n, p) où n est le nombre total de clients qui réservent en ligne (donc très grand). La probabilité p est, elle,
très petite. On pourra donc approximer X par une loi de Poisson de paramètre λ = np :
P (X = k) ' e−λ
λk
k!
L'exemple suivant permet de mesurer la pertinence de l'approximation par la loi de Poisson :
Exemple 9. Le président d'un bureau de vote est né un 1er avril. Il décide de noter le nombre X de personnes ayant
leur anniversaire le même jour que lui parmi les 500 premiers électeurs qui se présentent.
La situation peut être assimilée à une suite d'épreuves répétées indépendantes et X est une variable aléatoire suivant
la loi binomiale de paramètres n = 500 et p = 1/365 (en négligeant les années bissextiles). Ainsi :
P (X = k) =
500
k
1
365
k 364
365
500−k
.
On peut approximer la loi de X par la loi de Poisson de paramètre :
λ = np = 500 ×
1
.
365
Voici une comparaison numérique pour les petites valeurs de k :
k
0
P (X = k) 0, 2537
e−λ λk
0, 2541
k!
1
0, 3484
2
0, 2388
3
0, 1089
4
0, 0372
5
0, 0101
0, 3481
0, 2385
0, 1089
0, 0373
0, 0102
Remarquons que la probabilité d'observer plus de 5 anniversaires un 1er avril, calculée par la loi exacte de X ou par
son approximation avec la loi de Poisson, est inférieure à 0,003. L'approximation est donc plutôt intéressante pour les
observations qui concentrent les probabilités signicatives.
6
Exercice 11
On suppose que, dans un livre de 500 pages, il y a 300 fautes d'impression distribuées au hasard. On cherche la
probabilité pour que la page 36 contienne :
a) Exactement deux fautes d'impression.
b) Au moins deux fautes d'impression.
1. Quelle est la loi exacte du nombre de fautes d'impression dans cette page ? Précisez quelles hypothèses vous faites.
2. Répondre aux deux questions en utilisant une approximation classique de la loi de X .
3. Comparer l'approximation obtenue avec la probabilité déterminée par la loi de X .
[va019]
Remarque 10. Lorsque nous serons amenés à introduire nous-mêmes une loi de Poisson, nous utiliserons en général
l'approximation binomiale par la loi de Poisson.
Exercice 12
Un lot de N pots de conture contient 0,2% de pots avariés. On cherche à calculer la probabilité que, parmi 1000 pots,
il y ait au plus 4 pots avariés . Pour cela on notera X la variable aléatoire au nombre de pots avariés parmi 1000 pots,
on reconnaitra une loi usuelle et on supposera N bien choisi pour pouvoir eectuer des approximations de la loi. [va021]
III
Espérance d'une variable aléatoire
Dénition 11.
Si X(Ω) = {x1 , . . . , xn }, on appelle espérance de la variable aléatoire X le réel :
E(X) =
n
X
xk P (X = xk )
k=1
Si X(Ω) = {xn }n∈N , la variable aléatoire X est dite d'espérance nie si la série
X
xn P (X = xn ) est absolument
n>0
convergente. Dans ce cas, on appelle espérance de la variable aléatoire X le réel :
E(X) =
+∞
X
xn P (X = xn )
n=0
Remarque 11. Il faut comprendre la notion d'espérance comme la moyenne des valeurs possibles de X pondérées par
leurs probabilités de réalisation.
Remarque 12. Par extension du vocabulaire, on conviendra que si Ω est ni, alors la variable aléatoire X est d'espérance nie.
Exercice 13 (calcul de l'espérance des lois classiques)
On reprend les diérentes lois vues au paragraphe II :
1. Que vaut E(X) si X suit la loi certaine ?
2. Calculer E(X) si X suit la loi de Bernoulli.
3. Que vaut E(X) si X suit la loi uniforme ?
4. On suppose que X suit la loi binomiale :
(a) Établir que pour tous entiers n > 1 et 1 6 k 6 n, on a k
(b) En déduire que E(X) = np.
5. (a) Calculer
+∞
X
kxk−1 pour x ∈] − 1, 1[.
k=1
7
n
n−1
=n
.
k
k−1
(b) Montrer que si X ,→ G(p), alors son espérance est nie et E(X) = p1 .
6. Montrer que si X ,→ P(λ), alors son espérance est nie et E(X) = λ.
Les résultats de cet exercice gurent au programme et doivent être connus.
[va022]
Remarque 13. Si X et Y ont même loi, il est clair que E(X) = E(Y ). La réciproque est fausse : par exemple, si X
suit la loi uniforme sur {0, 1/4, 1/2} et Y suit la loi de Bernoulli de paramètre 1/4 sur {0, 1}, ces lois sont clairement
diérentes, mais :
E(X) = E(Y ) =
1
4
Remarque 14. Il arrive que la variable aléatoire ne soit pas d'espérance nie, comme le montre l'exercice suivant ;
Exercice 14
On considère la variable aléatoire X dénie sur N∗ , et on donne pour k ∈ N∗ :
P (X = k) =
c
k2
avec c =
6
π2
1. Justier que PX est une loi de probabilité.
2. Montrer que X n'est pas d'espérance nie.
[va023]
Proposition 3 (Linéarité de l'espérance). L'espérance est une application linéaire. Autrement dit, si
d'espérance nie, et a, b ∈ R, alors aX + bY est d'espérance nie et on a :
X et Y sont
E(aX + bY ) = aE(X) + bE(Y )
C'est admis. Remarquons que l'égalité E(aX) = aE(X) est facile à obtenir mais qu'en revanche l'égalité E(X + Y ) =
est non triviale !
En eet, prenons le cas ni X(Ω) = {x1 , . . . , xn }. Le résultat est clair pour a = 0, et si a > 0, on a :
Démonstration.
E(X) + E(Y )
aX(Ω) = {ax1 , . . . , axn }
(prendre garde au fait que les éléments ax1 , . . . , axn sont distincts deux à deux). Ainsi :
E(aX) =
n
X
axk P (aX = axk ) = a
k=1
n
X
xk P (aX = axk )
k=1
et le résultat s'ensuit en remarquant que P (aX = axk ) = P (X = xk ).
Théorème 3 (théorème du transfert). Soit X une variable aléatoire réelle et f une application à valeurs réelles dénie
sur X(Ω).
Si X(Ω) = {x1 , . . . , xn }, alors :
n
X
E f (X) =
P (X = xk )f (xk )
k=1
Si X(Ω) = {xn }n∈N , alors f (X) est d'espérance nie si la série
X
f (xn )P (X = xn ) est absolument convergente.
n>0
Dans ce cas :
+∞
X
E f (X) =
P (X = xn )f (xn )
n=0
Remarque 15. En particulier, si X 2 est d'espérance nie, on aura :
E(X 2 ) =
+∞
X
P (X = xn )x2n
n=0
(formule utilisée pour les calculs de variances).
2
Au passage, attention à ne pas confondre E(X 2 ) avec E(X) !
8
Exercice 15
Démontrer que E(aX + b) = aE(X) + b pour a et b réels.
IV
[va024]
Variance et écart type
Proposition 4. Si la variable aléatoire X 2 est d'espérance nie, alors X est elle même d'espérance nie.
Démonstration.
Admis.
Dénition 12. Lorsque X 2 est d'espérance nie, on appelle variance de X le réel :
V (X) = E(X 2 ) − E(X)
et écart-type de X le réel :
σ(X) =
2
p
V (X)
Remarque 16. Une dénition équivalente (mais moins pratique pour les calculs) est :
V (X) = E
h
X − E(X)
2 i
Sous cette forme, on observe qu'il s'agit de la moyenne (pondérée) des carrés des écarts entre les valeurs possibles de
X et la moyenne (pondérée) de ces valeurs. C'est donc un indicateur de dispersion.
Démonstration.
Utilisons la linéarité de l'espérance :
E
h
2 i
X − E(X)
=
=
=
E
h
2 i
X − E(X)
=
h
2 i
E X 2 − 2E(X)X + E(X)
2 E(X 2 ) + E −2E(X)X + E(X)
par linéarité de l'espérance.
2
2
E(X ) − 2E(X)E(X) + E(X)
d'après le résultat de l'exercice 15.
2
2
E(X ) − E(X)
Théorème 4. Lorsque X 2 est d'espérance nie, on a pour tout a, b ∈ R :
V (aX + b) = a2 V (X)
Démonstration.
Il sut d'exprimer :
V (aX + b)
=
2
E(a2 X 2 + 2abX + b2 ) − E(aX + b)
=
2
a2 E(X 2 ) + 2abE(X) + b2 − aE(X) + b
2
a2 E(X 2 ) + 2abE(X) + b2 − a2 E(X) + 2abE(x) + b2
2 a2 E(X 2 ) − E(X)
=
V (aX + b)
=
Exercice 16 (calcul de la variance des lois classiques)
On reprend les diérentes lois vues au paragraphe II :
1. Que vaut V (X) si X suit la loi certaine ?
2. Montrer que si X suit la loi de Bernoulli, on a V (X) = pq = p(1 − p).
3. (a) Que vaut
n
X
k?
k=1
(b) En développant (k + 1)3 , déduire de la somme précédente la somme
n
X
k=1
9
k2 .
(c) En déduire que si X suit la loi uniforme sur [[1, n]], on a V (X) =
4. On suppose que X ,→ B(n, p). Montrer que V (X) = np(1 − p) = npq .
n2 − 1
.
12
1−p
q
=
.
2
p
p2
6. Montrer que si X ,→ P(λ), alors l'espérance de X 2 est nie et V (X) = λ.
5. Montrer que si X ,→ G(p), alors l'espérance de X 2 est nie et V (X) =
Les résultats de cet exercice gurent au programme et doivent être connus.
[va025]
Théorème 5 (Inégalité de Bienaimé-Tchebytchev).
Lorsque X 2 est d'espérance nie, on a pour tout t > 0 :
V (X)
P |X − E(X)| > t 6
t2
Remarque 17. Ce résultat traduit en particulier le fait que plus V (X) est petit, plus X est proche de sa moyenne.
Il peut être aussi très pratique pour majorer ou minorer certaines probabilités dont le calcul peut s'avérer coûteux,
comme le montre l'exercice qui suit :
Exercice 17
On lance n fois un dé à 6 faces. Comment choisir n pour que la probabilité d'obtenir un nombre de 6 compris entre 0
n
1
et soit supérieure à ?
[va027]
3
2
10
Téléchargement