Variables aléatoires réelles finies I. Variables aléatoires réelles II

publicité
Gaudino, casier 5
version 2.0
Variables aléatoires réelles finies
P.C.S.I. 834
Lycée Masséna
Soit Ω un univers fini.
I.
Variables aléatoires réelles
I.1.
Variables aléatoires
définition 1. Une variable aléatoire est une fonction définie sur Ω à valeurs dans une ensemble E.
Remarques :
– La variable aléatoire est dite réelle lorsque E = R.
– Une variable aléatoire se note généralement X, Y , . . .
– L’événement noté usuellement {X = x} est l’ensemble X −1 ({x}) : image réciproque de {x} par X, ou encore
l’ensemble des antécédents de x par X. On écrit habituellement P {X = x} au lieu de P ({X = x}).
– L’ensemble image X(Ω) est appelé support de X.
– Le support de X est ici fini (car Ω est fini) : on dit que X est une variable aléatoire finie. Dans la suite, on note
X(Ω) = {x1 , · · · , xn } (au besoin, on précisera x1 < · · · < xn ).
– Combinaisons linéaires de variables aléatoires, de variables aléatoires réelles, de variables aléatoires finies. Structure
d’espace vectoriel.
I.2.
Loi d’une variable aléatoire
définition 2. Soit Ω un univers muni d’une probabilité P , et X une variable aléatoire. On définit PX , appelée loi de
la variable aléatoire X, par :
– sur les singletons de X(Ω) par PX ({xi }) = P {X = xi } ;
– puis sur chaque sous-ensemble (événement) de X(Ω) par additivité. Pour A ⊂ X(Ω), on note PX (A) = P {X ∈ A}.
Théorème 1. PX est une loi de probabilité sur X(Ω).
La probabilité d’obtenir xi en appliquant X est P {X = xi }. C’est donc aussi PX ({xi }). On la note aussi dans la suite
pi .
Exercice : on tire simultanément 2 boules dans une urne qui en contient 5, numérotées de 1 à 5. On note X la variable
aléatoire qui donne la valeur absolue de la différence des numéros. Donner la loi de X.
P {X = 1} = 2/5, P {X = 2} = 3/10, P {X = 3} = 1/5, P {X = 4} = 1/10
I.3.
Fonction de répartition
définition 3. La fonction FX :
R
x
−→
7−→
[0, 1]
est appelée fonction de répartition de X.
P {X ≤ x}
On note encore X(Ω) = {x1 , · · · , xn }, avec x1 < x2 < · · · < xn . On a :
– si x < x1 , P {X ≤ x} = 0
– si xk ≤ x < xk+1 avec 1 ≤ k ≤ n − 1, P {X ≤ x} = P {X = x1 } + P {X = x2 } + · · · + P {X = xk }
– si x ≥ xn , P {X ≤ x} = 1
– si x < y sont deux réels, P {x < X ≤ y} = P {X ≤ y} − P {X ≤ x}
Exercice : calculer la loi de X en calculant sa fonction de répartition, dans le cas où X désigne la face maximale sortie
dans une série de n jets successifs indépendants de dés 6.
P {X ≤ k} =
kn
pour k ∈ J1, 6K
6n
II.
Couples de variables aléatoires
II.1.
Lois conjointes et marginales
– On considère les deux variables aléatoires finies, définies sur le même univers Ω. On note leurs supports respectifs :
X(Ω) = {x1 , · · · , xn } et Y (Ω) = {y1 , · · · , ym }
Le support du couple (X, Y ) est inclus dans X(Ω) × Y (Ω), et est en particulier fini : (X, Y ) est une fonction définie
sur Ω, à valeurs dans R2 , de support fini : on parle de couple de variables aléatoires finies.
1
– La loi conjointe de X et Y est la loi de (X, Y ). C’est une loi sur X(Ω) × Y (Ω) (avec éventuellement des événements
impossibles). Les événements atomiques sont les {(X, Y ) = (xk , yl )} soit encore {X = xk }∩{Y = yl }, {X = xk , Y =
yl }, {X = xk et Y = yl }.
Tout événement de X(Ω) × Y (Ω) s’obtient comme réunion disjointe de ces événements atomiques, et on calcule alors
leur probabilité par additivité.
– Les deux lois marginales de (X, Y ) sont respectivement les lois de X sur X(Ω) et de Y sur Y (Ω).
– Si on note pk,l = P {(X, Y ) = (xk , yl )}, pk,∗ = P {X = xk }, et p∗,l = P {Y = yl }, on a le tableau :
P
X = x1
X = x2
..
.
X = xn
loi de Y
et les relations :
∀k ∈ J1, nK,
m
X
Y = y1
p1,1
p2,1
..
.
pn,1
p∗,1
pk,l = pk,∗
l=1
Y = y2
p1,2
p2,2
..
.
pn,2
p∗,2
···
···
···
..
.
···
···
Y = ym
p1,m
p2,m
..
.
pn,m
p∗,m
loi de X
p1,∗
p2,∗
..
.
pn,∗
1
n
X
pk,l = p∗,l ∀l ∈ J1, mK,
k=1
X
pk,l = 1
k,l
– La loi conjointe détermine les lois marginales, par ces formules de sommation. En revanche, les lois marginales ne
déterminent pas la loi conjointe, puisque diverses valeurs des pk,l permettent d’obtenir les mêmes pk,∗ et p∗,l .
Exercice : déterminer les lois conjointe et marginales de X et Y , dans le cas d’un jet de deux dés tétraédriques équilibrés
distincts, où X est la somme des faces, et Y le produit. S’agit-il de variables aléatoires indépendantes ?
II.2.
Lois conditionnelles
définition 4. La loi conditionnelle de X sachant que {Y = yl }, où l’événement {Y = yl } est de probabilité non nulle,
est la loi définie sur X(Ω) par les probabilités atomiques
P {X = xk | Y = yl } =
pk,l
P {(X, Y ) = (xk , yl )}
=
P {Y = yl }
p∗,l
puis par additivité.
On définit de même la loi conditionnelle de Y sachant {X = xk }.
Proposition 2. La loi conditionnelle de X sachant que {Y = yl } est une loi de probabilité définie sur X(Ω).
III.
Variables aléatoires indépendantes
III.1.
Pour deux variables aléatoires
définition 5 (Couples de variables aléatoires indépendantes). Les variables aléatoires X et Y définies sur Ω sont dites
indépendantes si, pour tout x de X(Ω) et tout y de Y (Ω), les événements {X = x} et {Y = y} sont indépendants, et
donc
∀(k, l), P {(X, Y ) = (xk , yl )} = P {X = xk }P {Y = yl }
Dans le tableau, en notant pk = P {X = xk } et ql = P {Y = yl }, on trouve :
P
X = x1
X = x2
..
.
X = xn
loi de Y
Y = y1
p1 q1
p2 q1
..
.
pn q1
q1
Y = y2
p1 q2
p2 q2
..
.
pn q2
q2
···
···
···
..
.
···
···
Y = ym
p1 qm
p2 qm
..
.
pn qm
qm
loi de X
p1
p2
..
.
pn
1
Proposition 3. Si X et Y sont indépendantes, alors, pour tout x élément de X(Ω), la loi conditionnelle PY |X=x est
égale à la loi marginale PY .
Théorème 4. X et Y sont indépendantes, si et seulement si, pour toute partie A de X(Ω) et toute partie B de Y (Ω),
on a :
P {(X, Y ) ∈ A × B} = P {X ∈ A}P {Y ∈ B}
2
Sens direct : on applique la propriété aux singletons A = {xk } et B = {yl }.
Réciproque : quitte à renuméroter, on prend A = {x1 , · · · , xk } et B = {y1 , · · · , yl }. {(X, Y ) ∈ A × B} est la réunion disjointe des ensembles {(X, Y ) = (xi , xj )} pour
1 ≤ i ≤ k et 1 ≤ j ≤ l, donc P {(X, Y ) ∈ A×B} est la somme de ces probabilités. Comme par définition de l’indépendance, P {(X, Y ) = (xi , xj )} = P {X = xi }P {Y = yj },
on a
P {(X, Y ) ∈ A × B}
=
X
P {(X, Y ) = (xi , xj )}
1≤i≤k
1≤j≤l
k
=
X
P {X = xi }
i=1
III.2.
X
=
P {X = xi }P {Y = yj }
1≤i≤k
1≤j≤l
l
X
P {Y = yj }
=
P {X ∈ A} P {Y ∈ B}
j=1
Pour plusieurs variables aléatoires
définition 6 (Variables aléatoires mutuellement indépendantes). Les variables aléatoires X1 , X2 , · · · , Xp définies sur
Ω sont dites mutuellement indépendantes si, pour tout (x1 , x2 , · · · , xp ) de X1 (Ω)×X2 (Ω)×· · ·×Xp (Ω), les événements
{Xi = xi } sont mutuellement indépendants.
Ceci est équivalent à : pour tout k et tout choix de k entiers i1 < i2 < · · · < ik de J1, pK,
P {Xi1 = xi1 , Xi2 = xi2 , · · · , Xik = xik } = P {Xi1 = xi1 }P {Xi2 = xi2 } · · · P {Xik = xik }
Théorème 5 (admis). X1 , . . . , Xp sont des variables aléatoires mutuellement indépendantes, si et seulement si, quel
p
Y
que soit (A1 , . . . , Ap ) ∈
P(Xi (Ω)), les événements (Xi ∈ Ai ) sont mutuellement indépendants.
i=1
On a donc en particulier : pour tout k et tout choix de k entiers i1 < i2 < · · · < ik de J1, pK,


k
k
\
Y
P  {Xij ∈ Aij } =
P {Xij ∈ Aij }
j=1
j=1
Toute sous-famille est alors constituée de variables aléatoires mutuellement indépendantes.
Par exemple pour montrer que X1 et X2 sont indépendantes, on prend A3 = X3 (Ω), . . ., Ap = Xp (Ω) de sorte que {X3 ∈ A3 } = Ω, . . ., {Xp ∈ Ap } = Ω, et la propriété
devient que {X1 ∈ A1 } et {X2 ∈ A2 } sont indépendants. Ceci pour tout A1 ∈ X1 (Ω) et A2 ∈ X2 (Ω), ce qui prouve l’indépendance de X1 et X2 par le théorème vu
auparavant.
IV.
Espérance, variance et écart type d’une variable aléatoire
IV.1.
Espérance
IV.1.1.
définitions
Soit X une variable aléatoire définie sur l’univers Ω, et P une probabilité sur Ω. On note encore X(Ω) = {x1 , · · · , xn }.
X
définition 7. L’espérance de X est E(X) =
X(w)P ({w}).
w∈Ω
Remarques :
– Interprétation : l’espérance représente la moyenne pondérée du résultat de l’expérience X renouvelée un grand
nombre de fois.
– Calculs pour une variable aléatoire constante égale à a : E(X) = a.
– Calculs pour une indicatrice d’une sous-partie de Ω : E(X) représente le poids (coefficienté) de cette sous-partie
dans Ω.
IV.1.2.
résultats
Théorème 6. – positivité de l’espérance : pour X une variable aléatoire positive, E(X) ≥ 0.
– croissance de l’espérance : pour X et Y deux variables aléatoires, si X ≤ Y alors E(X) ≤ E(Y ).
– linéarité : pour X et Y deux variables aléatoires, et λ ∈ R, E(λX + Y ) = λE(X) + E(Y ).
n
n
X
X
– E(X) =
P {X = xi }xi =
pi xi . C’est la formule pratique de calcul de l’espérance.
i=1
i=1
En particulier, E(aX + b) = aE(X) + b.
La formule pratique se prouve en regroupant les ω qui ont la même image xi dans la formule de l’espérance : xi est affecté de la somme des probabilités des singletons
(disjoints) de ces ω, donc de la probabilité de leur réunion, qui est l’ensemble {X = xi }. D’où le résultat.
Exercice : calculer espérance (2) et écart-type (1) de l’exercice sur les 2 boules dans une urne de 5.
3
IV.1.3.
cas indépendant
Théorème 7. Si X et Y sont deux variables aléatoires indépendantes alors E(XY ) = E(X)E(Y ).
Il suffit de décrire l’image de XY comme l’ensemble des produits xi yj , pour 1 ≤ i ≤ n et 1 ≤ j ≤ m. En utilisant P {(X, Y ) = (xi , yj )} = P {X = xi }P {Y = yj } par
indépendance, on a
X
E(XY ) =
xi yj P {(X, Y ) = (xi , yj )} =
X
xi yj P {X = xi }P {Y = yj } =
1≤i≤n
1≤j≤m
1≤i≤n
1≤j≤m
n
X
xi P {X = xi }
i=1
m
X
yj P {Y = yj } = E(X)E(Y )
j=1
La réciproque est fausse en général.
2
Soit X une variable aléatoire qui prend les trois valeurs −1, 0, 1 avec la même probabilité 1/3, et Y = X . Alors
2
1
E(XY ) = E(X)E(Y ) = 0 mais X et Y ne sont pas indépendantes, puisque P {X = 1}P {Y = 1} =
et P ({X = 1} ∩ {Y = 1}) = P {X = 1} =
.
9
3
IV.2.
Image par une fonction
IV.2.1.
définition
Soit f : R → R et X une variable aléatoire sur Ω. f ◦ X est une nouvelle variable aléatoire sur Ω. La loi associée à
cette variable aléatoire est une loi de probabilité sur le support de f ◦ X, i.e. sur f (X(Ω)) (qui est fini).
Théorème 8 (Théorème du transfert).
E(f (X)) =
X
f (x)P {X = x} =
X
f (xi )pi =
i=1
x∈X(Ω)
Par définition, E(f (X)) =
n
X
n
X
f (xi )P {X = xi }
i=1
f ◦ X(ω)P {ω}. Comme pour la formule pratique, on regroupe les ω qui ont la même image xi dans la formule de l’espérance : f (xi ) est
ω∈Ω
affecté de la somme des probabilités des singletons (disjoints) de ces ω, donc de la probabilité de leur réunion, qui est l’ensemble {X = xi }. D’où le résultat.
L’espérance de f (X) est déterminée par la loi de X (et pas uniquement de f ◦ X, c’est ce qui est remarquable dans
ce théorème).
Application au calcul du moment d’ordre 2 : cas où f : x 7→ x2 et calcul de E(X 2 ).
IV.2.2.
cas indépendant
Théorème 9 (admis). Si X et Y sont deux variables aléatoires indépendantes, et si f et g sont des applications
définies respectivement sur X(Ω) et Y (Ω) alors les variables aléatoires f (X) et g(Y ) sont indépendantes.
Il faut montrer que P {(f (X), f (Y )) = (ξ, µ)} = P {f (X) = ξ}P {f (Y ) = µ} où ξ ∈ f ◦ X(Ω) et µ ∈ g ◦ Y (Ω). Mais on a les égalités d’ensembles {f (X) = ξ} = {X ∈
f
−1
({ξ})} et {g(Y ) = µ} = {Y ∈ g
−1
({µ})}, et {(f (X), f (Y )) = (ξ, µ)} = {X ∈ f
IV.3.
Variance et écart-type
IV.3.1.
définitions
définition 8. – La variance de X est V (X) = E
p
– L’écart-type de X est σ(X) = V (X).
−1
({ξ})} ∩ {Y ∈ g
−1
({µ})}. Par indépendance du X et Y , on a bien le résultat.
2 X − E(X)
.
Remarques :
– Interprétation : la variance représente la dispersion des résultats autour de la moyenne. L’écart-type permet une
mesure de la dispersion dimensionnée.
– Calcul pour une variable aléatoire constante égale à a : V (X) = 0.
IV.3.2.
résultats
Théorème 10. – V (X) =
n
X
i=1
n
2 X
2
pi xi − E(X) =
P (X = xi ) xi − E(X) (par le th de transfert).
i=1
– Relation (de Koenig-Huygens) : V (X) = E(X 2 ) − E(X)2 (par linéarité).
– Relation V (aX + b) = a2 V (X) (par Koenig-Huygens).
Notons m = E(X).
–
2
La première formule est l’application du théorème de transfert à f : x 7→ (x − m) .
2
2
2
2
2
2
2
V (X) = E
X − E(X)
= E(X − 2mX + m ) = E(X ) − 2mE(X) + m = E(X ) − m .
–
2
2
2
2
2
2
2
2
2
V (aX + b) = E((aX + b) ) − E(aX + b) = a E(X ) + 2abE(X) + b − a E(X) − 2abE(X) − b = a V (X).
–
Remarques :
– La relation de Koenig-Huygens est la formule pratique pour calculer la variance.
– Exercice : calculer espérance (2) et écart-type (1) de l’exercice sur les 2 boules dans une urne de 5.
4
– Exercice : la valeur E(X) est celle qui minimise la fonction g : y 7→
n
X
2
pi xi − y .
i=1
Proposition 11. Si X et Y sont deux variables aléatoires indépendantes alors V (X + Y ) = V (X) + V (Y ). Généralisation à plusieurs variables aléatoires mutuellement indépendantes.
2
2
2
2
2
2
V (X + Y ) = E((X + Y ) ) − E(X + Y ) = E(X ) + 2E(XY ) + E(Y ) − E(X) − 2E(X)E(Y ) − E(Y ) = V (X) + V (Y ) + 2E(XY ) − 2E(X)E(Y ) = V (X) + V (Y ) car
par indépendance, E(XY ) = E(X)E(Y ).
IV.4.
Normalisation
Corollaire 12 (renormalisation). Si X est une variable aléatoire alors X ∗ =
X − E(X)
X − E(X)
p
=
est centrée
σ(X)
V (X)
( i.e. d’espérance nulle) réduite ( i.e. de variance égale à 1).
V.
Quelques lois à connaître
V.1.
Variable constante
Lorsque X est constante, de support {a}, alors P {X = a} = 1, E(X) = a et V (X) = 0.
V.2.
Loi uniforme
définition 9. Soient a et b deux entiers tels que a < b (on note n = b − a + 1 soit le nombre d’entiers entre a et b).
On dit que la variable aléatoire X suit la loi uniforme U(Ja, bK), noté X ,→ U(Ja, bK), lorsque :
∀k ∈ Ja, bK, P {X = k} =
1
1
=
b−a+1
n
1
.
n
Exercice : si X ,→ U(J1, nK) alors X + a ,→ U(Ja + 1, a + nK). A-t-on un résultat analogue avec λX ,→ U(Jλ, nλK)
(non) ?
Cas particulier important : a = 1, b = n, et ∀k ∈ J1, nK, P {X = k} =
Théorème 13. Si X ,→ U(Ja, bK) alors E(X) =
a+b
(b − a + 1)2 − 1
n2 − 1
et V (X) =
=
.
2
12
12
Exercice : une urne contient n boules numérotées de 1 à n. On tire une à une des boules (sans remise) jusqu’à obtenir
la boule n. On note X la variable aléatoire qui donne le numéro de ce tirage. Montrer que X suit une loi uniforme.
V.3.
V.3.1.
Loi de Bernoulli
définition
définition 10. Soit p ∈ [0, 1]. On dit que la variable aléatoire X suit la loi B(p) de Bernoulli de paramètre p, noté
X ,→ B(p), lorsque :
P {X = 1} = p et P {X = 0} = 1 − p
Théorème 14. Si X ,→ B(p) alors E(X) = p et V (X) = p(1 − p).
2
2
2
2
E(X) = p ∗ 1 + (1 − p) ∗ 0 = p et V (X) = p ∗ (1 − p) + (1 − p) ∗ (0 − p) = p ∗ (1 − p) + (1 − p) ∗ p = p ∗ (1 − p) ∗ (1 − p + p) = p(1 − p)
ou calcul de la variance par la formule de Huygens.
Interprétation : succès d’une expérience aléatoire. Cette variable aléatoire permet d’étudier une expérience aléatoire
qui a deux issues possibles :
– 1 (appelé succès) de probabilité p ;
– 0 (appelé échec) de probabilité q = 1 − p.
Exercice : dans une urne contenant n boules rouges et m vertes, on tire une boule. Le succès est obtenu par une boule
n
rouge. Définir une variable aléatoire qui décrit cette expérience et trouver sa loi : loi de Bernoulli d’indice
.
n+m
5
V.3.2.
fonction indicatrice
Soit A un sous-ensemble (événement) de Ω. On considère la fonction notée χA ou 1A , appelé indicatrice de A, définie
sur Ω à valeurs dans R par :
∀ω ∈ Ω, 1A (ω) = 1 si ω ∈ A, 1A (ω) = 0 si ω ∈
/A
–
–
–
–
Son image est incluse dans {0, 1} (égale pour A 6= ∅ et A 6= Ω).
1A = 1 − 1A
1A∩B = 1A 1B
1A∪B = 1A + 1B − 1A 1B en passant par 1 − 1A∪B = (1 − 1A )(1 − 1B )
V.3.3.
variable de Bernoulli et indicatrice
Une variable aléatoire qui suit une loi de Bernoulli est appelée variable de Bernoulli.
Proposition 15. Les variables aléatoires qui suivent une loi de Bernoulli sont les indicatrices d’un événement de Ω.
Soit A un sous-ensemble (événement) de Ω. On note p = P (A). On considère la variable aléatoire 1A .
1A est une variable aléatoire de support {0, 1}, de loi P {1A = 1} = P (A) = p et P {1A = 0} = P (A) = 1 − p : 1A ,→ B(p).
−1
– Réciproquement, soit X un variable aléatoire telle que X ,→ B(p). On note A = X
({1}) = {X = 1} : on a X = 1A .
–
Exercice : en utilisant les indicatrices, montrer que si X et Y sont deux variables aléatoires de Bernoulli alors XY et
1 − X aussi. Calculer leur paramètre. Et pour leur somme ? Leur différence ? (en général, non)
V.4.
Loi binomiale
V.4.1.
lemme
n
n−1
On a, pour 1 ≤ k ≤ n et 1 ≤ n : k
=n
.
k
k−1
n
n!
–
–
.
=
k!(n − k)!
k
Par dénombrement : dans une population de n individus, on sélectionne une équipe de 11 joueurs pour la coupe du monde, dont un capitaine, non, c’est pas ça de k joueurs dont
un capitaine. Il y a deux manières :
– on sélectionne un capitaine (n possibilités) puis k − 1 joueurs simples (k − 1 parmi n − 1 possibilités) ;
– on sélectionne k joueurs (k possibilités) puis dans cette équipe de k, un capitaine (k possibilités).
Par calcul avec
V.4.2.
définition
définition 11. Soit n ∈ N∗ et p ∈ [0, 1]. On dit que la variable aléatoire X suit la loi binomiale B(n, p), noté
X ,→ B(n, p), lorsque :
n k
∀k ∈ J0, nK, P {X = k} =
p (1 − p)n−k
k
Théorème 16. Si X ,→ B(n, p) alors E(X) = np et V (X) = np(1 − p).
n
n − 1
Comme k
pour k ≥ 1, on a
= n
k−1
k
E(X)
=
n
X
n
k
k
n−k
p (1 − p)
=
n
X
k
np
n
X
k
n−k
p (1 − p)
= n
k=1
n
X
n − 1
n−1
k
n−k
p (1 − p)
k−1
k
k=0
=
n
k
k=1
k−1
n−1−(k−1)
p
(1 − p)
= np
n−1
X
n−1
k−1
k
n−1−k
n−1
p (1 − p)
= np(p + 1 − p)
= np
k
k=1
k=0
2
2
2
On calcule la variance par V (X) = E(X ) − E(X) : on écrit k = k(k − 1) + k, donc
2
E(X ) =
n
X
k
2
n
k
n−k
p (1 − p)
=
n
X
k(k − 1)
k
Or, comme k(k − 1)
k
k
n−k
p (1 − p)
+
n − 1
= n(n − 1)
k−1
2
E(X ) − E(X)
n
k
k
n−k
p (1 − p)
=
k(k − 1)
n
k
n−k
p (1 − p)
+ E(X)
k
k=0
n − 2
n
X
k
k=0
= n(k − 1)
n
X
k
k=0
n
n
k=0
pour k ≥ 2, et que les termes pour k = 0 et k = 1 sont nuls, on a :
k−2
=
n(n − 1)
n
X
n−2
k
n−k
2
p (1 − p)
= n(n − 1)p
n
X
k−2
k−2
k=2
=
n(n − 1)p
2
n−2
X
k=2
n − 2
k
n−2−k
p (1 − p)
k
k=0
=
n−2
2
n−2
2
n(n − 1)p (p + 1 − p)
= n(n − 1)p
2
2
2
2 2
soit V (X) = n(n − 1)p + E(X) − E(X) = n(n − 1)p + np − n p = np(1 − p).
Voir plus bas pour une autre méthode.
6
p
k−2
n−k
(1 − p)
V.4.3.
utilisation
Cette loi intervient lors de la répétition de n expériences aléatoires indépendantes (voir plus tard), qui suivent toutes
la loi de Bernoulli de paramètre p.
Théorème 17. Si X1 , . . . , Xn sont mutuellement indépendantes et suivent chacune la loi B(p), alors X1 + · · · + Xn
suit la loi B(n, p).
La variable aléatoire X = X1 + · · · + Xn est d’image J0, nK. L’événement {X = k} pour k ∈ J0, nK est obtenu par :
– k des Xi valent 1 et les autres valent 0 ;
– il y a k parmi n manières de choisir les variables aléatoires Xi qui valent 1 (ce qui choisit aussi celles qui valent 0) ;
– et la probabilité que ces k là valent 1 et les autres 0 est le produit des probabilités que les premières vaillent 1 et les autres 0 (car les variables aléatoires sont
k
n−k
indépendantes), soit p (1 − p)
;
n
k
n−k
– d’où P {X = k} =
p (1 − p)
.
k
– Jeu de pile ou face : on réalise n fois le jeu suivant : on tire à pile ou face, pile sortant avec la probabilité p. On note
X la variable aléatoire qui compte le nombre de fois où pile est sorti, et on note Y la variable aléatoire définie sur
l’univers {pile, f ace} telle que Y (pile) = 1 etY (f
ace) = 0 et pour tout k, Xk = Y .
n k
On a X = Y + Y + · · · + Y , et P {X = k} =
p (1 − p)n−k pour 0 ≤ k ≤ n, donc X ,→ B(n, p).
k
a
et
– Tirage avec remise : on considère une urne remplie de a boules blanches et b boules noires. On note p =
a+b
n = a + b. On réalise n tirages d’une boule avec remise, et on appelle X la variable aléatoire qui compte le nombre
de boules blanches tirées, et Y la variable aléatoire définie sur l’univers {blanc, noir} telle que Y (blanc) = 1 et
Y (noir) = 0 et pour tout k, Xk = Y .
On a X = Y + Y + · · · + Y qui suit une loi B(n, p).
– Calcul de l’espérance d’une variable aléatoire binomiale : par linéarité,
E(X) = E(X1 + · · · + Xn ) = E(X1 ) + · · · + E(Xn ) = np
Calcul de la variance d’une variable aléatoire binomiale : la variance d’une somme de variables aléatoires mutuellement indépendantes est la somme des variances, et
donc
V (X) = V (X1 + · · · + Xn ) = V (X1 ) + · · · + V (Xn ) = np(1 − p)
V.5.
Une preuve de la formule du binôme de Newton
On considère une urne remplie de a boules blanches et b boules noires. Soit n = a+b, qui sont tous des entiers naturels.
On réalise le tirage de n boules avec remise.
X la variable aléatoire
qui compte le nombre de boules blanches.
On note
bn−k
n ak bn−k
n
ak
=
, et comme X(Ω) = J0, nK et que les
On a, pour 0 ≤ k ≤ n, P {X = k} =
k (a + b)n
k (a + b)k (a + b)n−k
événements {X = k} forment un système complet d’événments de Ω,
1 = P (Ω) =
n
X
k=0
VI.
n X
n k n−k
a b
P {X = k} et donc (a + b) =
k
n
k=0
Inégalité de Bienaymé-Tchebychev
Théorème 18. Soit X une variable aléatoire (de loi quelconque) d’espérance m et de variance V . On a, pour tout
ε>0:
V
P {|X − m| ≥ ε} ≤ 2
ε
2
2
On note Ωε l’ensemble des ω ∈ Ω tels que |X(ω) − m| ≥ ε i.e. (X(ω) − m) ≥ ε . On calcule la variance de X. Par positivité, on a
V =
X
2
(X(ω) − m) P {ω} ≥
ω∈Ω
et par définition
X
X
2
(X(ω) − m) P {ω} ≥
ω∈Ωε
X
ω∈Ωε
2
2
ε P {ω} ≥ ε
X
P {ω}
ω∈Ωε
P {ω} = P (Ωε ) = P {|X − m| ≥ ε}.
ω∈Ωε
Ce théorème ne dépend pas de la loi suivie par X. Néanmoins, en pratique, il donne une majoration assez large.
n
fois la face 6. Quelle
Exercice : on jette un dé équilibré un grand nombre n de fois. On s’attend à trouver environ
6
est la dispersion des résultats autour de cette attente ? Quel n prendre pour que la probabilité d’avoir un nombre de
6 compris entre 0 et n/3 soit supérieure à 0, 5 ?
On note Yn le nombre de 6 après n tirages. Comme Yn suit une loi binomiale B(n, 1/6), E(Yn ) = n/6 et V (Yn ) = 5n/36
donc
5n
P {|Yn − n/6| > ε} ≤
36ε2
5n
5
Avec ε = n/6, on trouve
= , et donc il suffit de prendre n ≥ 10. Une étude directe (puisque la loi est connue)
2
36ε
n
donne en fait n = 1.
7
Téléchargement