1 Variables aléatoires finies, lois de probabilité et fonctions de

publicité
Lycée Roland Garros
BCPST 1ère année
Mathématiques
2013 - 2014
Chapitre no 21. Variables aléatoires nies
Sont à connaître par c÷ur avant d'attaquer ce chapitre les résultats suivants,
tous issus du chapitre Probabilités de base.
•
•
•
•
•
formule des probabilités totales,
dénition des probabilités conditionnelles,
formule des probabilités composées,
formule de Bayes,
dénition de l'indépendance de n évènements.
Dans tout ce chapitre même quand ce ne sera pas mentionné explicitement Ω
désignera un ensemble ni.
1 Variables aléatoires nies, lois de probabilité
et fonctions de répartition
1.1 Variables aléatoires nies
Dénition 1. On appelle variable aléatoire nie toute application X : Ω →
R où Ω est un ensemble ni. L'ensemble X(Ω) est appelé univers image, c'est
l'ensemble des valeurs possibles pour X .
L'ensemble Ω étant supposé ni, il en va de même pour X(Ω). Autrement
dit X a un nombre ni de valeurs possibles, d'où le nom de v.a. nie. En
deuxième année il sera question de variables aléatoires avec un nombre inni
de valeurs possibles, par exemple X(Ω) = N ou R.
. On tire deux dés (discernables) et on note les deux résultats. Une issue de cette expérience est un couple (x1 , x2 ) avec x1 , x2 ∈ [[1, 6]],
par conséquent Ω = [[1, 6]]2 . Si on souhaite s'intéresser à la somme des deux
résultats, on considèrera la variable aléatoire
Exemple. Fil Rouge
X :
Ω
→
R
(x1 , x2 ) 7→ x1 + x2 .
L'ensemble des valeurs possibles pour X est X(Ω) = {2, 3, . . . , 12}.
1
On tire 3 cartes dans un jeu de 32 cartes et on s'intéresse au
nombre de c÷urs tirés. Le résultat de l'expérience est une partie de 3 éléments
de l'ensemble C des 32 cartes donc on choisit Ω = {P ⊂ C : Card P = 3}. Pour
un tirage ω on note X(ω) le nombre de c÷urs dans le tirage ω . X est une v.a.
nie avec X(Ω) = {0, 1, 2, 3}.
Exemple.
Dénition 2. Deux exemples importants.
• Soit a ∈ R. L'application
X : Ω → R
ω 7→ a.
est une v.a. dite constante. Elle vérie X(Ω) = {a}.
• Soit A ⊂ Ω un évènement. L'application
1A : Ω → (
1
ω 7→
0
R
si ω ∈ A
si ω ∈
/A
est une v.a. appelée indicatrice de A.
On tire un dé : Ω = [[1, 6]]. Soit A : le résultat est impair. Mathématiquement, A est déni par A = {1, 3, 5}. L'indicatrice de A est l'application
1A : Ω → R dénie par
Exemple.
1A (1) = 1A (3) = 1A (5) = 1,
1A (2) = 1A (4) = 1A (6) = 0.
Dénition 3. Soit X une v.a. et I ⊂ R. L'ensemble des issues ω pour lesquelles X(ω) ∈ I est notée en probabilité :
{X ∈ I} = {ω ∈ Ω : X(ω) ∈ I}
{X ∈ I} est une sous-partie de Ω, c'est-à-dire un évènement.
Certains notent plutôt [X ∈ I] voire (X ∈ I). Par ailleurs une
intersection d'évènements du type {X = x} ∩ {Y = y} (X et y étant deux
v.a.) sera plutôt notée {X = x, Y = y} pour alléger.
Remarque.
Exemple.
Pour x ∈ R, on note par exemple :
{X ≤ x} = {ω ∈ Ω : X(ω) ≤ x} = X −1 (] − ∞, x])
{X < x} = {ω ∈ Ω : X(ω) < x} = X −1 (] − ∞, x[)
{X = x} = {ω ∈ Ω : X(ω) = x} = X −1 ({x})
Proposition 1. Si X est une v.a. on a
{X ≤ x} = {X < x} ∪ {X = x},
en particulier si X est à valeurs entières (X(Ω) ⊂ Z) alors pour k ∈ Z :
{X ≤ k} = {X ≤ k − 1} ∪ {X = k}.
2
Proposition 2. Soit A ⊂ Ω un évènement. On a
{1A = 1} = A, et {1A = 0} = A
. On lance deux dés et on note X la somme des deux
scores obtenus. On a vu que Ω = [[1, 6]]2 et X(Ω) = {2, 3, 4, . . . , 12}. On a par
exemple :
Exemple. Fil Rouge
{X = 2} = {(1, 1)}
{X = 3} = {(1, 2), (2, 1)}
{X = 4} = {(1, 3), (2, 2), (3, 1)}
..
.
{X = 12} = {(6, 6)}
Proposition 3. Soit X une v.a. nie sur Ω et X(Ω) = {x1 , x2 , . . . , xn } l'ensemble des valeurs possibles de X . Alors la famille d'évènements
({X = x1 }, {X = x2 }, . . . , {X = xn })
forme un système complet d'évènements de Ω.
Démonstration. Immédiat d'après les dénitions.
Exemple. Fil Rouge
. On a
Ω = {X = 2} ∪ {X = 3} ∪ · · · ∪ {X = 12}
Dénition 4. Si X et Y sont deux v.a. sur Ω on peut dénir toutes les opé-
rations sur les variables aléatoires : par exemple X + Y est dénie par
(X + Y )(ω) = X(ω) + Y (ω).
De même pour XY , X/Y , X 2 , eX−Y , en bref tout ce qu'on veut . . .
1.2 Loi d'une variable aléatoire nie
Dénition 5. Soit X : Ω → R une v.a. nie. Alors l'application
fX : X(Ω) →
[0, 1]
x
7→ P({X = x})
est appelée
loi de probabilité (ou loi tout court) de la v.a. X .
La loi de X est donc la donnée de toutes les valeurs des probabilités des évènements relatifs à la v.a. X : elle décrit la répartition statistique de X sur ses
valeurs possibles. Déterminer la loi de X c'est calculer P({X = x}) pour tout
x ∈ X(Ω).
3
Remarque.
On écrit souvent P(X = x) au lieu de P({X = x}), par abus.
Représentation graphique. On représente habituellement la loi fX par un
diagramme en bâtons. Si X(Ω) = {x1 , x2 , . . . , xn }, on trace pour chaque xi un
bâton de hauteur fX (xi ) à l'abscissePxi . La somme des hauteurs des bâtons
doit bien sur être égale à 1 puisque x∈X(Ω) P(X = x) = 1.
. X est la somme des scores des deux dés. La probabilité P sur Ω est uniforme puisque chaque couple de résultats a une probabilité
1/36. Pour k ∈ [[2, 12]] on a
Exemple. Fil Rouge
{X = k} = {(i, j) ∈ [[1, 6]]2 : i + j = k}.
On peut ainsi calculer :
P(X = 2) = P({(1, 1)}) =
1
36
P(X = 3) = P({(1, 2), (2, 1)}) =
2
36
P(X = 4) = P({(1, 3), (2, 2), (3, 1)}) =
3
36
et ainsi de suite. Les résultats peuvent être rassemblés dans un tableau :
xi
2
3
4
5
6
7
8
9
10 11 12
P(X = xi )
1
36
2
36
3
36
4
36
5
36
6
36
5
36
4
36
3
36
2
36
1
36
et peuvent être représentés par un diagramme en bâtons :
[Dessin]
1.3 Dénition d'une v.a. à partir des pi
Une question importante sur le plan théorique : si on donne des xi et des pi ,
existe t-il une v.a. dont la loi soit donnée par P(X = xi ) = pi ?
Réponse : OUI du moment que les pi sont positifs et que leur somme fait 1.
4
Théorème 1. Soient (x1 , x2 , . . . , xn ) ∈ Rn et (p1 , p2 , . . . , pn ) ∈ Rn . On suppose
que
(i) ∀i ∈ [[1, n]], pi ≥ 0,
P
(ii) ni=1 pi = 1.
Alors il existe une v.a. X dont la loi est donnée par
∀i ∈ [[1, m]], P(X = xi ) = pi
Démonstration. Il sut de choisir Ω = {x1 , x2 , . . . , xm } avec la probabilité P
dénie par P({xi }) = pi , et X l'application identité.
1.4 Fonction de répartition d'une variable aléatoire nie
Dénition 6. Soit X : Ω → R une v.a. nie. Alors l'application
FX : R →
[0, 1]
x 7→ P({X ≤ x})
est appelée
fonction de répartition de la v.a. X .
Exemple.
Soit X une v.a. dont la loi est donnée par :
xi
1
2
4
6
8
P(X = xi ) 3/10 1/10 1/10 2/10 3/10
Représenter graphiquement la loi de probabilité ainsi que la fonction de répartition de X .
La donnée de fx est équivalente à la donnée de FX . En eet on peut retrouver
l'une à partir de l'autre et vice-versa.
F
Déterminer FX à partir de fx :
FX est une fonction croissante et en escalier. Si on note X(Ω) = {x1 , x2 , . . . , xn },
on a


si x < x1 ,
0P
k
FX (x) =
si xk ≤ x < xk+1 ,
i=1 fX (xi )


1
si xn ≤ x.
En clair FX fait un saut de hauteur fX (xi ) à chaque valeur xi .
F
Retrouver fX à partir de Fx :
5
On réexploite cette dernière remarque : fX (xi ) est la hauteur du saut que
FX fait en xi . On a
fX (x1 ) = FX (x1 )
fX (x2 ) = FX (x2 ) − FX (x1 )
..
.
pour k ∈ [[2, n]].
fX (xk ) = FX (xk ) − FX (xk−1 )
Application. Soient x1 , X2 et X3 les scores pour trois lancers de dés successifs.
On note Z = max(X1 , X2 , X3 ). On a
P(Z ≤ k) = P(X1 ≤ k, X2 ≤ k, X3 ≤ k)
= P(X1 ≤ k)P(X2 ≤ k)P(X3 ≤ k)
= (k/6)3
donc pour k ∈ [[1, 6]] on a
3k 2 − 3k + 1
P(X = k) = (k/6) − ((k − 1)/6) =
63
3
3
1.5 Image d'une variable aléatoire par une fonction
Dénition 7. Soit X une v.a. et φ : R 7→ R une fonction. Alors on dénit la
variable
φ(X) : Ω →
R
ω 7→ φ(X(ω))
Proposition 4. La loi de φ(X) est donnée par :
∀y ∈ Y (Ω), P(Y = y) =
X
P(X = x)
x∈X(Ω):φ(x)=y
Démonstration. L'évènement {Y = y} est égal à la réunion (disjointe) des
évènements {X = x} pour x tel que φ(x) = y .
Exemple.
loi de Y .
Soit X le résultat d'un dé et Y = (X − 2)(X − 4). Déterminer la
On a Y (Ω) = {−1, 0, 3, 8} et

P(Y



P(Y

P(Y



P(Y
= −1) = P(X = 3) = 1/6,
= 0) = P(X ∈ {2, 4}) = P(X = 3) + P(X = 3) = 2/6,
= 3) = P(X ∈ {1, 5}) = P(X = 1) + P(X = 5) = 2/6,
= 8) = P(X = 6) = 1/6.
6
2 Espérance et variance d'une variable aléatoire
2.1 Dénition de l'espérance
Dénition 8. Soit X une v.a. avec X(Ω) = {x1 , x2 , . . . , xn }. On dénit l'espérance de X par
E(X) =
X
x P(X = x) =
n
X
xk P(X = xk ).
k=1
x∈X(Ω)
En clair l'espérance de X est la moyenne des valeurs prises par X , pondérée
par les probabilités qu'a X de prendre chacune de ces valeurs.
Proposition 5.
• Si X est constante égale à a alors E(X) = a.
• Soit A un évènement. On a E(1A ) = P(A).
Démonstration. . . .
On lance un dé, on note X le résultat. La loi de probabilité de X
est donnée par le tableau suivant :
Exemple.
xi
1
2
3
4
5
6
P(X = xi ) 1/6 1/6 1/6 1/6 1/6 1/6
On a donc
E(X) = P(X = 1) + 2P(X = 2) + 3P(X = 3) + 4P(X = 4) + 5P(X = 5) + 6P(X = 6)
1+2+3+4+5+6
=
6
7
= = 3, 5
2
On reprend l'exemple de la variable Z ci-dessus (Z est le maximum
des scores de trois lancers de dé). On a Z(Ω) = [[1, 6]] et
Exemple.
E(Z) =
6
X
kP(Z = k)
k=1
1 + (2 × 7) + (3 × 19) + (4 × 37) + (5 × 61) + (6 × 91)
63
1071
= 3 ' 4, 95
6
=
7
2.2 Propriétés de l'espérance
Proposition 6. Linéarité de l'espérance (admis).
Soient X, Y deux v.a. nies sur Ω. On a pour a, b ∈ R :
E(aX + bY ) = aE(X) + bE(Y )
En particulier en prenant pour Y la constante égale à 1, on a
E(aX + b) = aE(X) + b
Exemple. Fil Rouge.
Calcul de E(X) si X est la somme des scores de deux dés. Faire ce calcul sans
la linéarité puis avec la linéarité. On trouve E(X) = 7.
Dénition 9.
On dit qu'une v.a. X est positive (on écrit X ≥ 0) si ∀ω ∈ Ω, X(ω) ≥ 0.
En fait de manière générale quand on écrit une propriété sur X (X ∈ [a, b],
X = 0, . . . )c'est sous-entendu : pour tout ω .
Proposition 7. Positivité de l'espérance.
(i) Soit X une v.a. nie. Si X ≥ 0 (c'est-à-dire X(ω) ≥ 0 pour tout ω ) alors
E(X) ≥ 0.
(ii) Si X ≥ 0 et E(X) = 0 alors X = 0 (c'est-à-dire X(ω) = 0 pour tout ω )
(iii) Soient X et Y deux v.a. nies. Si X ≥ Y alors E(X) ≥ E(Y ).
!
L'implication E(X) ≥ 0 ⇒ X ≥ 0, elle, est évidemment fausse.
De même, sans supposer que X ≥ 0 l'implication E(X) = 0 ⇒ X = 0 est
fausse !
Pouvez-vous donner des contre-exemples ?
Attention
Théorème 2. Théorème de transfert.
Soit X une v.a. nie sur Ω avec X(Ω) = {x1 , x2 , . . . , xn }, et u : R → R une
fonction telle que X(Ω) ⊂ Du . Alors
E(u(X)) =
n
X
u(xi )P(X = xi ).
i=1
En clair l'espérance de u(X) est la moyenne des u(xi ), pondérée par les probabilités que X a de prendre chacun des xi .
: on peut calculer par exemple E(X 2 ), E(eX ) . . . sans pour autant
avoir à déterminer les lois de X 2 , eX . . . il sut de connaître la loi de X !
Moralité
Soit X de loi uniforme sur [[−1, 1]]. Calculer E(X 2 ). On trouve
E(X 2 ) = 2/3.
Exemple.
8
2.3 Moments d'une variable aléatoire
Dénition 10. Soit X une v.a. avec X(Ω) = {x1 , x2 , . . . , xn } et soit r ∈ N∗ .
On appelle moment de X d'ordre r le réel
r
mr (X) = E(X ) =
X
r
x P(X = r) =
n
X
(xk )r P(X = xk )
k=1
x∈X(Ω)
Soit Z le nombre de FACE obtenus en lançant deux fois une pièce.
Donner le moment d'ordre 3 de Z .
Exemple.
m3 (Z) = E(Z 3 ) = 03 P(Z = 0) + 13 P(Z = 1) + 23 P(Z = 2) =
5
1 1
+ ×8= .
2 4
2
2.4 Variance et écart-type
Dénition 11. Soit X une v.a. On dénit la variance de X par
Var(X) = E (X − E(X))2
C'est donc le moment d'ordre 2 de la variable X − E(X).
Proposition 8. Formule de K÷nig-Huygens. On a
Var(X) = E(X 2 ) − E(X)2
Démonstration. m = E(X) est une constante donc
Var(X) = E(X 2 + m2 − 2mE(X)) = E(X 2 ) + m2 − 2mE(X) = E(X 2 ) − m2 .
Les notions de variance et d'espérance d'une v.a. sont à rapprocher des notions correspondantes pour les échantillons.
Remarque.
Dénition 12. L'écart-type de X est déni par
σ(X) =
p
Var(X)
Bien sur σ(X) est bien déni puisque Var(X) ≥ 0. L'écart-type
et la variance de X sont des réels positifs qui quantient la dispersion de X
autour de sa moyenne. Un écart-type élevé signie que X a tendance a prendre
des valeurs lointaines de sa moyenne.
Remarque.
Reprenons l'exemple de Z = le nombre √de FACE obtenus sur 2
lancers. On obtient Var(Z) = 1/2 et donc σ(Z) = 1/ 2.
Exemple.
9
Théorème 3. Eet d'une fonction ane sur la variance.
On a pour a, b ∈ R :
Var(aX + b) = a2 Var(X)
σ(aX + b) = |a|σ(X)
Démonstration. . . .
Dénition 13. Une v.a. X est dite
• centrée lorsque E(X) = 0,
• réduite lorsque Var(X) = 1.
Il est souvent commode de travailler avec des v.a. centrées réduites. Le résultat
suivant justie qu'on peut toujours se ramener à ce cas quitte à opérer une
certaine fonction ane sur notre variable.
Proposition 9. Soit X une v.a. nie. Alors
(i) la variable X − E(X) est centrée,
(ii) la variable
X − E(X)
est centrée réduite.
σ(X)
2.5 Inégalités classiques
Théorème 4. Inégalité de Markov.
Soit X une v.a. positive. On a
P(X ≥ r) ≤
E(X)
r
. Si E(X) n'est pas trop grande alors X ne peut pas être ≥ r avec
trop grande probabilité.
Moralité
Démonstration. L'inégalité X(ω) ≥ r1{X≥r} (ω) est vériée pour tout ω donc
E(X) ≥ rE(1{X≥r} ) = rP(X ≥ r).
Théorème 5. Inégalité de Bienaymé-Tchebychev.
Soit X une v.a. Alors
∀ε > 0,
P(|X − E(X)| ≥ ε) ≤
Var(X)
ε2
. Si Var(X) n'est pas trop grande alors X ne peut pas être loin de
E(X) avec trop grande probabilité.
Moralité
Démonstration. Grâce à l'inégalité de Markov, P(|X − E(X)| ≥ ε) = P((X −
2)
E(X))2 ≥ ε2 ) ≤ E((X−E(X))
= Var(X)
.
ε2
ε2
10
3 Lois de probabilité usuelles
Dans cette section nous survolons les quelques lois de probabilité nies qui
interviennent le plus souvent. Nous donnerons l'espérance et la variance de
toutes ces lois. Pour ces résultats le symbole F signie que le calcul est à
connaître !
3.1 Loi certaine
Dénition 14. X suit la loi certaine égale à m ∈ R si X(Ω) = {m}. On a
alors automatiquement
P(X = m) = 1
Une telle variable n'a donc pas réellement de caractère aléatoire. Elle est pour
cette raison dite déterministe. La loi certaine n'est donc pas un objet d'étude
intéressant en soi mais a néanmoins une importance théorique.
Proposition 10. Soit X une v.a. de loi certaine égale à m.
Var(X) = 0
E(X) = m
3.2 Loi uniforme
Dénition 15. Soit E = {x1 , . . . , xn } un ensemble ni à n éléments. On dit
que X suit la loi uniforme sur E si P(X = xk ) ne dépend pas de k , ce qui
implique que
∀k ∈ [[1, n]],
P(X = xk ) =
1
n
On note X ,→ U(E) pour dire X suit la loi uniforme sur E La loi uniforme est adaptée pour modéliser toute expérience dont les issues
sont équiprobables. C'est le cas dès que les issues mettent en jeu des objets
indiscernables puisque dans ce cas on n'a aucune raison d'attribuer une plus
grande probabilité à tel ou tel de ces objets. C'est donc une situation très fréquente : jet de dé, lancer de pièce, roulette, tirage de boules dans une urne. . .
Le plus souvent on est amené à considérer la loi uniforme sur un
ensemble du type E = [[1, n]] ou plus généralement E = [[m, n]] avec m, n ∈ Z.
On donne donc l'espérance et la variance dans ce cas particulier.
Remarque.
Proposition 11. Si X ,→ U([[1, n]]) alors
E(X) =
n+1
2
Var(X) =
F
Démonstration. . . .
11
n2 − 1
12
3.3 Loi de Bernoulli
Dénition 16. Soit p ∈]0, 1[. On dit que X suit la loi de Bernoulli de paramètre p si X(Ω) = {0, 1} et
P(X = 1) = p,
P(X = 0) = 1 − p
On note X ,→ B(1, p) pour dire X suit la loi de Bernoulli de paramètre p.
La loi de Bernoulli permet de modéliser toute expérience à 2 issues. En eet
si Z est une v.a. avec Z(Ω) = {a, b} alors on peut considérer X = 1{Z=a} (ce
qui revient à considérer a comme 1 et b comme 0). La v.a. X suit la loi B(1, p)
avec p = P(Z = a).
Soit Z le résultat du lancer d'une pièce. Z(Ω) = {P, F }. La variable
X = 1{Z=P } suit la loi B(1, 1/2).
Exemple.
Proposition 12. Soit X une v.a. de loi B(1, p). On a
E(X) = p
Var(X) = p(1 − p)
F
F
3.4 Loi binomiale
. Supposons qu'on réalise n fois une tentative d'un certain
dé (comme réussir un panier au basket, obtenir 6 avec un dé, . . . ). On note
X le nombre de succès obtenus. On a X(Ω) = {0, 1, . . . , n}. Chaque tentative
a une probabilité p de réussir avec p ∈]0, 1[ xé, et les résultats des tentatives
sont supposés mutuellement indépendants. Dans ce cadre là, quelle est la loi
Schéma binomial
de X ?
Il est commode de noter 1 un succès et 0 un échec, l'univers est alors Ω =
{0, 1}n et X est la variable aléatoire dénie par
X :
Ω
→
R
(ω1 , . . . , ωn ) 7→ ω1 + · · · + ωn
Par exemple, pour ω = (1, 0, 0, 0, 1, 1, 0, 1, 0) on a X(ω) = 4 donc 4 succès.
L'évènement {X = k} contient les issues qui contiennent k fois 1 et (n − k)
fois 0. On remarque que
• chacune de ces issues a une probabilité pk (1 − p)n−k ,
n
• il y a
telles issues puisqu'il s'agit de choisir les positions des k succès
k
parmi les n tentatives.
12
n k
On a donc P(X = k) =
p (1 − p)n−k .
k
Dénition 17. On dit que X suit la loi binomiale de paramètres n et p (avec
n ∈ N∗ et p ∈]0, 1[) si X(Ω) = {0, 1, . . . , n} et
n k
P(X = k) =
p (1 − p)n−k
k
∀k ∈ [[0, n]],
On note X ,→ B(n, p) pour dire X suit la loi binomiale de paramètres n et
p.
D'après le schéma binomial, cette loi est adaptée pour modéliser toute situation où l'on compte le nombre d'occurrences d'un évènement que l'on tente de
réaliser un certain nombre de fois de manière indépendante.
Par la formule du binôme de Newton on a nk=0 P(X = k) =
(p + (1 − p))n = 1 donc la loi binomiale est bien une loi de probabilité.
P
Remarque.
Pour n = 1 on retombe bien sur le cas particulier de la loi de
Bernoulli, la notation B(1, p) est donc cohérente (et c'est un heureux hasard
que Bernoulli et binomiale commencent par la même lettre)
Remarque.
Proposition 13. Soit X une v.a. de loi B(n, p). On a
E(X) = np
Var(X) = np(1 − p)
F
F
Démonstration.
n
X
n k
k
p (1 − p)n−k
E(X) =
k
k=0
n
X
n k
=
k
p (1 − p)n−k
k
k=1
n
X
(n − 1)!
pk (1 − p)n−k
(k
−
1)!(n
−
k)!
k=1
n X
n−1 k
=n
p (1 − p)n−k
k
−
1
k=1
n−1 X
n−1 k
= np
p (1 − p)n−k−1
k
k=0
=n
Or la somme de la dernière ligne vaut 1 car elle est égale à P(Y ∈ [[0, n − 1]])
où Y est une v.a. de loi B(n − 1, p).
La preuve de l'expression de Var(X) sera faite au chapitre 22.
13
3.5 Loi hypergéométrique
. On considère une urne contenant N boules,
blanches ou noires. On note p la proportion de boules blanches et q = 1 − p la
proportion de boules noires, de sorte que l'urne contient :
• N p boules blanches,
• N q boules noires.
On tire n boules dans cette urne simultanément, et on note X le nombre de
boules blanches obtenues. Quelle est la loi de X ?
Schéma hypergéométrique
L'évènement {X = k} est réalisé si l'on fait un tirage
contenant
k blanches et
Np
k
(n − k) noires. Le nombre de ces tirages est égal à
N
total de tirages possibles est
.
n
Nq
n−k
et le nombre
Dénition 18. Soit 1 ≤ n ≤ N et p ∈]0, 1[ tel que N p ∈ N. On dit que X
suit la loi hypergéométrique de paramètres N, n et p si X(Ω) = {0, 1, . . . , n} et
∀k ∈ {0, 1, . . . , n},
P(X = k) =
Np
k
N
n
Nq
n−k
où q = 1 − p.
On note X ,→ H(N, n, p) pour dire X suit la loi hypergéométrique de paramètres N, n et p.
d'après le schéma hypergéométrique, cette loi est adaptée pour modéliser une
situation où un ensemble de N objets est séparé en deux catégories (N p du
premier type et N q du second type) et où on tire n objets sans remise parmi
ces N objets.
P(X = k) est en fait nul :
• si k > N p (ce qui n'est possible que si n > N p),
• si n − k > N q (ce qui n'est possible que si n > N q ),
Remarque.
Proposition 14. Soit X une v.a. de loi H(N, n, p). On a
E(X) = np
Var(X) = npq
F
N −n
N −1
Si n est xé et N devient très grand, le schéma sans remise coïncide à peu
près avec le schéma avec remise. Il est donc normal d'imaginer que la loi
hypergéométrique doit alors ressembler à la loi binomiale, puisque les tirages
des n boules deviennent presque indépendants et de probabilité p. En eet :
14
Proposition 15. Approximation de H(N, n, p) par B(n, p).
Soit XN une v.a. de loi H(N, n, p) avec N p ∈ N. Alors pour k ∈ {0, 1, . . . , n}
xé on a
lim P(XN = k) =
N →+∞
n k
p (1 − p)n−k
k
Autrement dit la loi H(N, n, p) converge vers B(n, p)
Remarque.
D'un point de vue pragmatique, on peut considérer que H(N, n, p) =
B(n, p) lorsque N ≥ 10n, sans faire une grosse erreur.
15
Téléchargement