Chapitre 31 : Convergences et approximations.

publicité
ECS3 Carnot
Chapitre 31 — Convergences et approximations
2013/2014
Chapitre 31 : Convergences et
approximations.
1
Compléments sur espérance et variance : inégalités classiques
1.1
Inégalité de Markov
L’inégalité suivante précise l’écart d’une variable aléatoire positive par rapport à 0
Proposition 1.1.1 (Inégalité de Markov )
Soit X une variable aléatoire réelle finie positive. Alors
∀a > 0, P (X > a) 6
E(X)
a
Démonstration : Fixons a > 0. Soit A l’évènement (X > a). Alors on a ∀ω ∈ Ω, 1A (ω) 6
1
1
1
X(ω), puisque si ω ∈ A, on a X(ω) > a donc X(ω) > 1A (ω) et si ω ∈
/ A X(ω) > 0 =
a
a
a
1A (ω).
Par croissance de l’espérance,
1
E(X)
P (X > a) = P (X ∈ A) = E(1A ) 6 E( X) =
a
a
Exemple. Le nombre de fours sortant d’une usine (de fours) en une semaine est donné
E(X)
1
par une variable aléatoire réelle finie X d’espérance 50. Alors P (X > 100) 6
= .
100
2
La probabilité que la production d’une semaine soit supérieure à 100 fours est plus petite
1
que .
2
1.2
Inégalité de Bienaymé-Tchebychev
L’inégalité suivante justifie l’emploi de l’écart type comme mesure de dispersion.
Proposition 1.2.1 (Inégalité de Bienaymé-Tchebychev )
Soit X une variable aléatoire réelle finie, µ son espérance et σ son écart-type. Alors
∀ε > 0, P (|X − µ| > ε) 6
σ2
ε2
Démonstration : On applique l’inégalité de Markov à la variable aléatoire (X − µ)2 et au réel
ε2 en remarquant que V (X) = σ 2 :
P ((X − µ)2 > ε2 ) 6
σ2
E((X − µ)2 )
=
ε2
ε2
Mais on a l’égalité des évènements ((X − µ)2 > ε2 ) = (|X − µ| > ε). D’où le résultat.
J. Gärtner.
1
ECS3 Carnot
1.3
Chapitre 31 — Convergences et approximations
2013/2014
Cas des variables discrètes
Proposition 1.3.1 (Inégalité de Markov )
Soit X une variable aléatoire réelle discrète positive admettant une espérance. Alors
∀a > 0, P (X > a) 6
E(X)
a
Démonstration : Fixons a > 0. Soit A l’évènement (X > a). Alors on a ∀ω ∈ Ω, 1A (ω) 6
1
1
1
X(ω), puisque si ω ∈ A, on a X(ω) > a donc X(ω) > 1A (ω) et si ω ∈
/ A X(ω) > 0 =
a
a
a
1A (ω).
Par croissance de l’espérance,
1
E(X)
P (X > a) = P (X ∈ A) = E(1A ) 6 E( X) =
a
a
Proposition 1.3.2 (Inégalité de Bienaymé-Tchebychev )
Soit X une variable aléatoire réelle discrète admettant un moment d’ordre 2, µ son
espérance et σ son écart-type. Alors
∀ε > 0, P (|X − µ| > ε) 6
σ2
ε2
Démonstration : On applique l’inégalité de Markov à la variable aléatoire (X − µ)2 et au réel
ε2 en remarquant que V (X) = σ 2 :
P ((X − µ)2 > ε2 ) 6
σ2
E((X − µ)2 )
=
ε2
ε2
Mais on a l’égalité des évènements ((X − µ)2 > ε2 ) = (|X − µ| > ε). D’où le résultat.
Démonstration : autre preuve possible de l’inégalité de Bienaymé-Tchebychev : Nous
avons déjà donné une preuve usant de l’inégalité de Markov. Nous allons la refaire directement (mais en substance, rien n’est nouveau).
On écrit X(Ω) = {xi , i ∈ I} et P (X = xi ) = pi où I est une partie de N ou de Z.
On pose m = E(X), J = {i ∈ I, |xi − m| > ε} et K
S = {i ∈ I, |xi − m| < ε}. Alors
I = J ∪ K et J ∩ KP= ∅. Clairement (|X − m| > ε) = J (X = xi ) donc par σ-additivité,
P (|X − m| > ε) = J pi .
Comme
on peut
Pregrouper les termes et
P
P absolument convergente,
P V (X) est une série
V (X) = I (xi − m)2 pi = J (xi − m)2 pi + K (xi − m)2 pi > J (xi − m)2 pi . Si i ∈ J,
on a (xi − m)2 > ε2 donc
X
V (X) > ε2
pi = ε2 P (|X − m| > ε)
J
Une autre manière d’écrire cette égalité est la suivante :
Proposition 1.3.3
Soit X une variable aléatoire réelle discrète admettant une variance (donc une espérance). Alors
∀ε > 0, P (|X − E(X)| < ε) > 1 −
J. Gärtner.
2
V (X)
ε2
ECS3 Carnot
Chapitre 31 — Convergences et approximations
2013/2014
Démonstration : Exercice.
Exercice. On dispose d’une urne contenant 8 boules blanches et 2 boules noires. On tire
avec remise 400 boules de cette urne. On note X la variable aléatoire donnant le nombre de
boules blanches obtenues. Calculer E(X) puis donner un minorant de P (300 < X < 340)
L’inégalité de Bienaymé-Tchebychev permet de construire des intervalles de confiance,
c’est-à-dire de préciser un encadrement d’une certaine valeur avec une probabilité connue
à l’avance :
Exemple. On dispose d’un dé équilibré. Quel est le nombre de lancers nécessaires pour
pouvoir affirmer, avec un risque d’erreur inférieur à 5% que la fréquence d’apparition du
1
1 1
1
numéro 1 au cours de ces n lancers sera dans l’intervalle ] − −
, +
[?
6 100 6 100
On introduit Xi la variable égale à 1 si le numéro obtenu au iième tirage est 1, 0 sinon.
Le dé est équilibré : les Xi constituent une suite de variables de Bernoulli de paramètre
1
5
p et mutuellement indépendantes. On a E(Xi ) =
et V (Xi ) =
. La fréquence de 1
6
36
1
1 Pn
par linéarité
apparus au cours de n lancers est donné par X =
i=1 Xi donc E(X) =
n
6
P
1
5
1 P
et V (X) = 2 V ( n1 Xi ) = 2 n1 V (Xi ) =
par indépendance. D’après l’inégalité de
n
n 36n
1
1
5 × 104
Bienaymé-Tchebychev, on a P (X − <
)>1−
. On cherche donc n tel que
6
100
36n
5 × 104
5 × 104
> 0, 95, donc tel que
6 5 × 10−2 . On obtient n > 27778.
1−
36n
36n
Remarque. Ces inégalités se généralisent, mais ne sont pas au programme de première
année dans le cadre des variables aléatoires réelles admettant une densité. Mais comme la
variance d’une variable à densité n’est pas définie en première année...
Remarque. L’inégalité de Bienaymé-Tchebychev n’est pas très précise. Par exemple si on
considère une variable aléatoire X de loi de Poisson de paramètre 1, on a P (|X − 1| > ε) 6
1
. Mais X est à valeurs entières, et on trouve que quelque soit ε ∈]0, 1], la probabilité de
ε2
[X > 1 + ε] ∪ [X < 1 − ε] est au plus égale à... 1. Ce qui n’est pas vraiment intéressant.
Remarque. On a de plus souvent l’impression qu’une variable aléatoire prend en moyenne
des valeurs « proches » de son espérance quand elle existe. On va justifier cette idée sous certaines hypothèses dans les prochaines sections, mais il ne faut pas confondre « en moyenne »,
et « a une forte probabilité ». Rien ne dit que le(s) mode(s) d’une variable aléatoire discrète
soient égaux à l’espérance si elle existe (un mode est un x ∈ X(Ω) tel que P (X = x) soit
le maximum de tous les (P (X = xi ))i∈I .
Par exemple pour la loi binomiale, l’espérance est np, mais le mode (qui est unique
9
27
9
on a np = et [(n + 1)p] = [ ] = 5 ce qui
dans ce cas) est [(n + 1)p]. Si n = 5 et p =
10
2
5
n’est pas la même chose.
2
2.1
Convergence en probabilité
Généralités
Dans cette section, nous allons montrer la loi faible des grands nombres, qui est un
énoncé de convergence de variable aléatoire. Il y a beaucoup de notions de convergence en
J. Gärtner.
3
ECS3 Carnot
Chapitre 31 — Convergences et approximations
2013/2014
probabilité (c’est-à-dire de manières dont on peut prendre des limites). La plus naturelle
est la convergence presque-sûre ((Xn ) converge vers X lorsque pour tout ω dans une partie
de probabilité 1 de Ω, on a lim Xn (ω) = X(ω)). Mais on peut aussi décider de s’intéresser
à la convergence en moyenne, qui concerne les variables aléatoires qui ont une espérance
((Xn ) converge vers X lorsque lim E(|Xn − X|) = 0). Au programme des classes ECS ne
figurent que la convergence en probabilité (l’objet de cette section) et la convergence en loi
(abordée dans la section suivante).
L’inégalité de Bienaymé-Tchebychev nous incite à définir la notion de convergence suivante :
Définition 2.1.1
Une suite (Xn ) de variables aléatoires réelles discrètes définies sur un même espace
probabilisé (Ω, A, P ) converge en probabilité vers une variable aléatoire réelle discrète
X définie sur (Ω, A, P ) lorsque
∀ε > 0,
lim P (|Xn − X| > ε) = 0
n→+∞
P
On note dans ce cas Xn −→ X.
La notion de convergence en probabilité est compatible avec la somme et la multiplicaP
P
P
tion par un scalaire : si Xn −→ X et Yn −→ Y , et α, β ∈ R, alors αXn + βYn −→ αX + βY .
Dans le cadre du programme officiel le seul outil général permettant de montrer des
convergences en probabilité est l’inégalité de Bienaymé-Tchebychev (même si on a vu qu’elle
n’était pas très précise).
Remarquons pour finir qu’écrire ∀ε > 0, lim P (|Xn − X| > ε) = 0 ou ∀ε >
n→+∞
0,
lim P (|Xn − X| > ε) = 0 revient au même. Exercice !
n→+∞
2.2
Loi faible des grands nombres
Le théorème suivant est le cas de la loi faible des grands nombres qui est au programme
de cette année.
Théorème 2.2.1 (Théorème de Bernoulli )
Soit (Xn ) une suite de variables aléatoires de loi binomiale de même paramètre (n, p),
Xn
. Alors (Xn ) converge en probabilité
définies sur le même espace. On pose Xn =
n
vers la variable aléatoire certaine égale à p, i.e.
∀ε > 0, lim P (Xn − p) > ε) = 0
1
1
1
Démonstration : On a par linéarité E(Xn ) = × np = p et V (Xn ) = 2 V (Xn ) = 2 ×
n
n
n
pq
np(1 − p) = .
n
pq
Soit ε > 0. L’inégalité de Bienaymé-Tchebychev donne P (Xn − p > ε) 6 2 qui
ε n
tend vers 0 si n tend vers +∞.
Remarque. On peut obtenir une majoration indépendante du paramètre p en remarquant
1
que ∀p ∈]0, 1[, p(1 − p) 6 .
4
J. Gärtner.
4
ECS3 Carnot
Chapitre 31 — Convergences et approximations
2013/2014
Interprétation : comme on l’a déjà vu, la variable Xn représente la fréquence de succès
lors de la répétition de n épreuves de Bernoulli indépendantes. L’approche « expérimentale » des probabilités présuppose que la probabilité est fortement lié à la fréquence d’apparition, ici p. Cette approche est justifiée par le théorème de Bernoulli, qui valide cette
probabilité lorsque le nombre d’expériences est grand.
La loi faible des grands nombres se démontre de la même manière. Elle est au programme de deuxième année, et nécessite de mieux connaître les couples de variables aléatoires.
Théorème 2.2.2 (Loi faible des grands nombres)
Soit (Xn ) une suite de variables aléatoires réelles discrètes définies sur un même espace
probabilisé, de même loi admettant une espérance m et une variance σ 2 et mutuellement
1 Pn
indépendantes. La suite de variables Xn =
Xk converge en probabilité vers la
n k=1
variable aléatoire certaine égale à m. On a de plus
σ2
∀ε > 0, P (Xn − m > ε) 6 2
nε
σ2
Démonstration : On a comme précédemment E(Xn ) = m et V (Xn ) =
. L’inégalité de
n
Bienaymé-Tchebychev donne
σ2
∀ε > 0, P (Xn − m > ε) 6 2
nε
3
Approximations
3.1
Convergence en loi
La notion la plus faible de convergence de suites de variables aléatoires est la convergence en loi. Elle ne dépend plus des variables aléatoires elles-même, mais uniquement de
leur loi.
Définition 3.1.1
Soit (Xn ) une suite de variables aléatoires réelles et X une variable aléatoire réelle,
définies sur le même espace probabilisé (Ω, A, P ). On note F( Xn ) et FX leurs fonctions
de répartition. On dit que la suite (Xn ) converge en loi vers X lorsque pour tout x ∈ R
tel que FX est continue en x, on a lim FXn (x) = FX (x).
n→+∞
L
On note Xn −→ X.
Théorème 3.1.1
Soit (Xn ) une suite de variables aléatoires réelles discrètes définies sur un même espace
probabilisé (Ω, A, P ) et X une variable aléatoire réelle discrète définie sur (Ω, A, P ).
On suppose que toutes ces variables aléatoires sont à valeurs dans
ssi
∀k ∈ N, lim P (Xn = k) = P (X = k)
n→+∞
J. Gärtner.
5
L
N. Alors Xn −→
X
ECS3 Carnot
Chapitre 31 — Convergences et approximations
2013/2014
Démonstration :
– Supposons que pour tout k lim P (Xn = k) = P (X = k). Soit x ∈
n
R . Alors FXn (x) = 0 = FX (x) puisque les v.a.r. sont à valeurs dans N. On a donc
−∗
bien lim FXn (x) = FX (x).
n
si x > 0 est tel que FX est continue
en x. Il y a un nombre fini d’entiers dans [0, x]
P
P (XP
donc FXn (x) =P
n 6 x) =
k6x P (Xn = k). Comme c’est une somme finie, on
peut écrire lim
= lim = P (X 6 x). Donc lim FXn (x) = FX (x).
n
n
n
L
– Si Xn −→ X. Soit k ∈ N. Alors par propriété des fonctions de répartitions de lois
1
1
à valeurs dans N, on a k + et k − qui sont des points de continuité de FX et
2
2
1
1
1
1
P (Xn = k) = P (k − < Xn 6 k + ) = FXn (k + ) − FXn (k − ) et on peut passer
2
2
2
2
à la limite, ce qui donne le résultat.
Le nom de cette convergence est justifié : la loi de Xn devient de plus en plus proche
de la loi de X. Cette notion sera développée l’année prochaine. Pour cette année, deux
types d’approximation à l’aide de convergence en loi sont à connaître. Ces approximations
permettent en particulier d’améliorer la rapidité des calculs numériques.
Attention, une suite de lois discrètes peut converger en loi vers une variable aléatoire à
densité !
Exemple. Soit (Xn )n>1 une suite de variable aléatoire tel que Xn suit la loi uniforme sur
n−1
1 2
, 1}. Alors (Xn ) converge en loi vers X de loi uniforme sur [0, 1].
{0, , , . . . ,
n n
n
k k+1
k+1
En effet Fn (x) = 0 si x < 0, si x ∈ [ ,
[ avec k ∈ [[ 0 ; n − 1 ]] on a Fn (x) =
n
n
n+1
et si x > 1 on a Fn (x) = 1.
k+1
k
De plus pour tout x ∈ [0, 1] il existe un unique k ∈ [[ 0 ; n − 1 ]] tel que 6 x <
n
n
nx
k+1
nx + 1
i.e. k 6 nx < k + 1. On en déduit que
<
6
et par encadrement
n+1
n+1
n+1
lim Fn (x) = x si x ∈ [0, 1].
n
Bref lim Fn (x) = 0 si x < 0, 1 si x > 1, x si x ∈ [0, 1]. On reconnaît la fonction de
répartition de la loi uniforme sur [0, 1].
3.2
Approximation de la loi binomiale par la loi de Poisson
Théorème 3.2.1
Soit λ ∈
R+ .
Soit (Xn ) une suite de variables aléatoires réelles discrètes telles que
λ
e−λ λk
Xn ֒→ N(n, ). Alors pour tout k ∈ N, on a lim P (Xn = k) =
. Autrement dit
n
n
k!
la suite (Xn ) converge en loi vers une variable aléatoire X qui suit la loi de Poisson de
paramètre λ.
Démonstration : Soit k ∈ N. Supposons n > k et
rang). Alors
λ
< 1 (ce qui est vrai à partir d’un certain
n
n−k
n−k
k λ
λ
n!
λk
n
λ
1−
1−
=
P (Xn = k) =
n
n
k! nk (n − k)!
n
k
Si l ∈ [[ 0 ; k − 1 ]], n − l ∼ n donc
n
n!
n(n − 1) . . . (n − k + 1)
nk
∼1
=
∼
n→+∞ nk
nk (n − k)!
n × ··· × n
J. Gärtner.
6
ECS3 Carnot
Ainsi
Chapitre 31 — Convergences et approximations
2013/2014
n−k
λ
1−
n
n−k
λ
(n − k)λ
λ
λ
(n−k) ln(1− n
)
∼−
Mais lim 1 −
= lim e
∼ −λ donc
. Or (n − k) ln 1 −
n
n
n
n
n
n
n
λ
λ
lim(n − k) ln 1 −
= −λ et par continuité de l’exponentielle, lim e(n−k) ln(1− n ) = e−λ .
n
n
n
Donc
n−k
λ
λk
λk −λ
1−
lim P (Xn = k) = lim
e
=
n
n k!
n
k!
λk
P (Xn = k) ∼
n k!
λ
Interprétation : si n devient grand on a petit. Dans ce cas on voudra remplacer une
n
λ
loi B(n, ) par une loi P(λ). En pratique, si on a une loi B(n, p) avec p petit, on l’interprète
n
λ
comme un avec λ = np. On approche alors B(n, p) par P(λ).
n
En pratique lorsque
– les évènements sont rares en fréquence : p 6 0, 1
– il y a une grande répétition : n > 30
– les évènements sont rares en moyenne : np 6 15
la loi B(n, p) peut être approchée par la loi P(np).
L’énoncé d’un exercice peut toujours imposer cette approximation, même si les inégalités ci-dessus ne sont pas vérifiées. On obtient dans les deux cas la même espérance np = λ.
Exercice. Pour gagner au loto, il faut trouver les 6 numéros tirés parmi les 49 possibles.
On joue une fois par semaine au loto. Combien de semaines doit-on jouer pour avoir au
moins une chance sur deux de gagner au moins une fois ? On donnera un calcul explicite,
et une approximation à l’aide de la loi de Poisson.
généraliser npn → λ.
3.3
Approximation de la loi binomiale par la loi normale
Théorème 3.3.1 (TCL, admis)
Soit (Xn ) une suite de variables aléatoires telle que Xn ֒→ B(n, p). Alors la suite (Xn∗ )
Xn − np
(des variables centrées réduites associées Xn∗ = p
converge en loi vers une
np(1 − p)
variable aléatoire de loi normale centrée réduite N (0, 1).
p
En pratique, on peut approcher la loi B(n, p) par la loi N (np, np(1 − p)) lorsque
– n > 30
– np > 15
– np(1 − p) > 5.
ou bien lorsqu’on vous incite à le faire...
Remarque. Contrairement à l’approximation d’une loi binomiale par une loi de Poisson,
on donne ici une approximation d’une loi à valeurs dans N par une loi à valeurs dans R.
Pour éviter des problèmes d’arrondi, de discontinuité et autre, on applique en général ce
1
1
qu’on appelle la « correction de continuité ». Autrement dit on consiède que [k − , k + [
2
2
J. Gärtner.
7
ECS3 Carnot
Chapitre 31 — Convergences et approximations
2013/2014
est l’intervalle des nombres réels qui « correspondent » à k. (C’est un choix comme un
autre).
Bref, on remplace pour k ∈ [[ 1 ; n − 1 ]] P (X = k) par P (k − 0, 5 6 X < k + 0, 5),
P (X = 0) par P (X < 0, 5) et P (X = n) par P (X > n − 0, 5).
1
1
1
1
Exemple. Si X ֒→ B(40, ) on a 40 > 40, 40 × > 15 et 40 × × > 5. On peut
2
2
2
2
√
X − 20
∗
suit la loi
effectuer une approximation de la loi de X par la loi N (20, 10). X = √
10
normale centrée réduite.
19, 5 − 20
20, 5 − 20
√
Par exemple P (X = 20) = P (19, 5 6 X < 20, 5) = P ( √
6 X∗ <
)≃
10
10
19, 5 − 20
0, 5
20, 5 − 20
) − Φ( √
) = 2Φ( √ ) − 1.
Φ( √
10
10
10
On trouve à l’aide de l’approximation par la loi normale 0, 1272, la où le calcul direct
donnerait 0, 1254....
Exercice. Reprendre l’exemple ci-dessus et calculer (avec correction de continuité) une
approximation de P (17 6 X 6 25).
Exercice. On dispose d’un dé équilibré. Quel est le nombre de lancers nécessaires pour
pouvoir affirmer, avec un risque d’erreur inférieur à 5% que la fréquence d’apparition du
1 1
1
1
, +
[?
numéro 1 au cours de ces n lancers sera dans l’intervalle ] − −
6 100 6 100
On a déjà fait le calcul à l’aide de l’inégalité de Bienaymé-Tchebychev. En supposant que
n est suffisamment grand (quelle valeur ?) utiliser une approximation par une loi normale
pour trouver un meilleur minorant de n.
Commentaire ? on remarquera que l’inégalité de Bienaymé-Tchebychev ne prend pas en
compte la loi de X.
3.4
Approximation de la loi de Poisson par la loi normale
Théorème 3.4.1 (TCL admis)
Soit (Sn ) une suite de variables aléatoires de loi de Poisson de paramètre nλ > 0. Alors
Sn − nλ
la suite √
converge en loi vers une variable aléatoire de loi N (0, 1).
nλ
√
Autrement dit si λ > 15 on peut effectuer une approximation de P(λ) par N (λ, λ).
Remarque ; les approximations successives binomiale->poisson->normale sont en principe compatibles... et on peut encore appliquer la correction de continuité.
Exemple. On effectue l’approximation de P(16) par N (16, 4). On trouve P (X = 16) ≃
0, 0995 là ou le calcul direct donnerait 0, 0992.
3.5
Complément : Approximation de la loi hypergéométrique par loi
binomiale
Rappelons que X ֒→ H(N, n, p) correspond à la modélisation du nombre de boules
blanches tirées lors que l’on tire simultanément (ou sans remise) n boules dans une urne qui
contient N boules, dont une proportion p de blanches et 1−p de noires. On a nécessairement
N p ∈ N.
Théorème 3.5.1
Soit n ∈ N∗ et p ∈]0, 1[ fixés. Soit (XN ) une suite de variables aléatoires réelles discrètes
J. Gärtner.
8
ECS3 Carnot
Chapitre 31 — Convergences et approximations
2013/2014
telles que XN suive la loi hypergéométrique de paramètres (N, n, p). Alors pour tout
k ∈ [[ 0 ; n ]] on a
n k
lim P (Xn = k) =
p (1 − p)n−k
N →+∞
k
et (XN ) converge en loi vers une variable aléatoire X de loi binomiale de paramètres
(n, p).
Démonstration : Supposons n 6 N (ce qui est vrai à partir d’un certain rang) et k ∈ [[ 0 ; n ]].
Alors
N p N (1−p)
(N p)!
(N q)!
n!(N − n)!
k
n−k
P (XN = k) =
×
×
=
N
N
!
k!(N
p
−
k)!
(N
q
−
n
+ k)!(n − k)!
n
n!
(N − n)!(N p)!(N q)!
×
=
k!(n − k)!
N !(N p − k)!(N q − n + k)!
n
=
AN
k
Comme n et k sont fixés, on s’intéresse à
AN =
[(N p)(N p − 1) × · · · × (N p − k + 1)] × [(N q) × · · · × (N q − n + k + 1)]
N (N − 1) × · · · × (N − n + 1)
On pose P1 = (N p)(N p − 1) × · · · × (N p − k + 1), P2 = (N q) × · · · × (N q − n + k + 1) et
P3 = N (N − 1) × · · · × (N − n + 1). On a
P1
∼
(N p)k
N →+∞
P2 ∼(N q)n−k
N
P3 ∼ N n
Ainsi
n k n−k
p q
AN ∼ p q
et
P (XN = k) ∼
N →+∞
N k
comme cette expression ne dépend pas de N , on a lim P (XN = k) = nk pk q n−k .
Si k ∈
/ [[ 0 ; n ]], alors P (Xn = k) = 0 = P (X = k) si X ֒→ B(n, p).
k n−k
Interprétation : Si on fixe n et p (le nombre de boules tirées et la proportion de boules
blanches) et que N devient grand, en particulier devant n, on a de plus en plus de boules
dans l’urne, mais la proportion de boules blanches est constante. Le fait de tirer quelques
(n est très petit devant N ) boules sans remise ne modifie que très peu les proportions de
boules noires/blanches dans l’urne. Tout se passe presque comme si le tirage avait lieu avec
remise, donc comme si l’expérience suivait une loi binomiale de paramètre (n, p).
En pratique lorsque N est grand devant n (typiquement N > 10n), la loi H(N, n, p)
peut être approchée par la loi B(n, p), plus facile à calculer.
L’énoncé d’un exercice peut toujours imposer cette approximation, même si on n’a pas
N > 10n. Remarquons que l’on obtient dans les deux cas la même espérance np.
J. Gärtner.
9
Téléchargement