THEORIE ELEMENTAIRE DES PROBABILITES

publicité
La loi binomiale et la loi de Poisson
LOI BINOMIALE
Formulation
Soit une épreuve donnant lieu à un événement A suivant la probabilité P(A) = p, ou à la non
réalisation de l'événement A suivant la probabilité complémentaire P(non A) = 1 - p = q.
On définit alors la loi binomiale comme une loi discrète dont l'expression est donnée par :
P(K = k ) = Pk = C kn ⋅ p k ⋅ (1 − p) ( n −k )
où n est le nombre d'expériences aléatoires identiques et stochastiquement indépendantes et k
est le nombre de fois où l'événement A est réalisé.
La loi binomiale donne alors la probabilité d'observer k fois la réalisation d'un événement
A au cours de n épreuves indépendantes ( 0 ≤ k ≤ n ).
Cette loi est alors caractérisée par l'unique paramètre p.
Les valeurs successives du terme C kn ⋅ p k ⋅ (q ) ( n −k ) pour k variant de 0 à n, correspondent aux
termes du développement du binôme (p + q ) n et puisque (p + q) = 1, on a bien :
+∞
∑
k =0
Pk =
n
∑ Pk = 1
k =0
D'où l'appellation de loi binomiale.
On peut également retrouver la loi binomiale en considérant la variable aléatoire K comme
une somme de n variables alternatives (ou variable de Bernoulli) indépendantes de même
paramètre p. La loi binomiale est alors aussi appelée loi d'alternatives répétée.
Domaine d'applications
Tirage dans une population infinie où une proportion p d'individus possède le
caractère auquel on s'intéresse.
Exemple : le nombre de jour de pluvieux dans un mois.
Si la population est finie, il faut remettre les individus tirés après chaque tirage pour
appliquer la loi binomiale.
Représentation de la loi
En faisant le rapport de deux probabilités successives, on obtient :
Pk
( n − k + 1)p
=
Pk −1
k( 1 − p)
1
La loi binomiale et la loi de Poisson
on obtient ainsi une expression pour calculer les probabilités par récurrence :
( n − k + 1)p
⋅ Pk −1
Pk =
k( 1 − p)
et il en résulte que
0.35
Pk > Pk − 1
si
k < p ⋅ (n + 1)
Pk = Pk −1
si
k = p ⋅ (n + 1)
Pk < Pk −1
si
k > p ⋅ (n + 1)
p = 0,2
Pk
n = 10
0.3
0.3
p = 0,5
Pk
n = 10
0.25
0.15
0.2
0.15
0.1
0.05
k
k
0
1
•
0.15
0.1
0
2
3
4
5
6
7
8
9 10
n = 10
0.3
0.2
0.1
p = 0,9
0.35
0.2
0.05
Pk
0.4
0.25
0.25
0.45
0.05
0
1
2
3
4
5
6
7
8
9 10
k 1 2 3 4 5 6 7 8 9 10
Donc si pour la plus forte valeur possible de k (c'est à dire k = n), on a encore
k = n < p ⋅ (n + 1) , alors la distribution est constamment croissante. Ça se produit lorsque
p ≥ n /( n + 1) .
•
Inversement, si pour la première valeur de k (c'est à dire pour k=1), on a déjà
k = 1 > p ⋅ (n + 1) , alors la distribution est constamment décroissante. Ça se produit lorsque
p ≤ 1 /( n + 1) .
•
Dans tous les autres cas, on a une distribution en cloche, admettant un maximum.
On peut montrer que si n tend vers l'infini, la fréquence modale (valeur de k/n maximale)
tend vers la probabilité d'apparition de l'événement au cours d'une épreuve individuelle :
p.
Moments de la loi
En rappelant que la variable de la loi binomiale est la somme de n variables de Bernoulli
indépendantes on en déduit la moyenne, la variance et d'autres moments.
E(K ) = np
: moyenne
2
σK
= npq
: variance
on a aussi
μ 3 = npq (q − p)
2
La loi binomiale et la loi de Poisson
μ 4 = npq (1 - 6pq + 3npq)
On en déduit
γ1 =
γ2 =
μ3
= (q − p ) / npq
μ 23 / 2
μ4
μ 22
= (1 − 6pq + 3npq ) / npq
Les distributions binomiales sont donc symétriques lorsque p = q = 1/2.
Il apparaît que toute distribution binomiale est entièrement caractérisée par sa moyenne et sa
variance.
La fonction génératrice des moments s'écrit :
(
m k (t) = p e t + q
)n
Loi binomiale généralisée ou loi polynomiale
La loi binomiale peut être étendue au cas de h événements complémentaires A1, ..., Ah de
probabilités P1, ..., Ph telles que :
h
∑ Pi = 1
i =1
Soit K1, ..., Kh les h variables aléatoires représentant les nombres de réalisations de A1, ..., Ah
au cours de n expériences indépendantes identiques. Ces variables sont telles que
h
∑Ki = n .
i =1
Alors on peut établir que la probabilité d'observer k1 fois A1 et ... et kh fois Ah est :
n!
k
k
P( K 1 = k 1 et ... et K h = k h ) =
P1 1 ....Ph h
k 1 !...k h !
Il s'agit en fait d'une distribution à h – 1 dimensions, car la dernière variable aléatoire est
déduite de la relation
h
∑Ki = n .
i =1
3
La loi binomiale et la loi de Poisson
LOI DE POISSON
Formulation
Pour définir la loi de Poisson, on part d'une loi binomiale dont on fait varier les paramètres p
et n de la façon suivante :
n→∞
p→0
np → m (une constante positive)
k n −k
Dans ces condition on peut montrer que le terme C K
tend vers
np q
m k −m
e
k!
Cette propriété appelée "théorème de poisson", montre que la loi et les distributions
binomiales se transforment, à la limite, en une loi et un ensemble de distributions dites de
Poisson exprimées par :
P ( K = k ) = Pk = e − m
mk
k!
et caractérisée par un seul paramètre m.
Domaine d'utilisation
En pratique, lorsque n est suffisamment grand et lorsque p est suffisamment petit,
toute distribution binomiale peut être remplacée sans erreur importante par une loi de
Poisson de paramètre m = np. L'emploi de ces distributions nécessite en effet moins de calculs.
Habituellement, l'approximation de la loi binomiale par la loi de Poisson est utilisée
lorsque n > 50 et lorsque le produit m = np < 5.
Cette loi est très utilisée pour décrire l'apparition d'événements en fonction du temps,
et en l'utilisation en liaison avec la loi exponentielle.
Représentation de la loi
En faisant le rapport Pk sur Pk − 1 on trouve la formule de récurrence :
Pk = Pk −1 ⋅
m
k
4
La loi binomiale et la loi de Poisson
0.5
0.5
0.5
0.45
0.45
0.45
m = 0,7
0.4
m = 2,1
0.4
0.35
0.35
0.3
0.3
0.3
0.25
0.25
0.25
0.2
0.2
0.2
0.15
0.15
0.15
0.1
0.1
0.1
0.05
0.05
0.05
0
0
0
1
2
3
4
5
6
7
8
9 10
m = 4,5
0.4
0.35
0
0
1
2
3
4
5
6
7
8
9 10
0
1
2
3
4
5
6
7
8
9 10
Moments et propriétés
La loi de Poisson décrit une loi binomiale en prenant np = m, or dans une loi binomiale le
produit np est égal à la moyenne de la variable. On en déduit que pour la loi de Poisson, le
paramètre m est la moyenne de la variable.
µ= E(K ) = m
on montre d'autre part que
2
σK
=m
Si une variable aléatoire suit une loi de Poisson, alors la distribution de Poisson est caractérisé
par le paramètre m qui est égal à la fois à la moyenne et à la variable de la variable aléatoire.
On a aussi
μ3 = m
μ 4 = 3m 2 + m
et
d'où
γ1 = 1/ m
La fonction génératrice des moments s'écrit :
et
γ 2 = 1 /m + 3
m k ( t ) = e − m e me
t
Propriétés d'additivité
La somme de n variables indépendantes suivant des lois de Poisson de paramètres m1,
..., mn suit aussi une loi de Poisson de paramètre m = m1 + ... + mn.
5
Téléchargement