Probabilités Semestre 1

publicité
COURS DE PROBABILITE
2ième année d’économie et de gestion
Semestre 1
Laurence GRAMMONT
[email protected]
Les solutions des exercices posés dans ce polycopié
ne sont pas rédigées.
October 3, 2003
2
Contents
1 Prérequis
Dénombrements
Théorie des ensembles
1.1 Dénombrement. Analyse combinatoire .
1.1.1 Principe multiplicatif . . . . . . .
1.1.2 Permutations sans répétitions . .
1.1.3 Les arrangements sans répétition
1.1.4 Combinaisons sans répétitions . .
1.2 Théorie sommaire des ensembles . . . . .
1.2.1 Définitions . . . . . . . . . . . . .
1.2.2 Propriétés . . . . . . . . . . . . .
1.2.3 Notion de cardinal . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Introduction au calcul des probabilités
2.1 Du langage ensembliste à celui des évènements
2.2 Définition des probabilités dans le cas Ω fini .
2.3 Probabilités : Définition axiomatique . . . . .
2.4 Probabilités conditionnelles.
Notion d’indépendance . . . . . . . . . . . . .
2.5 Exercices d’application . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
. . . . . . . . . 11
. . . . . . . . . 12
. . . . . . . . . 14
. . . . . . . . . 15
. . . . . . . . . 22
3 Variables aléatoires et lois de probabilités
3.1 Espace probabilisé et loi de probabilité . . . . . . . . . . . .
3.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . .
3.1.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . .
3.1.3 Lois discrètes et lois continues . . . . . . . . . . . . .
3.2 Notion de variable aléatoire et loi de probabilité d’une variable
aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
.
.
.
.
.
.
.
.
.
5
5
5
6
7
8
9
9
10
10
.
.
.
.
25
25
25
25
26
. 26
4
CONTENTS
3.2.1
3.2.2
3.2.3
3.2.4
3.3
3.4
3.5
Exemple introductif . . . . . . . . . . . . . . . . . . .
Définitions . . . . . . . . . . . . . . . . . . . . . . . .
Exemples . . . . . . . . . . . . . . . . . . . . . . . .
Fonction de répartition d’une loi de probabilité d’une
v.a . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Variables aléatoires discrètes . . . . . . . . . . . . . . . . . .
3.3.1 Rappel de statistique descriptive univariée . . . . . .
3.3.2 Définitions d’une v.a.d. et de sa loi de probabilité . .
3.3.3 Fonction de répartition . . . . . . . . . . . . . . . . .
3.3.4 Exemples . . . . . . . . . . . . . . . . . . . . . . . .
Variables aléatoires continues (v.a.c) . . . . . . . . . . . . .
3.4.1 Définition - Fonction de répartition . . . . . . . . . .
3.4.2 Fonction densité . . . . . . . . . . . . . . . . . . . . .
3.4.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . .
Caractéristiques d’une variable aléatoire . . . . . . . . . . .
3.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . .
3.5.2 Espérance . . . . . . . . . . . . . . . . . . . . . . . .
3.5.3 Variances . . . . . . . . . . . . . . . . . . . . . . . .
3.5.4 Moments . . . . . . . . . . . . . . . . . . . . . . . . .
3.5.5 Médiane et Mode . . . . . . . . . . . . . . . . . . . .
3.5.6 Fonction d’une variable aléatoire . . . . . . . . . . .
4 Lois discrètes usuelles
4.1 Introduction . . . . . . . . . . .
4.2 Schéma de Bernouilli . . . . . .
4.3 Le shéma Binomial . . . . . . .
4.4 Le schéma hypergéométrique . .
4.5 Loi géométrique et loi de Pascal
4.6 Loi de Poisson . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 26
. 27
. 28
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
29
29
29
29
30
31
32
32
33
34
34
34
35
38
39
40
41
.
.
.
.
.
.
45
45
46
47
50
52
55
Chapter 1
Prérequis
Dénombrements
Théorie des ensembles
1.1
Dénombrement. Analyse combinatoire
Elle a pour but de dénombrer les différentes dispositions que l’on peut former
à partir d’un ensemble d’éléments.
dispositions : sous ensembles ordonnés ou non d’un ensemble.
1.1.1
Principe multiplicatif
Principe
Soit ξ une expérience qui comporte 2 étapes : la 1ère qui a p résultats possibles
et chacun de ces résultats donne lieu à q résultats lors de la 2ème. Alors
l’expérience a p × q résultats possibles.
Remarque : Le principe multiplicatif peut s’énoncer ainsi : si un évènement
A peut se produire de p façons et si un évènement B peut se produire de q
façons, la réalisation de A suivie de B peut se produire de p × q façons.
Exemple 1
On jette 3 dés identiques. Combien y-a-t-il de résultats possibles ?
63
5
6CHAPTER 1. PRÉREQUISDÉNOMBREMENTSTHÉORIE DES ENSEMBLES
Exemple 2
Une urne contient 1R, 1B, 1N, 1V . On effectue 2 tirages successifs avec
remise. Combien y-a-t-il de résultats possibles ?
4 × 4 = 16
(cela correspond au principe multiplicatif)
Conséquence
Si une expérience ξ consiste à répéter n fois de façon indépendante une même expérience
ξ0 qui a p résultats possibles, alors ξ a pn = p × p × . . . × p issues possibles.
|
{z
}
fois
1.1.2
Permutations sans répétitions
Exemple :
On a 3 lettres a, b, c
Les permutations sont les sous-ensembles ordonnés de {a, b, c}
abc acb bac cab cba bca
Définition
Une permutation de n éléments est une disposition ordonnée sans répétition de ces
n éléments. (une façon de ranger côte à côte ces n éléments)
Résultat
Si Pn est le nombre de permutations de n éléments alors
Pn = n!
preuve :
Soit n éléments a1 , a2 , . . . , an .
a1 : on peut le mettre dans n’importe quelle case
a2 :
dans n − 1 cases
an :
dans une case.
Exemple 1
De combien de manière peut-on classer 4 individus.
P4 = 4! = 24
1.1. DÉNOMBREMENT. ANALYSE COMBINATOIRE
7
Exemple 2
Une maı̂tresse de maison doit placer 6 personnes autour d’une table ronde.
Combien a-t-elle de possibilités.
P5 = 5!
Exemple 3
Un géophile dispose de 21 paires de bottes de couleurs différentes pour chausser
ses 42 pattes (21 G et 21 D)
1◦ ) De combien de façon peut-il se chausser
2◦ ) De combien de façon peut-il se chausser avec m̂ couleur pied D et pied G
Solution : 1◦ ) 21 ! × 21 !
1.1.3
2◦ ) 21 !
Les arrangements sans répétition
Exemple :
On a 3 lettres a, b, c. Combien y-a-t-il de mots de 2 lettres différentes :
ab ba ac ca bc cb : il y a 6 mots de 2 lettres : arrangements de 2 éléments
parmi 3
Définition :
Un arrangement de p éléments parmi n est une disposition ordonnée sans répétition
de p éléments.
(une façon de ranger p éléments pris parmi n en tenant compte de l’ordre)
Résultat
Apn = nb d’arrangement de p éléments parmi n
n!
Apn =
(n − p)!
preuve :
1ère place : n possibilités
2ème place : n − 1 possibilités
pème place : n − p + 1 possibilités
Exemple 1
Pour accéder à une banque de données, il faut 4 lettres différentes. Combien
de mots de passe peut-on avoir ?
A426 = 258800
8CHAPTER 1. PRÉREQUISDÉNOMBREMENTSTHÉORIE DES ENSEMBLES
Exemple 2
12 candidats se présentent aux élections d’un conseil d’administration comportant 8 places 6=.
Combien de listes possibles y-a-t-il ?
A812 = 12!
4!
Remarque
Qu’est-ce qu’un arrangement avec répétition de p éléments parmi n ?
C’est une disposition ordonnée de p éléments avec autant de répétition que
l’on souhaite.
Le nombre d’arrangements avec répétition est de np
1.1.4
Combinaisons sans répétitions
Exemple
On a 4 éléments a, b, c, d
Les combinaisons de 2 éléments sont {a, b} {a, c} {a, d} {b, c} {b, d} {c, d}.
Il y en a 6.
Définition
Une combinaison de p éléments parmi n est une disposition non ordonnée de p éléments
parmi n.
(sous ensembles de p éléments parmi n)
Remarque
Arrangement : on tient compte de l’ordre
Combinaison : on ne tient pas compte de l’ordre.
2 arrangements comportant les mêmes éléments définissent une seule combinaison.
Résultat
Le nombre de combinaisons de p éléments parmi n est Cnp =
n!
(n − p)!p!
preuve : A partir d’une combinaison de p éléments on peut faire p! arrangements
Apn = p!Cnp
Propriétés
1.2. THÉORIE SOMMAIRE DES ENSEMBLES
Cn0 = Cnn = 1
j
Cn+1
= Cnj−1 + Cnj
n
X
n
(a + b) =
Cnk ak bn−k
9
(formule du binôme)
k=0
1.2
1.2.1
Théorie sommaire des ensembles
Définitions
- Un ensemble est une collection d’objets appelés éléments.
- φ ensemble vide : il ne contient aucun élément.
- Soit Ω un ensemble
Un ensemble A est un sous ensemble de Ω ou une partie de Ω si tous les
éléments de A sont éléments de Ω.
on dit aussi que A est une partie de Ω.
L’ensemble des parties de Ω est noté P(Ω).
Ex : donner l’ensemble des parties de Ω avec Ω = {a, b, c}.
P(Ω) = { {a, b, c} {a, b} {a, c} {b, c} φ {a} {b} {c} }
(8 éléments)
Soient Ω, A, B ∈ P(Ω)
x ∈ A signifie que l’élément x appartient à l’ensemble A.
x∈
/ A signifie que l’élément x n’appartient pas à A.
- Inclusion
A ⊂ B signifie que tous les éléments de A sont dans l’ensemble B.
A 6⊂ B.
- Complémentaire Ā (ou Ac ) ensemble des éléments de Ω qui n’appartiennent pas à A.
- Union
A ∪ B : x ∈ A ∪ B ⇔ x ∈ A ou x ∈ B.
A ∩ B : x ∈ A ∩ B ⇔ x ∈ A et x ∈ B.
- Intersection
A∪A=A
A∩A=A
A∩φ=φ
A
∪
φ
=
A
Remarque : si A ⊂ B alors A ∪ B = B
si A ⊂ B alors A ∩ B = A
- Appartenance
Définition
A et B sont disjoints ssi
A∩B =φ
10CHAPTER 1. PRÉREQUISDÉNOMBREMENTSTHÉORIE DES ENSEMBLES
- Différence A\B = A ∩ B
- E, F des ensembles
Une application de E dans F est une correspondance qui aux éléments x ∈ E
associe des éléments y de F .
1.2.2
Propriétés
A∪B =B∪A
A∩B =B∩A
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
A∩B =A∪B
A∪B =A∩B
1.2.3
Notion de cardinal
Si Ω a un nombre fini d’éléments, alors pour tout A ∈ P(Ω), A a également
un nombre fini d’éléments.
cardinal de A, noté card(A) est le nombre d’éléments de A.
Propriétés
card A = card Ω − card A
card A ∪ B = card A + card B − card (A ∩ B)
card (A/B) = card A − card (A ∩ B)
card φ = 0
Chapter 2
Introduction au calcul des
probabilités
Ce sont les jeux de hasard qui sont à l’origine du calcul des probabilités. Vers
1654, Pascal et Fermat se sont confrontés au problème suivant : pourquoi en
jetant 3 dés obtient-on plus souvent la somme 11 que la somme 10 alors que
pour 11 : 146, 236, 155, 335, 443, 245
pour 12 : 156, 246, 255, 345, 336, 444
C’est à la suite de leur correspondance qu’est né le calcul des probabilités.
Les probabilités ont connu un grand essor au XIXe . Mais ce n’est qu’en
1933 que grâce à Kolmogorov le calcul des probabilités s’inscrit enfin dans
un cadre théorique rigoureux.
La découverte de la physique quantique et des théories modernes de l’imprévisibilité
redonnent au calcul des probabilités une place centrale dans l’étude de la nature.
2.1
Du langage ensembliste à celui des évènements
On a une expérience aléatoire (tirage d’une carte, lancement d’un dé) qui est
une action qui débouche sur plusieurs résultats possibles. Pour la définir, il
s’agit de recenser l’ensemble de ses résultats possibles appelés éventualités
ou évènements élémentaires.
On appelle univers l’ensemble de ses éventualités et il est noté Ω.
11
12 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS
Un évènement est un ensemble d’éventualités noté A, c’est donc aussi une
partie de Ω.(A ∈ P(Ω)).
On représente un évènement par un ensemble.
Ex :
jet de dé = exp aléatoire
univers Ω = {1,2,3,4,5,6}
éventualités {1} {2} ... {6}
évènement A : tomber sur un pair A = {2, 4, 6}
A est l’évènement réalisé quand A ne l’est pas
A = {1, 3, 5}.
A ∪ B est l’évènement qui est réalisé dès que l’un au moins des événements
A ou B l’est.
A ∩ B est l’évènement qui est réalisé dès que les événements A et B le sont.
A = {2, 4, 6}
B = ”tomber sur un nombre ≤ 3”.
A ∪ B = {1, 2, 3, 4, 6}
A ∩ B = {2}
Ω est l’évènement certain : réalisé à coup sûr.
φ est l’évènement impossible : ”obtenir 7” par exemple.
A ⊂ B signifie que chaque fois que A est réalisé B l’est aussi.
A ∩ B = φ : événements incompatibles.
Soit Ω l’ensemble des éventualités ou univers.
On arrive au point essentiel de définir la probabilité d’un évènement A (A ⊂
Ω) qui doit mesurer la chance que l’évènement A a de se réaliser lorsqu’on
effectue une épreuve.
La complexité de la définition dépend de celle de Ω :
Ω fini, Ω infini dénombrable, Ω infini non dénombrable.
2.2
Définition des probabilités dans le cas Ω
fini
Probabilité de Laplace (XVIIIe )
Elle correspond à la notion intuitive de probabilité.
Définition
2.2. DÉFINITION DES PROBABILITÉS DANS LE CAS Ω FINI
13
soit Ω fini,dont les événements élémentaires sont équiprobables.
P (A) = card A = Nb cas favorables
card Ω
Nb cas possibles
Attention à l’hypothèse d’équiprobabilité.
Exemple 1 :
Une urne contient 1B 1N
On fait 2 tirages avec remise
Proba d’avoir 2 Noires ?
On a Ω = {(N, N ); (B, B); (B, N ); (N, B)}. cardΩ = 4
(ou alors on applique le principe multiplicatif vu qu’il y a indépendance).
A : ”avoir 2 Noires”. A = {(N, N )}.
cardA
On a P (A) =
= 1/4
cardΩ
Remarque : si on ne tient pas compte de l’ordre et que l’on écrit Ω =
{{N, N } {B, B} {B, N }}, les évènements élémentaires n’étant pas équiprobables,
cardA
.
on n’a pas P (A) =
cardΩ
Erreur : on aurait P (A) = 1/3 !!
Exemple 2 :
Soit une urne contenant 1R ;1V ; 1J ;1B
On effectue 3 tirages avec remises.
Quelle est la probabilité d’obtenir 2 fois la blanche ?
On a cardΩ = 4 × 4 × 4 = 64 (principe multiplicatif).
Soit A : ”2 fois la blanche exactement”.
3!
Ainsi cardA = C32 (place des 2 blanches) ×3 (l’autre couleur) = × 3 = 9.
2!
9
Donc P (A) = 64
Exemple 3
Soit une urne contenant 2V et 3B
1) On effectue 2 tirages sans remise
Proba d’avoir 2 vertes exactement, 2 blanches exactement, 1V et 1B.
2)même question avec tirage avec remise.
1) Erreur : Ω = {(B, B) (V, V ) (B, V ) (V, B)} évènements non équiprobables
!
14 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS
on écrit : Ω = {(B1 , B2 ) (B1 , B3 ) (B2 , B3 ) (B3 , B2 ) . . .}
On a cardΩ = A25 = 20. On a
cardA
A2
2
1
P (A) =
= 2 =
= ,
cardΩ
20
20
10
A23
6
3
cardB
P (B) =
=
=
= ,
cardΩ
20
20
10
12
6
3
cardC
P (C) =
=
=
= .
cardΩ
20
10
5
cardC = C21 (choix V) ×C31 (choix B) ×2 (ordre) = 2 × 3 × 2 = 12.
2) On a cardΩ = 52 (principe mult), ainsi
2×2
4
9
2×3×2
12
P (A) =
=
;
P
(B)
=
;
P
(C)
=
=
.
52
25
25
25
25
Propriétés
P (A) + P (A) = 1 ∀A ∈ P(Ω)
P (A ∪ B) = P (A) + P (B) − P (A ∩ B) ∀A, B ∈ P(Ω)
A ⊂ B ⇒ P (A) ≤ P (B)
Ex : à démontrer en utilisant les propriétés du cardinal.
2.3
Probabilités : Définition axiomatique
Si Ω est infini, la définition précédente devient caduque.
Les fondements de la probabilité mathématique sont dus à Kolmogorov (1933).
Il faut savoir qu’en 1919, Von Mises affirmait ”le calcul des probabilités n’est
pas une discipline mathématique”.
Définition Ω fini ou infini dénombrable
P
une application de P(Ω) dans [0, 1] est une probalité si et seulement si
(1) P (Ω) = 1
(2) ∀(Ai )i=1,...,n tq Ai ∩ Aj = φ ∀i 6= j
! i=n
n
[
X
Ai =
P (Ai ).
P
i=1
!i=1 ∞
∞
X
[
Ai =
P (Ai ).
(3) P
i=1
i=1
Dans le cas Ω non dénombrable, on ne peut pas forcément définir une proba-
2.4. PROBABILITÉS CONDITIONNELLES.NOTION D’INDÉPENDANCE15
bilité sur P(Ω), qui satisfasse les axiomes (1) (2) (3) sur P(Ω). On est obligé
de la définir sur une famille F de P(Ω), famille qui vérifie certaines propriétés:
si A ∈ F , A ∈ F
si A, B ∈ F A ∪ B ∈ F et A ∩ B ∈ F
∞
[
Ai ∈ F
(Ai )i∈N ∈ F ⇒
i=1
On dit que F est une σ-algèbre.
ex vérifier que la probabilité de Laplace satisfait aux axiomes (1) (2) (3.)
Propriétés
P (A) + P ((A) = 1
∀A ∈ P(Ω)(ou F)
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
A ⊂ B ⇒ P (A) ≤ P (B)
Preuve :
• A ∪ A = Ω ⇒ P (A ∪ A) = P (Ω) = 1. A ∩ A = φ ⇒ P (A ∪ A) =
P (A) + P (Ā).
• A ∪ B = A ∪ (B\A ∩ B) d’où
P (A ∪ B) = P (A ∪ (B\A∩B )) = P (A) + P (B\A ∩ B).
or B = (B\A ∩ B) ∪ (A ∩ B).
d’où P (B) = P (B\A ∩ B) + P (A ∩ B)
d’où le résultat.
•A⊂B
B = A ∪ (B\A)
d’où P (B) = P (A) + P (B\A)
.
| {z }
≥0
2.4
Probabilités conditionnelles.
Notion d’indépendance
Les concepts d’indépendance et de probabilité conditionnelle sont définis explicitement par Abraham De Moivre (1667 - 1754). On lui doit également
un énoncé clair et précis de la formule des probabilités composées.
Soit Ω un univers (lié à une expérience aléatoire ξ) , P une probabilité sur
16 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS
P(Ω)(ou F).
Soient A, B deux évènements, A ⊂ Ω, P (A) > 0 et B ⊂ Ω.
Définition
la probabilité conditionnelle de B sous l’hypothèse A est définie par
P (A ∩ B)
P (B|A) =
.
P (A)
Signification : P (B|A) exprime la probabilité de B quand on sait que A
est déjà réalisé.
On dit couramment probabilité de B sachant A.
Exemple : On extrait sans remise 2 cartes d’un jeu de 32. La première
carte tirée est un roi. Quelle est la proba que la 2e carte soit aussi un roi ?
3
P (B|A) = 31
directement.
(on raisonne sur ce qu’il advient une fois la 1ere carte tirée.)
4
Si on veut appliquer la définition, c’est plus compliqué : P (A) = 32
P (A ∩ B) ? il s’agit de définir l’univers sur lequel est défini A ∩ B.
Soit l’experience aléatoire ξ : tirer 2 cartes sans remise. On a cardΩ = A232 =
32!
= 32 × 31 et card A ∩ B = A42 . Ainsi
30!
4×3
4×3
3
P (A ∩ B) = 32×31
donc P (B|A) = 32×31
× 32
= 31
.
4
Ainsi en général on utilise la relation dans le sens P (A∩B) = P (B|A)×P (A)
Propriété 1 : Formule des probabilités composées
P (A ∩ B) = P (B|A) × P (A)
P (A ∩ B) = P (A|B) × P (B)
si P (A) > 0
si P (B) > 0
Théorème
Soit A
∈ P(Ω) (ou F), tq P (A) > 0, P étant une probabilité sur P(Ω)
P(Ω) → [0, 1]
P|A : est une probabilité sur P(Ω)
B → PA (B) = P (B|A)
preuve :
P (Ω ∩ A)
P (A)
=
= 1.
P (A)
P (A)
P ((B1 ∪ B2 ) ∩ A)
P [(B1 ∩ A) ∪ (B2 ∩ A)]
(2) On a PA (B1 ∪ B2 |A) =
=
. Or
P (A)
P (A)
B1 ∩ B2 = φ donc (B1 ∩ A) ∩ (B2 ∩ A) = φ d’où P [(B1 ∩ A) ∪ (B2 ∩ A)] =
P ((B1 ∩ A) P (B2 ∩ A)
P (B1 ∩ A) + P (B2 ∩ A). Ainsi PA (B1 ∪ B2 |A) =
+
=
P (A)
P (A)
(1) On a PA (Ω) = P (Ω|A) =
2.4. PROBABILITÉS CONDITIONNELLES.NOTION D’INDÉPENDANCE17
PA (B1 ) + PA (B2 ).
(3) est montré de la même manière.
Exemple :
Soit un jeu de 52. On fait 2 tirages avec remise. Probabilité que la première
carte soit un roi rouge et la 2e un roi noir ?
On a Ω = {(D, R)...}. Soient les événements suivants:
A: ”la première carte est un roi rouge” et
B: la deuxième carte un roi noir”. On a
P (A ∩ B) = P (B|A) × P (A), Ainsi
2
2
2
2
P (A) =
et P (B|A) = 52
(= P (B)), donc P (A ∩ B) =
×
=
52
52
52
P (A) × P (B).
Définition
P (A) > 0
P (B) > 0
A et B sont indépendants si et seulement si
P (B|A) = P (B) ou P (A|B) = P (A)
Soient A, B ∈ P(Ω) (ouF) , avec
Ce qui est le cas dans un tirage avec remise. Le tirage de la première carte
n’influe pas sur le tirage de la 2e . Ce n’est plus le cas pour les tirages sans
remise.
Caractérisation
A et B (P (A) > 0 P (B) > 0) sont indépendants si et seulement si
P (A ∩ B) = P (A) × P (B)
Exemple : Soit une urne contenant 10 blanches ,20 rouges et 30 noires. On
tire 2 boules sans remises. Probabilité que la première soit rouge (évènement
A) et la deuxième soit blanche (évènement B) ?
On a P (A ∩ B) = P (B|A) × P (A). (pas d’indépendance)
20
1
On a P (A) =
= et
60
3
10
P (B|A) = . Donc
59
10 1
P (A ∩ B) =
×
59 3
18 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS
m̂ question avec des tirages avec remises
1 1
1
1 10
= × =
P (A ∩ B) = P (A) × P (B) = ×
3 60
3 6
18
Exemple :
un jeu radiophonique consiste à poser 10 questions à un candidat qui doit
choisir parmi 2 réponses dont une seule est juste. Le candidat perd au bout
de 2 réponses fausses.
1) Probabilité qu’un candidat qui répond au hasard puisse gagner ?
2) Probabilité qu’il ait perdu au bout de 5 questions sachant qu’il a perdu ?
1) Soit G évènement :”le candidat a gagné”.
ξ : poser 10 questions pour lesquelles il y a 2 réponses. On a
cardΩ = 210 .
card G = nombre de réponses toutes justes ou une fausse
= 1 + 10 = 11. Ainsi
P (G) = 211
10
2) Soit A = ”le candidat a perdu au bout de 5 questions”.
P (A ∩ G)
P (A)
On a P (A|G) =
=
et
P (G)
P (G)
P (G) = 1 − P (G) = 1 − 211
10
C41
P (A) =
25
↓
attention !
Exemple introductif
Un sac contient 5 boules rouges et 15 boules jaunes. Un deuxième sac contient 9 boules rouges.
ξ : On tire au hasard 1 boule du 1er sac et on la remet dans le second sac
sans regarder la couleur. On tire alors une boule du 2e sac. Quelle est la
probabilité P que cette boule soit rouge ?
Commentaire :
ξ comporte 2 étapes. La deuxième étape dépend de la 1er .
Si on tire une rouge alors P = 10
= 1.
10
9
Si on tire une jaune alors P = 10 .
2.4. PROBABILITÉS CONDITIONNELLES.NOTION D’INDÉPENDANCE19
Soit A = ”boule R au 2e tirage”,
B1 : ”1er boule est R” B2 : ”2e boule est J”. On a
B1 ∩ B2 = φ, B1 ∪ B2 = Ω. Ainsi
A = (A ∩ B1 ) ∪ (A ∩ B2 ). D’où
P (A) = P (A ∩ B1 ) + P (A ∩ B2 )
= P (A|B1 ) × P (B1 ) + P (A ∩ B2 ) × P (B2 )
5
9
+ 10
× 15
= 1 × 20
20
Propriété 2 - Formule des probabilités totales
n
[
Soient (Bi )i=1,...n ∈ P(Ω) (ou F), tq
Bi = Ω Bi ∩ Bj = φ i 6= j
P (Bi ) > 0
i=1
Soit A ∈ P(Ω) (ou F), on a
n
X
P (A) =
P (A|Bi ) × P (Bi )
i=1
n
[
n
[
Preuve : A = A ∩
Bi = (A ∩ Bi ), ainsi
i=1
i=1
P
P
P (A) = ni=1 P (A ∩ Bi ) = ni=1 P (A|Bi ) × P (Bi ).
Exemple :
Soit un sac contenant 6 jetons : 5 numérotés 1 et 1 numéroté 2.
Soient 2 urnes : U1 contenant six boules Blanches et quatre Noires et U2
contenant 8 B et 2 N . L’expérience aléatoire comporte 2 étapes. On pioche
au hasard dans le sac, on regarde le numéro et on pioche dans l’urne correspondante.
Probabilité que la boule soit blanche ?
On a U1 ∪ U2 = Ω et U1 ∩ U2 = φ, on a donc
P (B) = P (B ∩ U1 ) + P (B ∩ U2 )
=
P (B|U1 ) × P (U
1 ) + P (B|U
2 )P (U2 )
6
5
8
1
1
2
7
×
+
×
= +
=
=
10 6
10 6
3 15
15
Autre question : sachant que la boule est blanche proba qu’elle provienne
de U1 :
P (B ∩ U1 )
P (B|U1 ) × P (U1 )
P (B|U1 ) × P (U1 )
=
On a P (U1 |B) =
=
=
P (B)
P (B)
P (B|U1 ) × P (U1 ) + P (B|U2 ) × P (U2 )
20 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS
5
1
6
×
10 6 = 3 = 5 .
7
7
7
15
15
Théorème de Bayes
Soit {Bi , i = 1, . . . , n}
n
[
Bi = Ω,
i=1
P (Bi ) > 0
Bi ∩ Bj = φ ∀i 6= j,
. On a
Soit A ∈ P(Ω)(ou F),
P (A|Bk ) × P (Bk )
P (Bk |A) = n
X
P (A|Bi ) × P (Bi )
i=1
Preuve : P (Bk |A) =
P (Bk ∩ A)
et on applique la formule des probabilités
P (A)
totales.
Exemple :
Une population est constituée de 10 Français, 10 Allemands.
7 Français sont bruns, 3 blonds,
1 Allemand est brun, 9 blonds.
On rencontre un blond, probabilité qu’il soit Allemand ?
Soient les événements A = ”il est blond”, B1 = ”Allemand” et B2 =
”Français”.
9
On connait P (B1 ) = 1/2, P (B2 ) = 1/2, P (A|B1 ) =
et P (A|B2 ) = 3/10.
10
On demande P (B1 |A).
On a B1 ∪ B2 = Ω et B1 ∩ B2 = φ, on peut donsc appliquer le théorème de
Bayes:
9
1
×
P (A|B1 ) × P (B1 )
10 2
P (B1 |A) =
=
=
9
1
3
1
P (A|B1 ) × P (B1 ) + P (A|B2 ) × P (B2 )
× +
×
10 2 10 2
3
.
4
Exemple :
2.4. PROBABILITÉS CONDITIONNELLES.NOTION D’INDÉPENDANCE21
Une entreprise utilise 3 machines différentes A, B, C pour fabriquer des pièces.
40 % sont fabriquées par A, 30 % par B et 30 % par C. La machine A produit 2 % de pièces défectueuses, B 4 % et C 5 %.
1) On prélève une pièce au hasard. Probabilité qu’elle soit défectueuse.
2) On prélève une pièce. Elle est défectueuse. Probabilité qu’elle vienne de
A.
3) On prélève une pièce. Elle est saine. Probabilité qu’elle vienne de C.
Soient A : ” être fabriqué par A, B : ”être fabriqué par B,....
D : ”être défectueuse” et D : saine.
On a P (A) = 0, 4, P (B) = 0, 3, et P (C) = 0, 3.
A, B, C sont tels que A ∩ B = φ, A ∩ C = φ, C ∩ B = φ et A ∪ B ∪ C = Ω.
1)En appliquant la formule des probabilités totales, on a
P (D) = P (D|A) × P (A) + P (D|B) × P (B) + P (D|C) × P (C) = 0, 02 × 0, 4 +
0, 04 × 0, 3 + 0, 05 × 0, 3.
P (D|A) × P (A)
0, 02 × 0, 4
2)D’après le théorème de Bayes, P (A|D) =
=
P (D)
P (D)
P (D|C) × P (C)
0, 95 × 0, 3
3) P (C|D) =
=
1 − P (D)
P (D)
Exemple :
Une urne contient 10 B 20 R 30 N .
On tire 3 boules sans remise.
Probabilité que les 2 premières soient rouges et la troisième noire ?
Soient les évènements: A:” la première boule tirée est rouge”, B:”la 2ième
est rouge”, on a
20
. Donc
P (A ∩ B) = P (B|A) × P (A), or P (A) =
= 1/3 et P (B|A) = 19
59
60
19 1
P (A ∩ B) =
× .
59 3
Posons C = A ∩ B.
Soit D:”la troisième est noire”. On a
30
19
P (D ∩ C) = P (D|C) × P (C) =
×
.
58 59 × 3
Exemple :
Soient 2 dés ; l’un d’eux est pipé. ils permet d’obtenir 6 dans 50 % des cas ;
l’autre est équilibré. On lance l’un des deux dés choisi au hasard. On obtient
6. Quelle est la probabilité qu’on ait utilisé le dé équilibré ?
22 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS
Soient E : ”le dé est équilibré,”
P : ”le dé est pipé,”
A : ”obtenir 6”.
1
1
1
1
Les données sont P (E) = , P (P ) = , P (A|E) = et P (A|P ) = .
2
2
6
2
On a E ∪ P = Ω et E ∩ P = φ. On peut donc appliquer le théorème de
1 1
×
P (A|E) × P (E)
bayes: P (E|A) =
= 6 2 = 0, 25.
1 1 1
P (A|E) × P (E) + P (A|P ) × P (P )
× +
6 2 4
2.5
Exercices d’application
Exercice 1 :
Dans une entreprise, la probabilité qu’un ouvrier A quitte l’entreprise dans
l’année est 1/5, probabilité qu’un cadre B quitte l’entreprise dans l’année est
1/8 et la probabilité que A et B quittent l’entreprise est 1/40.
Calculer la probabilité que l’un des deux quitte l’entreprise et que ni l’un ni
l’autre ne quitte l’entreprise.
Exercice 2 :
Dans une population, on a observé que pendant 1 mois, 40 % des individus
sont allés au cinéma, 25 % au théatre et 12,5 % au cinéma et au théatre.
Calculer la probabilité que pendant 1 mois un individu
1) aille au cinéma ou au théatre.
2)n’aille pas au cinéma.
3)n’aille ni au cinéma ni au théatre.
4)aille au cinéma mais pas au théatre.
5) probabilité qu’un individu aille au théatre sachant qu’il est allé au cinéma
6) probabilité qu’un individu n’aille pas au cinéma sachant qu’il n’est pas
allé au théatre.
Exercice 3 :
Une urne contient 5B et 3N
1) 5 tirages sans remises
1-a) Proba d’avoir 3B puis 2N
1-b) Proba d’avoir exactement 3B
2.5. EXERCICES D’APPLICATION
2) 5 tirages avec remise
1-a) Proba d’avoir BBBN N
2-b) Proba d’avoir exactement 3B.
23
24 CHAPTER 2. INTRODUCTION AU CALCUL DES PROBABILITÉS
Chapter 3
Variables aléatoires et lois de
probabilités
3.1
3.1.1
Espace probabilisé et loi de probabilité
Définition
On a vu qu’une expérience aléatoire ξ définissait un ensemble d’événements
possibles Ω appelé univers. Sur P(Ω) on peut définir une application P telle
que ∀A ∈ P(Ω) (ou c alF ) P (A) est la probabilité de l’évènement A de se
réaliser.
Définition
Soit Ω un univers.
On appelle espace probabilisé le triplet (Ω, P(Ω) (ou c alF ), P ) P étant une probabilité sur P(Ω)
P est appelée loi de probabilité
On note souvent (Ω, P ).
Remarque :
Si ξ est une expérience aléatoire et Ω l’ensemble de ses éventualités, le statisticien cherche à donner une loi de probabilité P. (Ω, P ) décrira le caractère
aléatoire de l’expérience.
3.1.2
Exemples
Exemple 1 : On lance successivement 2 fois une pièce : ξ
Ω = {(P, P )(F, F )(P, F )(F, P )} avec P = pile et F = face.
25
26CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS
On définit la probabilité suivante:
P : Ω → [0, 1] ∀ω ∈ Ω P (ω) =
1
4
Exemple 2 : Dans une urne contenant 3 Blanches, 4 Rouges, 6 Noires, on
tire une boule et on observe sa couleur:
4
6
3
Ω = {B, R, N }, P (B) = , P (R) = , P (N ) = .
13
13
13
Exemple 3 : Une pièce a 2 faces valant respectivement +1 et −1.
ξ : on fait 3 lancers successifs. On a
{(+1, +1, −1)(+1, +1, +1)(+1, −1, +1)(+1, −1, −1)
Ω=
(−1, +1, −1)(−1, +1, +1)(−1, −1, 1)(−1, −1, −1)}
1
P (ω) = 3 ∀ω ∈ Ω. Les événements sont équiprobables.
2
3.1.3
Lois discrètes et lois continues
On rencontrera deux types de lois de probabilité :
- Lois discrètes : P : Ω → [0, 1] où Ω est fini ou ∞ dénombrable i.e. Ω
est une suite (finie ou ∞) d’ événements élémentaires que l’on peut noter
Ω = {ωi i ∈ I} avec I ⊂ N. Soient
pi = P ({ωi }) i ∈ I.
[
X
Soit A un évènement qq, si A = {ωi } alors P (A) =
pi
i∈J
i∈J
- Lois continues : P : Ω → [0, 1] est continue si tous les événements élémentaires
ont une probabilité nulle.
d−c
ex : Ω = [a, b] ∀[c, d] ⊂ [a, b] P ([c, d]) =
(loi uniforme)
b−a
3.2
3.2.1
Notion de variable aléatoire et loi de probabilité d’une variable aléatoire
Exemple introductif
Soient 2 joueurs Albert et Bernard. L’un des deux lance un dé
1F
si 1 ou 6,
A −→ B
2F
si 2,3 ou 5, B −→ A
si 4,
partie nulle.
3.2. NOTION DE VARIABLE ALÉATOIRE ET LOI DE PROBABILITÉ D’UNE VARIABLE ALÉ
Appelons X le gain d’Albert.
X dépend du hasard, plus particulièrement du résultat du lancer de dé. On
dira que X est une variable aléatoire car elle dépend du hasard.
Ici ξ = lancer de dé Ω = {1, 2, 3, 4, 5, 6} ainsi X dépend des événements
de Ω et peut prendre les valeurs −1, 0, 2.
X(1) = −1, X(6) = −1, X(2) = X(3) = X(5) = 2, X(4) = 0.
Ω→R
ω → X(ω)
X est une application numérique de {1, 2, 3, 5, 6} dans R.
X:
Le dé étant non truqué, les événements élémentaires de Ω sont équiprobables.
1
Ainsi (Ω, P ) est un espace probabilisé P ({i}) =
i = 1, 2, 3, 4, 5, 6
6
On demande la probabilité qu’Albert a de gagner 2 F. On a
1
P (X = 2) = P [ω tq X(ω) = 2] = P [X −1 (2)] = P ({2, 3, 5}) = ,
2
1
P (X = −1) =
P (X = 0) = 1/6.
3
Ainsi à chaque valeur de X, on peut associer une probabilité. Cette correspondance s’appelle loi de probabilité de X représentée par le tableau suivant:
valeurs de X
probabilité
3.2.2
-1
0
2
1/3 1/6 1/2
Définitions
Définition 1 :
Une variable aléatoire est une fonction de Ω dans R (Ω, P ) étant un
espace probabilisé.
Rmq :
Si Ω fini ou ∞ dénombrable aucun pb. Si Ω est non dénombrable, il faut une
propriété supplémentaire : X −1 (] − ∞, x]) ∈ F.
F étant une σ algèbre (par exemple les intervalles de R).
X est une correspondance entre l’ensemble des évènements élémentaires et R.
Définition 2 :
28CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS
Soit X une v.a définie sur l’espace probabilisé (Ω, P ). On appelle
loi de probabilité de X, la probabilité PX définie sur l’ensemble des intervalles I
de R tq ∀I ⊂ R
Px (I) = P {ω tq X(ω) ∈ I}
3.2.3
Exemples
Exemple 1. On lance successivement 2 fois une pièce de monnaie. Soit la
variable aléatoire X représentant le nombre de faces obtenues après ces 2
lancements.
1) donner les valeurs de X
2) définir la loi de probabilité de X
Solution : Ω = {(P, P ), (P, F ), (F, P ), (F, F )} évènements équiprobables
X:
Ω
(P, P )
(P, F )
(F, P )
(F, F )
→R
→0
→1
→1
→2
X(Ω) = {0, 1, 2}
Valeurs de X 0 1 2
1
1
1
PX
4
2
4
Exemple 2. Dans une urne, il y a des boules blanches et rouges. Les blanches
sont en proportion p et les rouges en proportion q = 1 − p.
ξ : on tire une boule. Ω = {B, R}, p(B) = p, p(R) = q.
X : nb de rouges obtenues. Donner la loi de probabilité de X.
On a Px (0) = P (X = 0) = P (B) = p et Px (1) = P (X = 1) = P (R) = q.
ev élémentaires
Valeurs de X
probabilités
B
0
p
R
1
q
Remarque :
On peut faire une analogie entre variable aléatoire (v.a) et variable statistique. La notion de probabilité pour les v.a remplace celle de fréquence
relative pour les variables statistiques.
3.3. VARIABLES ALÉATOIRES DISCRÈTES
3.2.4
29
Fonction de répartition d’une loi de probabilité
d’une v.a
Définition.
soit X une v.a définie sur (Ω, P ) on appelle fonction de répartition de X la fonction F
de R dans R définie par F (x) = P (X ≤ x).
Propriétés.
(1) P (a < X ≤ b) = F (b) − F (a)
∀b ≥ a.
(2) F est croissante
(3) F (x) ∈ [0, 1] ∀x ∈ R,
lim F (x) = 1,
X→+∞
lim F (x) = 0.
x→−∞
La fonction de répartition permet de calculer toutes les probabilités relatives
aux intervalles.
3.3
Variables aléatoires discrètes
On peut faire une analogie entre les variables statistiques et les variables
aléatoires discrètes (v.a.d).
3.3.1
Rappel de statistique descriptive univariée
Ω : population
M = ensemble de classes Ci i = 1, . . . k
x : Ω → M variable statistique
classes
C1
C2 . . .
Ck
fréquences relatives
f1
f2
fk
fréquences relatives cumulées F1 = f1 F2 = f1 + f2 Fk = 1
3.3.2
Définitions d’une v.a.d. et de sa loi de probabilité
Définition 1.
une variable X est discrète si l’ensemble de ses valeurs est fini ou ∞ dénombrable.
Analogie :
v. stat
v. aléatoire discrètre
classe de modalité
valeurs de X
Ci
xi
30CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS
Définition 2.
La loi de probabilité de X est définie par
1) les valeurs de X : xi i ∈ I,
2) les probabilités des valeurs de X
pi = P (X = xi ).
Souvent on dresse le tableau :
valeurs de X
x1 x2
proba P (X = xi ) p1 p2
Analogie :
3.3.3
...
...
xn
pn
v. aléatoire discrètre
v. statistique
fréquence relative
pi = p(X = xi )
fi
de Ci
Fonction de répartition
X : Ω → {x1 , . . . , xn }
La fonction de répartition F (F (x) = P (X ≤ x)) vérifie:
x ∈] − ∞, x1 [ F (x) = P (φ) = 0,
x ∈ [x1 , x2 [
F (x) = P (X ≤ x) = F (x1 ) = P (X = x1 ) = p1 ,
x ∈ [xi , xi+1 [ F (x) = p1 + p2 + . . . + pi ,
x ≥ xn
F (x) = 1.
X
F (x) =
pi
i tq
xi ≤x
Propriété
pi = F (xi ) − F (xi−1 )
Ainsi si on connait la loi de probabilité de X on déduit sa fonction de
répartition et inversement.
Analogie :
v. statistique v. aléatoire discrètre
fréquences
fonction
relatives
de répartition
cumulées
3.3. VARIABLES ALÉATOIRES DISCRÈTES
3.3.4
31
Exemples
• Exemple 1 : ξ : on jette 2 dés. Soit X la v.a. qui représente la somme des
points obtenus par les 2 dés.
1) donner la loi de probabilité de X.
2) donner la fonction de répartition de X.
• Exemple 2 : on lance une pièce de monnaie un certain nombre de fois. Soit
X le nombre de jets nécessaires pour obtenir pile pour la 1ere fois
1) quelles valeurs prend X ?
2) quelle est la loi de probabilité de X ?
3) fonction de répartition
1)L’univers est défini de la manière suivante: Ω = {suite infinie (un )n∈N un =
P ou F }, et on a
X(Ω) = N∗
2) valeurs de X 1 2 . . . k
1 1
1
proba
... k
2
2 2
2
3) x < 1
F (x) = 0,
1≤x<2
F (x) = 1/2,
1
1
2≤x<3
F (x) = + 2 = 3/4,
2 2
k
k
k ≤ x < k + 1 F (x) = 21 + 212 + 213 + . . . + 21k = 12 1−(1/2)
= 1 − 21k = 2 2−1
k .
1−1/2
• Exemple 3 : D’un sac contenant n jetons, numérotés de 1 à n
on tire successivement au hasard sans remise 3 jetons.
soit X le numéro du 3e jeton obtenu.
Déterminer la loi de proba de X et sa fonction de répartition.
n ≥ 3,
Ω = {triplet}.
X(Ω) = {1, . . . , n}.
P (X = k) = P ({triplet tq 3e numéro est k})
A2
1
=
.
= n−1
A3n
n
X1
E(x)
F (x) =
=
.
n
n
k≤x
• Exemple 4 : On place un hamster dans une cage. Il se trouve face à 5
32CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS
portillons dont un seul lui permet de sortir. A chaque essai infructueux, il
reçoit une décharge électrique et on le replace à l’endroit initial.
1) En supposant que le hamster choisisse de façon équiprobable entre les
5 solutions à chaque nouvel essai, déterminer la probabilité des événements
suivants :
le hamster sort au 1er essai, au 3e , au 7e .
2) Le hamster mémorise maintenant les essais infructueux et choisit de façon
équiprobable entre les portillons qu’il n’a pas encore essayés.
Soit X le nb d’essais effectués pour sortir.
Quelles valeurs prend X ? Déterminer sa loi de probabilité
Solution succinte :
1)P (1er essai) = 1/5, P (3e essai) =
1
= 0, 0524;
5
2) X(Ω) = {1, 2, 3, 4, 5}
3.4
3.4.1
4 4 1
× × = 0, 128, P (7e ) = (4/5)6 ×
5 5 5
valeurs de X 1
2
3
4
5
proba
0, 2 0, 2 02 0, 2 0, 2
Variables aléatoires continues (v.a.c)
Définition - Fonction de répartition
Définition :
La v.a X est continue si et seulement si ses valeurs constituent un ou plusieurs intervalles
La fonction de répartition est définie par
F (x) = P (X ≤ x)
Définition :
Si F est continue et dérivable alors X est absolument continue.
Rmq dans beaucoup d’ouvrage on parle de continuité à la place d’absolue
continuité
Propriétés
3.4. VARIABLES ALÉATOIRES CONTINUES (V.A.C)
(1) F est croissante,
(2) lim F (x) = 1
x→+∞
lim F (x) = 0
x→−∞
si
33
X(Ω) = R
(3) P (a ≤ X < b) = F (b) − F (a)
(4) si X est abs cont Alors ∀x P (X = x) = 0.
preuve de (4) :
0 ≤ P (X = x) ≤ P (x − u ≤ X < x + v) = F (x + v) − F (x − u)
= (F (x + v) − F (x)) + (F (x) − F (x − u))
∀u, v
|
{z
} |
{z
}
3.4.2
↓v→0
↓u→0
0
0
.
Fonction densité
Définition 1
P (a ≤ X < b)
F (b) − F (a)
=
b−a
b−a
Ainsi on en déduit naturellement la notion de densité de probabilité en 1
point.
La densité moyenne de proba sur [a, b] de X v.a.c. f (a, b) =
Définitions 2
F (x + ∆x) − F (x)
∆x→0
∆x
(i) La densité de probabilité en 1 point f (x) = lim
(ii) Si X est abs continue f (x) = F 0 (x) est appelée fonction densité
Z x
Conséquences
∀x ∈ R F (x) =
f (y)dy
−∞
Z b
P (a ≤ X ≤ b) =
f (y)dy.
a
Propriété de f
(1) f ≥ 0
Z +∞
(2)
f (x)dx = 1
−∞
Remarque
(2) est souvent utilisé pour montrer qu’une fonction est effectivement une
densité.
34CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS
3.4.3
Exemples
Exercice 1
Soit X la v.a. donnée par sa fonction densité

x<0
 0
1
x ∈ [0, 1]
f (x) =
(Loi uniformément répartie sur [0, 1])

0
x>1
1) donner le graphe de f
2) donner la fonction de répartition et son graphe. Calculer P (0, 25 ≤ X <
0, 5).
Exercice 2
On suppose que la durée de vie d’un individu est une v.a. continue dont la
densité de probabilité est
k t2 (100 − t)2 t ∈ [0, 100]
f (t) =
0
sinon
1) Déterminer k pour que f soit la fonction densité d’une v.a
2) Calculer la probabilité pour qu’un individu meurt entre 60 et 70 ans.
3.5
3.5.1
Caractéristiques d’une variable aléatoire
Introduction
Pour une variable statistique donnée par le tableau
classes fréquences relatives
C1
f1
..
..
.
.
Cn
fn
on avait défini des grandeurs caractérisant la v. statistique comme la moyenne,
la variance, l’écart type.
3.5. CARACTÉRISTIQUES D’UNE VARIABLE ALÉATOIRE
35
n
X
x
=
fi xi
moyenne
i=1
n
X
V (x) =
fi x2i − x2
variance
Rappels i=1
n
X
=
fi (xi − x)2
i=1
σ(x) = pV (x)
écart type
On va faire de même pour les variables aléatoires.
3.5.2
Espérance
• Cas des variables discrètes
Soit X une v.a. définie sur (Ω, P ) tq X(Ω) = {xi , i ∈ I},
L’espérance de X est définie par
X
E(X) =
pi xi .
pi = P (X = xi )
i∈I
(analogie avec les variables statistiques)
• Cas des variables absolument continues
X : (Ω, P ) → R de fonction densité f définie sur R
Z +∞
E(X) =
xf (x) dx.
−∞
Z b
Si f est définie sur [a, b] E(X) =
xf (x)dx.
a
Exercice 1
Dans une urne, on a des boules blanches en proportion p et des noires en
B→0
proportion q = 1 − p. Soit X :
N →1
Calculer E(X).
sol :
valeurs de X 0 1
proba
p q
Exercice 2
E(X) = q
36CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS
Lancers successifs de 2 pièces de monnaie. X : nb de faces obtenues.
Calculer E(X)
X:
0
1
proba
4
Exercice 3
Lancer de 2 dés.
Calculer E(X)
sol :
E(X) =
1
1
2
2
1
4
E(X) =
1
1
+2× =1
2
4
X = somme des 2 dés.
2
6
12 20 30 42 40
30 20 12
252
+
+
+
+
+
+
+1+
+
+
=
=7
36 36 36 36 36 36 36
36 36 36
36
Exercice 4
On jette un dé : X : pt du dé
1
1
proba
6
X
2
1
6
3
1
6
4
1
6
5
1
6
6
1
6
21
1
E(X) = (1 + 2 + 3 + 4 + 5 + 6) =
|
{z
}6
6
6×7
2
Exercice 5
Un joueur tire au hasard une carte parmi 52. Il gagne 200 F si la carte est
un coeur et perd 100 F sinon. Soit G : Ω → R le gain du joueur.
1) définir la loi de probabilité de G
2) calculer son espérance
Ω = {52 cartes}
Valeur de G
proba
200 -100
1
3
4
4
E(G) =
200 300
100
−
=−
= −25
4
4
4
Exercice 6
Deux joueurs A et B lancent chacun une pièce.
Si les 2 pièces tombent sur pile A gagne g sinon B gagne 2 F.
Un jeu est équitable si et seulement si l’espérance du gain de chaque joueur
est nulle. Que doit valoir g pour que le jeu soit équitable ?
sol : Ω = {(P, P )(F, F )(P, F )(F, P )}
3.5. CARACTÉRISTIQUES D’UNE VARIABLE ALÉATOIRE
GA : gain de A
-2
3
4
g
GB
2
1
3
proba
proba
4
4
6 g
6 g
E(GA ) = − + ,
E(GB ) = − . Ainsi
4 4
4 4
E(GA ) = E(GB ) = 0 si et seulement si g = 6.
37
−g
1
4
Exercice 7


0
x

−x + 2
1) représentation de f et vérifier que f est une fonction
2) calculer F , la fonction de répartition.
3) calculer E(X).
Soit X définie par sa fonction densité f (x) =
si x < 0 x > 2
si x ∈ [0, 1[
si x ∈ [1, 2]
densité.
sol :
2×1
base × hauteur
1) • Aire triangle =
=
=1
(calcul géométrique)
2
2
Z +∞
Z 1
Z 2
•
f (x)dx =
x dx +
−x + 2 dx
−∞
0
1
2 1 2
x
2
=
+ −x2 + 2x
2 0
1
= 1/2 + −2 + 4 + 1/2 − 2 = 1
(calcul analytique)

=0
x<0



2

x

 =
x ∈ [0, 1[
2 2
2) F (x)
x


= − + 2x − 1
x ∈ [1, 2[



2

=1
x>2
Z +∞
Z 1
Z 2
2
3) E(X) =
x f (x) dx =
x dx +
x(−x + 2)dx
−∞
0
1
3 1 2
8
x
x3
2
=
+ − 3 +x
= 1/3 + − + 4 − [−1/3 + 1] = 1
3 0
3
1
Propriétés de l’espérance Soit a, b ∈ R,
X : Ω → R,
Y :Ω→R
38CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS
E(aX + b) = a E(X) + b
E(X + Y ) = E(X) + E(Y )
E(X − Y ) = E(X) − E(Y )
E(X.Y ) = E(X).E(Y ) si X et Y sont indépendantes (définition au chapitre 4)
3.5.3
Variances
• Cas des variables discrètes Soit X une v;a;d telle que
X(Ω) = {xi i ∈ I} et P (X = xi ) = pi .
X
X
V (X) =
pi x2i − E(X)2 =
pi (xi − E(X))2
(analogie avec les v.
i∈I
i∈I
statistiques)
• Cas des variables absolument continues de fonction densité f : R → R
Z +∞
Z +∞
2
V (X) =
(x − E(X)) f (x)dx =
x2 f (x)dx − E(X)2 .
−∞
−∞
Pour toutes les variables aléatoires, on peut définir
V (X) = E[(x − E(X))2 ] = E(X 2 ) − E(X)2 .
définition :
on appelle écart type de X, noté σ(X), la quantité:
σ(X) =
p
V (X)
Exercice 1
Soit X la v.a. discrète définie par
xi
pi
−2 1/8
−1 1/4
0 1/5
1 1/8
2 3/10
sol : E(X) =
Calculer E(X) et V (X)
9
' 0, 225
40
3.5. CARACTÉRISTIQUES D’UNE VARIABLE ALÉATOIRE
83
V (X) =
−
40
9
40
2
39
3239
' 2, 02
1600
=
Exercice 2
Une entreprise de la région estime que la demande concernant l’un des articles qu’elle produit est une v.a. continue X dont la densité de probabilité est
f (x) = 0
x<0
= 3x + 2
x ∈ [0, 1/3[
=x
x ∈ [1/3, 2/3]
= −3x + 3
x ∈ [2/3, 1[
=0
x≥1
1) représentation de f .
2) fonction de répartition de f .
3) P [200 < X < 600].
4) E(X), V (X).
Propriété de la variance
V (aX + b) = a2 V (X)
V (X + Y ) = V (X) + V (Y ) si X et Y sont indépendantes
V (X − Y ) = V (X) + V (Y ) si X et Y sont indépendantes
On verra plus tard la définition mathématique de l’indépendance de 2 v.a.
mais on peut la définir intuitivement. 2 v.a. sont indépendantes si elles n’ont
aucune liaison entre elles.
Ex : on lance 2 dés X : n◦ du 1er dé Y = n◦ du 2e . Elles sont indépendantes.
3.5.4
Moments
Définition
On appelle moments centrés d’ordre k de X: mk = E(X k )
X
• v.a. discrètes mk =
pi xki , si X(Ω) = {xi i ∈ I}
i∈I
Z
+∞
• v.a. continues mk =
−∞
Propriété
xk f (x)dx
40CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS
V (X) = m2 − m21
définition
on appelle moments centrés en E(X) d’ordre k de X: Mk = E(X − E(X))k
(V (X) = M2 )
3.5.5
Médiane et Mode
Définition
Soit X une v.a. On appelle médiane de X, notée Me , le réel (ou l’intervalle)abscisse
1
de l’intersection entre y = et y = F (x).
2
Exemple
0
x<0



0
x>2
f (x) =
x
[0, 1[



2 − x [1, 2[
Z x
Si x < 0, F (x) =
f (t)dt = 0.
−∞
2 x
Z x
t
x2
= .
Si x ∈ [0, 1[, F (x) =
tdt =
2 0
2
0
x
Z x
t2
Si x ∈ [1, 2[, F (x) = 1/2 +
(2 − t)dt = 1/2 + 2t −
= 1/2 + 2x −
2 1
1
x2
x2
− 2 + 1/2 = −1 + 2x − .
2
2
On a Me = 1.
Définition
Soit X une v.a. On appelle mode de X la valeur x0 telle que
(i) si X est discrète P (X = x) ≤ P (X = x0 ) ∀x
(ii) si X est continue f (x) ≤ f (x0 )
∀x
Rmq : une v.a. peut avoir plusieurs modes.
3.5. CARACTÉRISTIQUES D’UNE VARIABLE ALÉATOIRE
3.5.6
41
Fonction d’une variable aléatoire
Soit X une v.a. et Y = ϕ(X),
ϕ étant une fonction de R dans R.
• Cas d’une variable discrète Soit X une v.a.d telle que
X(Ω) = {x1 , . . . , xn },
pi = P (X = xi ).
Y = ϕ(X) est définie sur le même univers Ω et Y (Ω) = {ϕ(x1 ), . . . , ϕ(xn )}
L’évaluation de la distribution Y ne présente pas de difficultés majeures. On
calcule la probabilité des évènements.
P (Y = yk ) = P ({ω ∈ Ω tq Y (ω) = yk }) = P (ω ∈ Ω tq ϕ(X(ω)) = yk )
Par contre on peut calculer E(Y ) et V (Y ) sans la distribution de probabilité
de Y :
E(Y ) =
V (Y ) =
n
X
i=1
n
X
pi ϕ(xi )
fi ϕ2 (xi ) − E(Y )2
i=1
Exemple :
Soit X une v.a. prenant chacune des valeurs 0,1,2,3,4,5 avec la même prob1
abilité
6
Soient Y = 2X + 1 et Z = X 2
1) Calculer E(Y ), V (Y ) puis E(Z), V (Z).
2) Donner la loi de probabilité de Y puis de Z.
sol :
1
1) E(Y ) = [1 + 3 + 5 + 7 + 9 + 11] = 6
6
1
70
35
V (Y ) = [1 + 9 + 25 + 49 + 81 + 121] − 62 =
=
6
6
2
1
55
E(Z) = [1 + 4 + 9 + 16 + 25] =
6
6
1
55
979 552
2849
V (Z) = [1 + 16 + 81 + 256 + 625] − 2 =
− 2 =
= 79, 14
6
6
6
6
36
Valeurs de Y 1 3 5 7 9 11
2)
1 1 1 1 1 1
probas
6 6 6 6 6 6
42CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS
• Cas d’une variable continue
Soit X une v.a.c. de fonction densité f
Soit ϕ une fonction de R dans R telle que Y = ϕ(X) soit également une v.a.c.
Dans les applications rencontrées, on a
Z +∞
E(Y ) =
ϕ(x) f (x)dx
−∞
Z +∞
V (Y ) =
ϕ2 (x) f (x)dx − E(Y )2
−∞
Rmq : si on pose Y = ϕ(X) avec X v.a., Y n’est pas forcément une v.a.
Exemple :
Soit X une v.a. telle que
1/2 sur [−1, 1]
f (x) =
0
ailleurs
2
Soit Y = X
1) Calculer E(Y ) et V (Y )
2) Quelle est la fonction densité de Y ? Retrouver E(Y ) et V (Y ).
sol :
3 1
x
1 1
1
1 2
x dx =
= + =
1) E(Y ) =
6 −1 6 6
3
−1 2
5 1
Z 1
1
1
x
1
1 1
V (Y ) =
x4 dx − 2 =
− = −
2
3
10 −1 9
5 9
−1
Z
1
2) Calculons la fonction de répartition de Y .
G(y) = P (Y ≤ y)
= P (X 2 ≤ y).
Pour y < 0
G(y) = 0.
√
√
Pour y > 0
G(y) = P (− y ≤ X ≤ y)
, avec F la fonction
√
√
= P (X ≤ y) − P (X ≤ − y)
√
√
= F ( y) − F (− y)
de répartition de X.

si x < −1

 0
1+x
on a
F (x) =
si x ∈ [−1, 1] Ainsi,

 2
1
si x > 1
Pour y < 1, G(y) = 0.
3.5. CARACTÉRISTIQUES D’UNE VARIABLE ALÉATOIRE
43
√
Pour y ∈ [0, 1], G(y) = y.
Pour y > 1, G(y) = 0. La fonction densité de Y , g(y) = G0 (y) est donc
Ainsi g(y) = 0 pour y < 0 et y > 1,
1
g(y) = √ pour 0 ≤ y ≤ 1
2 y
√
1/2 y y ∈ [0, 1]
g(y) =
0
sinon
Z
Z 1
1 1
1
1 1 1/2
1 3/2
On a E(Y ) =
y √ dy =
y dy =
4 /3/2 0 = ,
2 y
2 0
2
3
0
Z 1
Z 1
1
1
1
1
y 3/2 dy −
V (Y ) =
42 √ dy − 2 =
2 y
3
2 0
9
0
1 2 5/2 1 1
1 1
= × (4 )0 − = − .
2 5
9
5 9
44CHAPTER 3. VARIABLES ALÉATOIRES ET LOIS DE PROBABILITÉS
Chapter 4
Lois discrètes usuelles
4.1
Introduction
On a un phénomène aléatoire que l’on veut comprendre. Ce phénomène
aléatoire est à priori complexe et on ne peut calculer directement les probabilités de ses éventualités.
ex : comprendre la dépense annuelle des ménages français pour les loisirs;
par exemple, on veut calculer la probabilité qu’ils dépensent 5 000 F par an.
On dispose donc d’une population pour laquelle le modèle est destiné, d’un
individu et d’un caractère étudié (représenté par une variable aléatoire X).
Que fait-on ?
1 - Pour avoir une première idée du phénomène représenté par une variable aléatoire X, on peut faire plusieurs observations de X.
ex : X = dépense annuelle pour les loisirs d’un ménage (variable aléatoire
attachée à un individu). On demande à un certain nombre de ménages ses
dépenses annuelles en loisirs. On a donc la valeur de Xi , Xi étant la dépense
annuelle pour le ménage i.
Cette suite d’observation débouche sur la définition d’une variable statistique
x souvent décrite de la manière suivante :
valeurs de x
xi
fréquences
ni
45
46
CHAPTER 4. LOIS DISCRÈTES USUELLES
On étudie cette variable statistique à l’aide des techniques des statistiques
descriptives (1ere année).
2 - Il y a quelques lois de probabilité ou lois théoriques qui décrivent assez bien un grand nombre de phénomènes aléatoires. On veut représenter le
phénomène aléatoire par une loi de probabilité théorique. Cette modélisation
est évidemment plus riche que la représentation par une variable statistique
: ici on peut calculer la probabilité de tout évènement associé au phénomène
aléatoire. Dans ce chapitre, nous allons fournir un catalogue de lois de probabilité discrètes (description, étude) souvent utiles en pratique.
Le statisticien plus chevroné construira ses propres modèles théoriques.
3 - Après le choix d’un modèle théorique se pose la question suivante : peut-on
quantifier l’approximation du phénomène aléatoire par le modèle théorique.
4.2
Schéma de Bernouilli
Toute épreuve n’ayant que 2 résultats possibles peut-être considérée comme
une situation d’alternative.
En d’autres termes, les 2 résultats possibles sont complémentaires l’un de
l’autre.
Il s’agit d’une situation fréquente dans la pratique dès que l’on cherche à
mettre en évidence un caractère particulier au sein d’une population :
tout individu de cette population peut être décrit selon une alternative : soit
il présente ce caractère, soit il ne le présente pas.
Exemple : Etude de l’impact d’une campagne publicitaire pour un nouveau
produit.
Q1 : Est-ce que l’individu possédait ce produit auparavant ?
Q2 : L’individu a-t-il été touché par la campagne ?
Q3 : La campagne a-t-elle induit l’achat ?
Souvent les résultats possibles sont des objets qualitatifs. Pour les quantifier, il faut leur trouver un codage.
4.3. LE SHÉMA BINOMIAL
47
On définit ainsi une v.a. X dites de Bernouilli (savant suisse 1654-1705) par
0
1
1−p p
Définition
On réalise une expérience aléatoire qui a 2 résultats possibles : le succès S, de probabilité. p,
et l’Echec
E de probabilité. 1 − p. La v.a
1 si succès est une v.a. de Bernouilli
X:
0 si échec
Mode
Si p > q, le mode est1;
sip < q, le mode est0
Médiane
p > q ⇒ q < 1/2 Me = 1
p < q ⇒ q > 1/2 Me = 0
Propriété
E(X) = p
V (X) = p(1 − p)
Remarque :
La v.a. de Bernouilli est une v.a. indicatrice : elle indique la réalisation
éventuelle de l’événement de probabilité p. Le shéma de Bernouilli est le
plus simple des modèles probabilistes.
4.3
Le shéma Binomial
C’est une succession d’épreuves de Bernouilli (n) indépendantes.
Définition :
48
CHAPTER 4. LOIS DISCRÈTES USUELLES
On réalise n fois successivement et d’une manière indépendante une expérience aléatoire
qui a 2 résultats possibles, S (succès) de probabilité p et E (échec) de probabilité 1 − p
X = nombre de succès obtenus est une v.a. binomiale de paramètre n et p.
Notation B(n, p).
Remarque :
On peut également la définir comme une somme de v.a. de Bernouilli.
A chaque épreuve i, on associe la v.a. de Bernouilli Xi
X=
n
X
Xi .
i=1
X ∼ B(n, p)
Loi de probabilité
X(Ω) = {0, . . . , n}
P (X = k) = Cnk pk (1 − p)n−k
∀k ∈ X(Ω)
n : nb d’épreuves,
k : nb de S (succès),
p : probabilité du succès.
Propriétés
E(X) = np
V (X) = np(1 − p)
Propriété
Si X1 ∼ B(n1 , p)
et X2 ∼ B(n2 , p)
indépendantes, alors
X1 + X2 ∼ B(n1 + n2 , p)
Preuve : somme de v.a Benouilli.
Il y a des tables pour éviter de calculer les probabilités d’ événements liés à
la loi binomiale. On peut également, dans certains cas, approximer B(n, p)
par une autre loi.
Exercice :
Une machine à embouteiller peut tomber en panne. La probabilité d’une
panne à chaque emploi est de 0,01. La machine doit être utilisée 100 fois.
4.3. LE SHÉMA BINOMIAL
49
Soit X= nb de pannes obtenues après 100 utilisations.
1) Quelle est la loi de X ?
Calculer P (X = 0), P (X = 1) et P (X ≥ 4).
2) On estime le coût d’une réparation à 500 F. Soit la v.a
Y représentant la dépense pour les réparations après 100 utilisations.
Exprimer Y en fonction de X et calculer E(Y ) V (Y ).
Solution :
0
1) X ∼ B(100, 0, 01) ; P (X = 0) = C100
(0, 01)0 0, 99100 = 0, 366
1
P (X = 1) = C100
0, 01 0, 9999 = 100 × 0, 01 × 0, 9999 = 0, 377
P (X ≥ 4) = 1 − (. . .) = 0, 061
2) Y = 500X
E(Y ) = 500 E(X) = 500 × 100 × 0, 01 = 500
V (Y ) = 5002 V (X) = 5002 0, 99 = 247500
Exercice :
Dans une pépinière 95% des scions (jeunes arbres greffés) sont supposés sans
virus. Par commodité les scions sont rangés par paquets de 2. Un paquet est
dit sain si les 2 scions le sont.
1) Proba d’avoir un paquet sain ?
2) X = nb de paquets sains sur un lot de 10
Quelle est la loi de X ?
3) Un lot de 10 est accepté par l’acheteur si 9 au moins des paquets sont
sains. Proba qu’un lot soit accepté ?
Solution :
1) p = 0, 95 × 0, 95 = 0, 9025
2) X ∼ B(10, p)
3) P (X ≥ 9) = P (X = 9) + P (X = 10)
= 0, 7361
Remarque
Le schéma binomial correspond au processus de tirage d’un échantillon aléatoire
avec remise :
N1 : nb d’individus ayant la propriété S
N2 : nb d’individus n’ayant pas la propriété S
N = N1 + N2 : nb total d’individus
On fait n tirages avec remise
Soit X = nb d’individus ayant la propriété S
50
CHAPTER 4. LOIS DISCRÈTES USUELLES
X ∼ B(n, p) avec p =
N1
N
Propriété
Calcul en chaine des probalités de la loi binomiale:
si X ∼ B(n, p) alors
(n − k + 1)p
P (X = k − 1)
k(1 − p)
n−k+1 p
P (X = k)
=
P (X = k − 1)
k
1−p
P (X = k) =
Preuve :
4.4
Le schéma hypergéométrique
Exemple : En pratique lorsque l’on tire un échantillon de taille n parmi une
population de taille N , le bon sens veut que l’on ne prenne pas 2 fois le
même individu. Cela signifie que le tirage se fait sans remise. Les v.a de
Bernouilli associées aux différents éléments de l’échantillon et indicatrices de
la présence ou absence d’un caractère donné, sont alors dépendantes. Le
schéma binomiale n’est plus adapté.
Le schéma hypergéométrique est une succession d’épreuves de Bernouilli non
indépendantes.
Définition Si dans une population de taille N , on a 2 types de populations:
N1
N1 individus type 1 en proportion p =
N
N2 individus type 2 : N2 .
On fait n tirages sans remise dans la population et la v.a
X = nb individus de type 1 dans l’échantillon.
X obéit au schéma hypergéométrique H(N, n, p)
X
X=
Xi , avec Xi v.a de Bernouilli non indépendantes.
i
Loi de probabilité
4.4. LE SCHÉMA HYPERGÉOMÉTRIQUE
51
Si X ∼ H(N, n, p), alors
Les valeurs de X sont les entiers compris entre 0 et n si
P (X = k) =
CNk 1 × CNn−k
2
.
CNn
n < N2
et
n < N1
(dénombrement classique)
Propriétés
E(X) = np
V (X) = np(1 − p)
N −n
N −1
Théorème :
Quand N → +∞ avec n, p fixes
La loi hypergéométrique H(N, n, p) tend vers la loi binomiale B(n, p)
Que signifie une loi qui tend vers une autre loi ?
d’application)
Dans la pratique, on utilise l’approximation dès que
(cf chap.
condition
n
< 0, 1
N
preuve : en cours magistral.
Exemple 1
A un guichet SNCF se présentent 2 femmes et 3 hommes. On choisit au
hasard 2 personnes 6= pour une enquête.
Soit X = nb de femmes.
a) Probabilité de choisir une femme au moins.
b) Calculer E(X) et σ(X).
2
a) X ∼ H 5, 2,
.
5
C21 C31 C22 C30
7
P (X ≥ 1) = P (X = 1) + P (X = 2) =
+
=
= 0, 7.
2
2
C5
C5
10
3
4
b) E(X) = np = 2 × = = 0, 8,
5
5
N −n
2 3 3
9
V (X) = npq
=2× × × =
= 0, 36,
N −1
5 5 4
25
σ(X) = 0, 6.
52
CHAPTER 4. LOIS DISCRÈTES USUELLES
Exemple 2
On choisit au hasard 10 étudiants de DEUG 6= pour un entretien : 304
étudiants sont inscrits en 1ère année, 233 en 2ème .
X = nb d’étudiants de 1ère année parmi les 10 choisis.
Calculer la probabilité d’avoir 5 étudiants de 1ère année et déterminer E(X)
et σ(X).
304
),
X ∼ H(537, 10,
537
5
5
C C
P (X = 5) = 30410 233 ' 0, 227.
C537
Mais on peut utiliser l’approximation
n
10
304
304
Comme
=
< 0, 1, on peut approximer H 537, 10,
par B 10,
.
N
537
537
537
5 5
304
233
5
' 0, 225.
On a P (X = 5) = C10
537
537
304
E(X) = np = 10 ×
= 5, 661,
537
304 233 527
N −n
= 10 ×
×
×
' 2, 415,
V (X) = npq
N −1
537 537 536
σ(X) = 1, 554.
√
avec l’approximation σ(X) = npq = 1, 567.
4.5
Loi géométrique et loi de Pascal
On se place dans une optique différente.
A la base, il y a toujours l’épreuve de Bernouilli qui a 2 résultats possibles :
un évènement de probabilité p et l’autre. Mais cette fois, on ne connait pas
le nombre d’épreuves.
Définition
X suit la loi géométrique de paramètre G(p), si elle est égale au nombre d’épreuves de
Bernouilli indépendantes qu’il faut réaliser pour obtenir pour la 1ère fois l’évènement de
probabilité p.
Loi de probabilité
X(Ω) = N∗ ,
(l’ensemble des valeurs est ∞ dénombrable)
et
4.5. LOI GÉOMÉTRIQUE ET LOI DE PASCAL
P (X = k) = q k−1 p
53
k ∈ N∗
fonction de répartition
n
n−1
X
X
1 − qn
P (X ≤ n) =
q k−1 p = p
qk = p
= 1 − qn
1
−
q
k=1
k=0
FX (n) = 1 − q n
caractéristiques
1
p
1−p
V (X) =
p2
E(X) =
Définition
La loi de Pascal est la généralisation de la loi géométrique lorsque l’on s’intéresse
à l’obtention pour la k ième fois de l’évènement de probabilité p
Loi de probabilité
X(Ω) = {k, . . . , ∞} et
k−1 k−1 j−k
P (X = j) = Cj−1
p q p
j ≥ k.
Caractéristiques
k
p
k(1 − p)
V (X) =
p2
E(X) =
Remarque : la ressemblance avec la loi binomiale n’est qu’apparente. La
grande différence est que le nombre de répétitions de l’épreuve élémentaire de
Bernouilli n’est pas connu, et c’est lui qui représente l’aléatoire du problème
!
• Application
Ces 2 lois interviennent particulièrement en contrôle de qualité mais aussi
dans la surveillance des événements dont une certaine fréquence de survenue
est interprétée en terme de signal d’alarme.
54
CHAPTER 4. LOIS DISCRÈTES USUELLES
• Remarque de modélisation
La probabilité de l’évènement qui nous intéresse est toujours p, elle est
constante au cours du temps. Cette propriété de stationnarité n’est pas
systématique dans les situations réelles que l’on doit modéliser.
Exemple
Supposons que 5 % des pièces en sortie d’une chaine de production soient
défectueuses. On souhaite connaitre la probabilité qu’un échantillon de 20
pièces issu de cette chaine ne contienne aucune pièce défectueuse.
D’autre part, on recherche la probabilité que la première pièce défectueuse ne
soit pas l’une des 20 premières sorties de la chaine.
- chaque pièce est indentifiée par un caractère à 2 modalités :
Elle est soit défectueuse (succès), soit non défectueuse (echec).
La modélisation de base est donc le schéma de Bernouilli avec p = 0, 05. On
peut faire l’hypothèse de l’indépendance des épreuves de Bernouilli (grande
taille de la population). Soit X la v.a représentant le nb de défectueuses
après la réalisation de 20 épreuves de Bernouilli. On a
X ∼ B(20, 0, 05)
P (X = 0) = 0, 9520 = 0, 3585.
- On garde la modélisation des pièces par les aléas de Bernouilli. On fait
l’hypothèse d’indépendance (gd nb de pièces). Mais le nombre de pièces
n’est plus donné : c’est un aléa.
Y = nombre de pièces observées jusqu’à l’obtention d’une défectueuse, on a
Y ∼ G(0, 05)
∞
∞
X
k−1
20 1 − 0, 95
0, 95 0, 05 = 0, 95
P (Y ≥ 21) =
× 0, 05
1 − 0, 95
k=21
0, 05
= 0, 9520
= 0, 3585.
0, 05
Si on s’était intéressé au nombre de pièces à examiner pour en avoir 2
défectueuses, on aurait utilisé une loi de Pascal.
4.6. LOI DE POISSON
4.6
55
Loi de Poisson
Siméon-Denis Poisson(1781-1840)est un probabiliste, mathématicien et physicien français à qui l’on doit d’importants développements sur la loi des grands
nombres, les suites d’épreuves de Bernouilli mais aussi sur les applications
des probabilités dans le domaine du droit.
Soit X une variable binomiale B(n, p).
On va supposer que p ≈ 0 et que n → +∞ de manière à ce que np → m
Quel modèle va suivre cette variable aléatoire ?
P (X = k) = Cnk pk (1 − p)n−k . On montrera en CM que
mk −m
e .
P (X = k) −→
n→+∞ k!
np→m
définition
X est une v.a. de Poisson de paramètre m si et seulement si
X(Ω) = N, et
mk −m
P (X = k) =
e .
k!
Notation : P(m)
On est dans la situation o`‘u X(Ω) est infini dénombrable.
On peut maintenant poser la loi de Poisson comme modèle d’une épreuve
aléatoire :
Théorème d’approximation
Soit X ∼ B(n, p)
quand n → +∞ tq np → m
p→0
L
Alors X → P(m)
Modélisation
Lorsqu’un évènement a une faible probabilité p d’apparition lors d’une épreuve
de Bernouilli et si l’on répète un grand nombre de fois cette épreuve (n) le
nombre total de réalisations de l’évènement considéré suit à peu près une loi
de Poisson de paramètre m = np
Dans la pratique :
n > 50
p < 0, 1
56
CHAPTER 4. LOIS DISCRÈTES USUELLES
Rmq : plus p est petit, meilleure est l’approximation. Pour cette raison
la loi de Poisson a été appelée loi des phénomènes rares
Les processus de Poisson sont fréquents dans les problèmes de gestion :
- nb de pièces défectueuses dans un échantillon de grande taille prélevé dans
une production où la proportion des défectueuses est faible.
- nb de quadruplés, quintuplés par an dans un pays donné
- nb d’appels intercontinentaux sur une ligne pendant une durée donnée.
- nb d’erreurs commises au cours d’une longue suite d’opérations (inventaire)
- pannes de machine
- émission de particules radio-actives
caractéristiques Si X ∼ P(m)
Alors
E(X) = m
V (X) = m
Il faut savoir que
X mk
k≥0
k!
= em
X mk−1
mk −m
E(X) =
k
e = e−m m
=m
k!
(k
−
1)!
K≥0
K≥1
k
X
X
X mk
m
mk
V (X) =
k2
e−m − m2 =
k(k − 1) e−m +
k
e−m − m2
k!
k!
k!
K≥0
K≥1
K≥1
X mk−2
X mk−1
= m2
e−m + m
e−m − m2
(k
−
2)!
(k
−
1)!
K≥2
K≥1
X
=m
Propriété : somme de v.a de Poisson
Si X1 et X2 sont 2 variables de poisson P(m1 ), P(m2 ) indépendantes alors
X1 + X2 ∼ P(m1 + m2 )
(ceci est vrai pour une somme finie quelconque de v.a de Poisson indépendantes)
Preuve :
4.6. LOI DE POISSON
57
"
P (Y = k) = P (X1 + X2 = k) = P
k
[
#
X1 = i ∩ X2 = k − i
i=0
=
=
k
X
i=0
K
X
i=0
=
K
X
i=0
P (X1 = i).P (X2 = k − i)
mi1 −m1 mk−i
2
e
e−m2
i!
(k − i)!
Cki mi1 mk−i
2
e−(m1 +m2 )
k!
(m1 + m2 )k −(m1 +m2 )
=
e
k!
.
Propriété
Si X ∼ P(m), alors
m
P (X = k)
= .
P (X = k − 1)
k
Conséquence : les probabilités % tant que k ≤ m puis &
ont une valeur maximale P (X = m) et alors
pour k ≥ m et
P (X = m) = P (X = m − 1).
Conséquence statistique
On peut envisager une loi de Poisson comme modèle représentatif de données statistiques
discrètes pour lesquelles la variable ne prend que des valeurs entières, positives ou nulles et pour lesquelles
- la moyenne ' la variance et
fk
1
est proportionnel à
fk étant les fréquences
fk−1
k
Exemple 1
Lors d’un sondage portant sur un grand nombre de personnes, on sait que 2%
des personnes interrogées acceptent de ne pas rester anonymes. Sachant que
l’un des sondeurs a interrogé 250 personnes (en les choisissant de manière
indépendante), calculer la probabilité
a) que ces 250 personnes souhaitent rester anonymes
b) 3 personnes acceptent de ne pas rester anonymes
c) plus de 10 personnes acceptent de ne pas rester anonymes
58
CHAPTER 4. LOIS DISCRÈTES USUELLES
X = nb de personnes ne souhaitant pas rester anonymes.
X ∼ B(250, 0, 02) h P(5)
0
P (X = 0) = e−5 50! = e−5 = 0, 0067
3
P (X = 3) = e−5 53! = 0, 14
P (X ≥ 10) = 1 − P (X < 10) = 1 − P (X ≤ 9)
Exemple 2
Dans un hôpital parisien, il arrive en moyenne 1,25 personnes à la minute
aux urgences entre 9 h et 12 h.
X : nb de personnes observées à la minute à l’entrée de ce service.
On admet X ∼ P(m) avec m = 1, 25
Déterminer les probabilités suivantes
a) En 1mn il arrive 2 personnes b) 4 personnes au plus c) 3 personnes au
moins.
a) P (X = 2) = 0, 2238
b) P (X ≤ 4) = 0, 9909
c) P (X ≥ 3) = 1 − P (X ≤ 2)
= 1 − 0, 8685
= 0, 1315.
Téléchargement