Chapitre 2: Les généralités du calcul des probabilités.

publicité
Chapitre 2:
Les généralités du calcul des probabilités.
∗
1
Introduction
Le modèle du chapitre un (univers fini) n’est pas suffisant. Ainsi
par exemple, dans l’expérience aléatoire "jouer à pile où face jusqu’à
ce qu’il sorte pile pour la première fois", on est amené à considérer un
univers d’éventualités infini dénombrable :
Ω = {(π), (f π), (f f π), (f f f π), . . . , (f f . . . f π), . . .}
(n − 1 lettres f suivies d’une lettre π représente l’éventualité "pile est
sortie pour la première fois au n-ième coup").
Si on observe une particule en suspension dans un liquide, sa position à un instant donné peut être un point quelconque du liquide.
L’ensemble des éventualités est ici infini non dénombrable.
Quand Ω est infini non dénombrable on ne peut plus en général
considérer que tous les éléments de P(Ω) sont des événements (ceci
pour des raisons mathématiques qui dépassent le cadre de ce cours).
Dans ce cas l’ensemble des événements est seulement une partie F de
P(Ω) vérifiant certaines conditions naturelles et bien entendu seuls les
éléments A ∈ F seront probabilisés.
2
Notion d’espace probabilisé
Soit Ω un univers (quelconque1 ) d’éventualités et P(Ω) l’ensemble
de tous les sous-ensembles de Ω.
Définition 2.1 : On appelle tribu sur Ω toute partie F de P(Ω) vérifiant les propriétés suivantes :
1) Ω ∈ F.
2) A ∈ F ⇒ Ā ∈ F.
3) Pour toute suite (An )n≥0 d’éléments de F, ∪∞
n=0 An ∈ F.
(Autrement dit Ω ∈ F et F est stable par passage au complémentaire et
par réunions dénombrables)
∗
Notes du cours de Probabilités de M1 de M. L. Gallardo, Université de Tours,
année 2008-2009. Les démonstrations sont détaillées dans le cours oral.
1
fini ou infini.
1
Exercice 2.2 : Soit F est une tribu sur Ω.
1) Montrer que F est stable par intersections dénombrables (utiliser les
propriétés 2) et 3) de la définition 2.1).
2) Montrer que F est stable par intersections et réunions finies.
Exemple 2.3 : 1) L’ensemble P[Ω) de toutes les parties de Ω est une
tribu.
2) L’ensemble {Ω, ∅} est une tribu appelée tribu triviale (car c’est la
plus petite tribu de Ω).
3) Soit (Ai )i∈I une partition finie ou dénombrable2 de Ω. L’ensemble F
de toutes les parties de Ω qui sont des réunions finies ou dénombrables
de certains Ai 3 , est une tribu appelée tribu engendrée par la partition
(Ai )i∈I .
Définition 2.4 : On appelle espace probabilisé (ou univers probabilisé) tout triplet (Ω, F, P) où
1) Ω est un ensemble (univers d’éventualités).
2) F est une tribu sur Ω (ensemble des événements).
3) P est une probabilité (ou mesure de probabilité) sur F i.e. une application P : F → [0, 1] vérifiant les propriétés suivantes :
i) P(Ω) = 1.
P∞
ii) P(∪∞
n=0 An ) =
n=0 P(An ) pour toute suite (An ) d’événements
deux à deux incompatibles4 (propriété de sigma-additivité5 ).
Pour tout A ∈ F, le nombre P(A) est la probabilité de l’événement A.
La théorie des probabilités telle qu’on va la développer dans la suite du
cours s’applique aux expériences aléatoires qui peuvent être modélisées
par un espace probabilisé.
Exercice 2.5 : 1) Montrer que P(∅) = 0.
2) Montrer que la propriété de sigma-additivité de P implique la propriété d’additivité de P (i.e. pour suite finie
PNA1 , . . . , AN d’événements
deux à deux incompatibles, P(∪N
A
)
=
n=1 n
n=1 P(An ).
3) En déduire que pour tous événements A et B, P(Ā) = 1 − P(A) et
que si A ⊂ B, P(A) ≤ P(B).
Remarque 2.6 : Si Ω = {ω1 , ω2 , . . .} est dénombrable, on peut toujours supposer que P(Ω) est la tribu des événements donc toutes les
éventualités ω ∈ Ω sont des événements6 . Si on connait la distribution
de probabilité : p1 = P(ω1 ), p2 = P(ω2 ),. . . alors on connait la probabilité de n’importe quel événement car tout événement A est réunion
(finie ou dénombrable) de ses éventualités c’est à dire A = ∪i∈J {ωi }
où J est fini ou dénombrable
; la propriété de sigma-additivité implique
P
alors que P(A) = i∈J pi .
2
i.e. l’ensemble I des indices est fini ou dénombrable.
i.e. E ∈ F s’il est de la forme E = ∪j∈J Aj où J ⊂ I et en convenant que si
J = ∅, ∪j∈∅ Aj = ∅.
4
i.e. Ai ∩ Aj = ∅ pour tous i 6= j.
P∞
5
On notera que cette propriété impose que par définition la série n=0 P(An )
est convergente si les An sont deux à deux incompatibles.
6
en toute rigueur ce sont les singletons {ω} qui sont des événements.
3
2
On notera cependant qu’il n’est plus possible de parler de probabilité
équidistribuée sur Ω.
Proposition 2.7 (Propriété de continuité d’une probabilité)
1) Soit (An )n≥0 une suite croissante d’événements (i.e. An ⊂ An+1 pour
tout entier n) et A = ∪n≥0 An . Alors P(A) = limn→+∞ P(An ).
2) Soit (Bn )n≥0 une suite décroissante d’événements (i.e. Bn+1 ⊂ Bn
pour tout entier n) et B = ∩n≥0 Bn . Alors P(B) = limn→+∞ P(Bn ).
(Pour résumer on dit que la probabilité est continue par limite monotone
d’événements).
démonstration : 1) La suite P(An ) est croissante est majorée donc
elle converge. Il faut montrer que la limite est P(A). Or on a
P(An ) = P(A0 ) + P(A1 \ A0 ) + · · · + P(An \ An−1 ) =
n
X
P(Ck ),
k=0
où C0 = A0 , C1 = A1 \ A0 , . . . , Cn = An \ An−1 , . . . sont des événements
incompatibles. Par sigma-additivité de P, on a P(∪+∞
i=0 Ci ) =
P+∞
+∞
+∞
P(C
).
Or
∪
C
=
∪
A
(facile
à
vérifier
par
double
inclui
i
n=0 n
i=0
i=0
P+∞
sion) donc la série i=0 P(Ci ) converge et a pour somme P(A). Mais
P(An ) est justement la somme partielle d’ordre n de cette série, d’où
limn→∞ P(An ) = P(A).
2) Par dualité, la suite B̄n est croissante et d’après le 1), on a P(∪n B̄n ) =
limn→∞ P(B̄n ). Or ∪n B̄n = ∩n Bn , d’où
1 − P(∩n Bn ) = P(∩n Bn ) = lim P(B̄n ) = lim (1 − P(Bn )),
n→∞
n→∞
ce qui implique limn→∞ P(Bn ) = P(B).
3
Notions de probabilité conditionnelle
3.1
Introduction
Considérons une expérience aléatoire schématisée par un espace probabilisé (Ω, F, P). Supposons que l’expérience n’étant pas terminée (ou
si elle est terminée, on en ignore le résultat), on obtienne une "information" B (B ∈ F) sur ce que sera son résultat. La probabilité P doit
être remise en question. On doit considérer une nouvelle probabilité PB
qui tienne compte du fait nouveau. On l’appelle la probabilité conditionnelle sachant B.
Exemple 3.1 : Soit E un ensemble de N objets et A ⊂ E. Tirons au
hasard un élément a dans E. A priori la probabilité que a appartienne
CardA
à A est P(A) = CardE
. Supposons que l’on apprenne que a ∈ B où B
est un certain sous-ensemble de E. Il est alors évident que pour tenir
compte de l’information, la probabilité que a appartienne à A doit être
remplacée par
PB (A) =
Card(A ∩ B)
Card(A ∩ B)/Card(E)
P(A ∩ B)
=
=
.
Card(B)
Card(B)/Card(E)
P(B)
On va généraliser cette situation.
3
3.2
Généralités sur la probabilité conditionnelle
Soit (Ω, F, P) un espace probabilisé et soit B ∈ F un événement tel
que P(B) > 0.
Définition 3.2 : Pour tout A ∈ F le nombre PB (A) (ou P(A|B))
donné par
PB (A) =
(1)
P(A ∩ B)
P(B)
est appelé probabilité conditionnelle de A sachant B.
Proposition 3.3 : PB est une probabilité sur F (i.e. PB possède les
propriétés 3), i) et ii) données dans la définition 2.4).
P(Ω∩B)
= P(B)
= 1.
P(B)
P(B)
P
∞
P(A ∩B)
P(∪∞
n=0 An ∩B)
= n=0P(B)n
=
P(B)
démonstration : i) PB (Ω) =
P∞
ii) PB (∪∞
n=0 An ) =
n=0 PB (An ) pour
toute suite d’événements deux à deux incompatibles.
L’un des résultats élémentaires les plus utiles est le suivant :
Proposition 3.4 (Formule de l’intersection) : Soient A1 , A2 , . . . , Ak
des événements tels que P(A1 ∩ A2 ∩ . . . ∩ Ak−1 ) > 0. Alors
(2) P(A1 ∩ A2 ∩ . . . ∩ Ak ) =
P(A1 )P(A2 |A1 )P(A3 |A1 ∩ A2 ) . . . P(Ak |A1 ∩ . . . ∩ Ak−1 ).
démonstration : On a
P(A1 )P(A2 |A1 )P(A3 |A1 ∩ A2 ) . . . P(Ak |A1 ∩ . . . ∩ Ak−1 ) =
P(A2 ∩ A1 ) P(A3 ∩ A1 ∩ A2 ) P(A4 ∩ A1 ∩ A2 ∩ A3 )
× ...
P(A1 )
P(A1 )
P(A1 ∩ A2 )
P(A1 ∩ A2 ∩ A3 )
P(Ak ∩ A1 ∩ . . . ∩ Ak−1 )
×
.
P(A1 ∩ . . . ∩ Ak−1 )
Comme le numérateur d’un terme se simplifie avec le dénominateur du
terme suivant, il ne reste finalement que P(A1 ∩ A2 ∩ . . . ∩ Ak ).
Exercice 3.5 : Une personne dispose de N clés (d’aspect identique) et
veut ouvrir sa porte dans l’obscurité. Elle essaye les clés les unes après
les autres, en les mettant de côté après essai. Quelle est la probabilité
que la porte s’ouvre à la k-ième tentative (1 ≤ k ≤ N ) ?
solution : Considérons les événements Ai ="le i-ème essai est un échec"
(i = 1, 2, . . . , k −1) et Ak ="le k-ième essai est le bon". Comme Ak ⊂ Ai
(si i < k), par la formule de l’intersection, on a
P(Ak ) = P(A1 ∩ A2 ∩ . . . ∩ Ak−1 ∩ Ak ) =
N −1N −2
N −k+1
1
1
...
= .
N N −1
N −k+2N −k+1
N
4
Remarque 3.6 : Comme on le constate dans l’exercice précédent, la
formule de l’intersection permet de calculer des probabilités sans avoir
à faire référence explicitement à l’espace (Ω, F, P) qui modélise l’expérience aléatoire et qui peut dans certains cas être assez compliqué. C’est
l’un des principaux avantages de cette formule.
Définition 3.7 : Soit (Ai ) une suite (finie ou infinie dénombrable)
d’événements de F. On dit que les Ai forment un système complet
d’événements si en tant qu’ensembles ils forment une partition de Ω et
s’ils sont tous de probabilité non nulle. Autrement dit
1) Les Ai sont deux à deux incompatibles.
2) ∪i Ai = Ω.
3) ∀i, P(Ai ) > 0.
Théorème 3.8 (formule de la probabilité totale) : Soit (Ai ) un
système complet d’événements et soit A ∈ F. Alors
X
(3)
P(A) =
P(A|Ai )P(Ai ).
i
(somme finie si le système (Ai ) est fini et série convergente si le système
est dénombrable).
démonstration : En notant que les événements A ∩ Ai sont deux à
deux incompatibles, on a
P(A) = P(A ∩ Ω) = P(A ∩ (∪i Ai )) = P(∪i (A ∩ Ai ))
X
X
=
P(A ∩ Ai ) =
P(A|Ai )P(Ai ).
i
i
Corollaire 3.9 (formule de Bayes) : Soit (Ai ) est un système complet et A un événement de probabilité non nulle. Supposons connus les
nombres P(A|Ai ) et les nombres P(Ai ). Alors pour tout i
(4)
P(A|Ai )P(Ai )
P(Ai |A) = P
j P(A|Aj )P(Aj )
(où la somme du dénominateur est étendue à tous les indices j et est
une somme finie ou une série convergente suivant que le système (Ai )
est fini ou dénombrable).
i ∩A)
i )P(Ai )
démonstration : P(Ai |A) = P(A
= PP(A|A
où on a utilisé la
P(A)
j P(A|Aj )P(Aj )
formule de la probabilité totale pour exprimer le dénominateur.
Remarque 3.10 : On a aucun intérêt à apprendre par coeur la formule
(4). Il vaut mieux savoir la redémontrer quand on en a besoin.
Remarque 3.11 (Note heuristique) : La formule de Bayes s’appelle
aussi "formule de probabilité des causes" pour la raison suivante. Appelons "causes" les événements Ai . Sachant que A est réalisé, P (Ai |A)
est la probabilité que ce soit la cause Ai qui en soit responsable.
5
Exemple 3.12 : Quatre usines fabriquent des lampes. L’usine n˚i
(1 ≤ i ≤ 4) produit 100pi % de la production totale des 4 usines et
il y a 100di % de déchet dans sa production. Etant donné une lampe
défectueuse tirée au hasard, la probabilité qu’elle provienne de l’usine
n˚i est (d’après la formule de Bayes) égale à
di pi
.
d1 p1 + d2 p2 + d3 p3 + d4 p4
Remarquer qu’on peut résoudre facilement cet exercice par des calculs de pourcentage et qu’on n’a pas réellement besoin de la formule
de Bayes. Cependant la notion de probabilité conditionnelle, par sa
généralité, permet de résoudre de la même façon tout un éventail de
questions formellement identiques à l’exemple précédent.
4
4.1
Événements indépendants
Introduction et définitions
Soient A et B deux événements (de probabilité non nulle). Si P(A|B) =
P(A) cela signifie concrètement que la réalisation de l’événement B ne
modifie pas les chances de réalisation de A c’est à dire que B n’influe
pas sur A. Dans ce cas on a P(A ∩ B) = P(A)P(B) et on voit qu’on
a aussi P(B|A) = P(B) donc A n’influe pas sur B et la non infuence
est donc réciproque. Si maintenant l’un des événements A ou B est de
probabilité nulle, il est intuitivement clair qu’il n’influe pas sur l’autre.
Pour tenir compte de ce fait on préfère définir l’indépendance entre
deux événements de la manière suivante
Définition 4.1 : Les événements A et B sont dits indépendants si
P(A ∩ B) = P(A)P(B).
Plus généralement on peut définir l’indépendance d’un nombre fini
d’événements ou de tribus
Définition 4.2 : 1) Les événements A1 , . . . , An sont dits indépendants (dans leur ensemble) si
(5)
P(∩ni=1 Ai )
=
n
Y
P(Ai ).
i=1
2) Les tribus F1 , . . . , Fn sont indépendantes si
(6)
∀i = 1, . . . , n, ∀Ai ∈ Fi , A1 , A2 , . . . , An sont indépendants.
Remarque 4.3 : Attention la notion d’indépendance est délicate ; elle
est relative à la probabilité P considérée. De plus des événements peuvent
être deux à deux indépendants sans être indépendants dans leur ensemble (voir les exercices). Heureusement dans la pratique on a rarement besoin de démontrer que des événements sont indépendants.
Cela sera toujours évident dans la plupart des expériences aléatoires
qu’on considère dans la pratique élémentaire. On va donc examiner
dans quelles situations courantes on peut postuler l’indépendance. Ceci
fera l’objet du prochain paragraphe.
6
4.2
4.2.1
Expériences aléatoires indépendantes
Considérations heuristiques
On dit généralement que deux expériences aléatoires sont indépendantes quand il n’y a aucun lien de causalité entre elles. Par exemple
1) On lance un dé (expérience E1 ) puis on lance un pièce (expérience
E2 ). Il est clair que les expériences E1 et E2 sont indépendantes car il
n’y a aucune raison pour que le résultat de E1 influe d’une façon ou
d’une autre sur celui de E2 et inversement.
2) On lance un dé (expérience E1 ) puis on relance le dé une deuxième
fois dans les mêmes conditions (expérience E2 ). Ici aussi E1 et E2 sont
indépendantes.
Soient donc E1 et E2 des expériences aléatoires indépendantes, A1
un événement relatif à E1 et A2 un événement relatif à E2 . On est en
droit de postuler l’indépendance des événements A1 et A2 . Plus généralement, quand n événements A1 , . . . , An sont relatifs respectivement à
des expériences aléatoires indépendantes E1 , . . . , En , on postulera l’indépendance de ces événement et le fait qu’on a P(A1 ∩ . . . ∩ An ) =
P(A1 ) . . . P(An ). Mais un problème mathématique subsiste : de quel espace probabilisé (Ω, F, P) les Ai sont-ils des événements et quelle est la
probabilité P ? Nous examinerons cette question ci-dessous.
Exemple 4.4 : On lance un dé deux fois de suite. Quelle est la probabilité d’obtenir deux fois un nombre pair ? Intuitivement, on procède
comme suit : Soit Ai (i = 1, 2) l’événement "obtenir pair au i-ème
coup". comme les événements sont implicitement indépendants, on a
P(A1 ∩ A2 ) = P(A1 )P(A2 ) = 21 × 12 = 41 .
4.2.2
Produit fini d’espaces probabilisés
Soient (Ωi , Fi , Pi ) (1 ≤ i ≤ n) des espaces probabilisés. Considérons
le produit cartésien
Ω = Ω 1 × · · · × Ωn .
Les sous-ensembles de Ω de la forme A1 × · · · × An où pour tout i =
1, . . . , n, Ai ∈ Fi , s’appellent pavés mesurables de Ω. La tribu F sur
Ω engendrée7 par les pavés mesurables s’appelle la tribu produit des
tribus Fi et on la note
F = Fi ⊗ · · · ⊗ Fn
Théorème 4.5 (probabilité produit) : Il existe une unique mesure de
probabilité P sur la tribu produit F telle que pour tout pavé mesurable
A = A1 × · · · × An ,
(7)
P(A) =
n
Y
P(Ai ).
i=1
Cette probabilité s’appelle la probabilité produit des probabilités Pi et
on la note P = P1 ⊗ · · · ⊗ Pn .
7
i.e. la plus petite tribu de parties de Ω contenant les pavés qui existe puisque
c’est l’intersection de toutes les tribus de Ω qui contiennent les pavés.
7
démonstration : C’est un résultat connu de théorie de la mesure (voir
un livre sur l’intégration).
Définition 4.6 : L’espace (Ω, F, P) où Ω = Ω1 × · · · × Ωn , F = F1 ⊗
· · · ⊗ Fn et P = P1 ⊗ · · · ⊗ Pn , s’appelle l’espace probabilisé produit
des espaces probabilisés (Ωi , Fi , Pi ) (1 ≤ i ≤ n).
La notion d’espace produit permet de modéliser correctement la notion
d’expériences aléatoires indépendantes considérée dans le paragraphe
4.2.1. Considérons des expériences aléatoires Ei (1 ≤ i ≤ n) indépendantes au sens de 4.2.1 et supposons que Ei est modélisée par un espace
probabilisé (Ωi , Fi , Pi ) et soit E l’expérience aléatoire E1 puis E2 puis
etc.. En consistant en la succession des diverses expériences indépendantes Ei .
Définition 4.7 : On modélise l’expérience E par l’espace probabilisé
produit (Ω, F, P) des espaces probabilisés (Ωi , Fi , Pi ).
Remarque 4.8 : Avec les notations précédentes, soit Ai ∈ Fi un événement relatif à la i-ème expérience. Il s’identifie naturellement à l’événement
Ãi = Ω1 × · · · × Ωi−1 × Ai × Ωi−1 . . . × Ωn
de la tribu produit F. Ces événements sont indépendants dans l’espace
produit puisqu’il est trivial de vérifier qu’on a
P(Ã1 ∩ Ã2 ∩ . . . ∩ Ãn ) =
n
Y
P(Ãi ),
i=1
ce qui répond à la question posée à la fin du paragraphe 4.2.1.
Exemple 4.9 (les tirages avec remise) : L’expérience aléatoire tirer
au hasard n fois avec remise un élément dans un ensemble fini E est
modélisée par l’espace produit (Ω, F, P) où Ω = E n = E × E × · · · × E
(n fois), P = U ⊗n = U ⊗· · ·⊗U (n fois) où U est la probabilité uniforme
sur E et F = P(E n ) la tribu de toutes les parties de E n (c’est, dans ce
cas, la tribu produit P(E)⊗n ).
Exercice 4.10 : Une urne contient N boules dont NB blanches et NR
rouges (N = NB + NR ). On fait n(≥ 1) tirages avec remise dans l’urne.
Montrer que la probabilité d’avoir tiré k boules rouges (0 ≤ k ≤ n) est
n−k
.
égale à Cnk NNR 1 − NNR
solution : Posons p = NNR (donc NNR = 1 − p). A chaque tirage il
y a deux éventualités : R (boule rouge) et B (boule blanche) avec
P (R) = p et P (B) = 1 − p ce qui définit une distribution de probabilité donc une probabilité P sur l’ensemble a deux éléments Ω =
{B, R}. Faire n tirages avec remise revient à considérer l’espace produit Ωn = {(x1 , x2 , . . . , xn ); ∀i, xi = B ou R} muni de la probabilité
produit P = P ⊗n . L’événement Ak ="on tire k boules rouges" est composé des éventualités ω = (x1 , x2 , . . . , xn ) telles que parmi les xi il y a
k fois la lettre R (et donc n − k lettres B). Il y a donc Cnk éventualités
8
(nombre de façons de disposer k boules rouges à n places numérotées).
Chacune de ces éventualités a pour probabilité pk (1 − p)n−k (car les
tirages sont indépendants). D’où P(Ak ) = Cnk pk (1 − p)n−k . On remarquera que les événements Ak (0 ≤ k ≤ n) forment un système complet
d’événements. D’ailleurs on peut vérifier directement que
n
X
k=0
4.2.3
P(Ak ) =
n
X
Cnk pk (1 − p)n−k = (p + 1 − p)n = 1.
k=0
Exemple de produit infini d’espaces probabilisés
Il n’est pas possible de généraliser la notion d’espace probabilisé produit du paragraphe 4.2.2 à une infinité dénombrable (Ωi , Fi , Pi ) (i ∈ N)
d’espaces probabilisés quelconques. On peut toujours généraliser la notion de tribu produit mais c’est la mesure produit qui pose problème si
on ne fait pas certaines hypothèses sur la structure des espaces Ωi et des
tribus Fi . Ceci nécessiterait de développer des notions qui dépassent le
cadre de ce cours aussi nous allons seulement considérer un cas particulier très important dans la pratique où il n’y a pas de difficulté :
Soit E un ensemble fini, P(E) la tribu de toutes les parties de E et
P une probabilité sur P(E), le triplet (E, P(E), P ) modélisant une expérience aléatoire E à un nombre fini d’éventualités. Considérons le
produit cartésien
Ω = E × E × ··· × E × ··· =
+∞
Y
E
i=1
d’une infinité dénombrable de copies de l’ensemble E. Ω est l’ensemble
des suites infinies (x1 , x2 , . . . , xn , . . .) avec xi ∈ E pour tout i ≥ 1. On
appelle ensembles cylindriques ou plus
Q simplement cylindres les
sous-ensembles de Ω de la forme C = +∞
i=1 Ai , tels que Ai ⊂ E et
Ai = E pour tout i assez grand, c’est à dire tels qu’il existe un entier
KC (qui varie avec C) tel que
(8) C = A1 × · · · × AKC × E × E × · · · = A1 × · · · × AKC ×
+∞
Y
E.
i=KC +1
Définition 4.11 : On appelle tribu produit la tribu sur Ω engendrée
par les cylindres. On la notera F.
Remarque 4.12 : On ne se préoccupera pas de savoir quelle est la
structure exacte de cette tribu pour l’instant. Il suffit de savoir qu’elle
existe.
Théorème 4.13 : Il existe une unique probabilité P sur la tribu produit
F telle que pour tout cylindre (de la forme (8)), on ait
P(C) =
KC
Y
i=1
9
P (Ai ).
démonstration : Résultat admis.
Remarque 4.14 : Comme dans la remarque 4.8, on voit que des événements relatifs à des coordonnées différentes, sont des événements indépendants pour la probabilité P.
Répétition d’une infinité d’expériences indépendantes
Définition 4.15 : L’expérience aléatoire consistant en une infinité de
répétitions indépendantes de l’expérience aléatoire E représentée par
(E, P(E), P ), est modélisée par définition par l’espace produit (Ω, F, P)
défini ci-dessus.
Exercice 4.16 (temps d’attente du premier succès) : On considère une
expérience aléatoire à deux issues : S(=succès) et E(=échec), avec
P (S) = p (donc P (E) = 1 − p). On répète de manière indépendante
l’expérience aléatoire jusqu’au premier succès. Quelle est la probabilité
d’obtenir le premier succès à la k-ième tentative (k ≥ 1) ?
solution : On cherche la probabilité de l’événement
Ak = E1 ∩ E2 ∩ . . . ∩ Ek−1 ∩ Sk ,
où Ei ="échec à la i-ème tentative, (i = 1, . . . , k − 1) et Sk ="succès à la
k-ième tentative". Comme les événements Ei et Sk sont indépendants
(d’après la remarque 4.14), on a P(Ak ) = (1 − p)k−1 p.
Exercice 4.17 (suite du précédent) : Quelle est la probabilité que le
succès n’arrive jamais ?
solutionP: l’événement A="succès arrive"=∪+∞
k=1 Ak a pour probabilité
P(A
)
car
le
A
sont
deux
à
deux
incompatibles. Donc
P(A) = +∞
k
k
Pk=1
+∞
1
= 1. Donc la probabilité de ne
P(A) = p k=1 (1 − p)k−1 = p 1−(1−p)
jamais avoir de succès est P(Ā) = 1 − P(A) = 0.
Exercice 4.18 : On procède à une suite illimitée de tirages avec remise
dans l’ensemble des nombres {0, 1, . . . , 9} des nombres de 0 à 9. À un
certain moment, on a tiré le nombre 4. Quelle est la probabilité que le
prochain nombre tiré différent de 4 soit le nombre 7 ?
solution : Examinons les différents cas possibles aboutissant à l’événement désiré A : On peut avoir A1 = (7) (i.e. 7 dès le tirage suivant)
ou A2 = (47) (i.e. 7 au 2-ième tirage, le premier étant encore le 4) ou
ou An = (4 . . . 47) (i.e. 7 au n-ième tirage, les n − 1 premiers premiers
étant encore des 4) etc. On a A = ∪+∞
n et comme les An sont deux
n=1 A
1 n
à deux incompatibles et que P(An ) = 10 ,
n
+∞ X
1
1
= .
P(A) =
10
9
n=1
Note à l’attention des lecteurs : Merci de me signaler les coquilles
ou erreurs que vous auriez pu remarquer dans ce fichier. Votre attention
permettra d’améliorer la prochaine version de ces notes de cours.
10
Téléchargement