Chapitre 10 : Conditionnement et indépendance.

publicité
ECS3 Carnot
Chapitre 10
2013/2014
Chapitre 10 : Conditionnement et
indépendance.
Dans ce chapitre, nous allons donner un sens mathématique au mot « indépendance ».
Nous pourrons alors modéliser les répétitions indépendantes d’expériences aléatoires, comme
le jeu de pile ou face.
Attention : nous ne reviendrons pas en détail sur ce chapitre lorsque nous traiterons
les espaces probabilisés infinis. Les énoncés de ce chapitre sont donc, sauf mention contraire,
valable lorsque l’univers Ω est quelconque.
1
Définitions
1.1
Probabilité conditionnelle
Théorème 1.1.1
Soit (Ω, A, P ) un espace probabilisé, et A ∈ A tel que P (A) > 0. L’application

 A −→ [0, 1]
P (E ∩ A)
PA :
 E 7−→
P (A)
est une probabilité sur (Ω, A, P ) appelée probabilité conditionnelle relative à A.
Pour tout évènement B, PA (B) (ou P (B|A)) est la probabilité de B sachant A.
P (Ω ∩ A)
= 1 et si (Ei )i∈I est une famille (finie) d’évèP (A)
nements deux à deux incompatibles, alors (Ei ∩ A)i est une famille (finie) deux à deux
P
S
P
S
PA (Ei ).
P (Ei ∩ A). Ainsi PA ( i Ei ) =
incompatibles et P ( i (Ei ∩ A)) =
Démonstration : On a PA (Ω) =
i∈I
i∈I
Remarque. Dans le cadre des espaces probabilisés infinis, le théorème est analogue, la
preuve s’obtient en remplaçant les « finie » par « au plus dénombrable » et les sommes
finies par des sommes de séries.
Exercice. Supposons que l’on dispose de deux urnes U et V . L’urne U contient 7 boules
blanches et deux boules noires. L’urne V contient 2 boules blanches, 1 rouge et 3 noires.
On considère l’expérience suivante : on tire une boule de U et, sans la regarder, on la
place dans l’urne V . On tire alors une boule de V .
Représenter les résultats possibles sur un arbre. Identifier les probabilités de chaque
branche.
Proposition 1.1.1
Soit (Ω, P(Ω), P ) un espace probabilisé fini, où P est la probabilité uniforme. Pour tout
Card (A ∩ B)
.
évènement A 6= ∅, on a PA (B) =
Card (A)
Démonstration : Exercice.
J. Gärtner.
1
ECS3 Carnot
Chapitre 10
2013/2014
Il est souvent plus facile de déterminer la probabilité conditionnelle que de déterminer
la probabilité d’une intersection car on considère alors que l’univers réduit contenant les
résultats de l’expérience conditionnée.
Exemple. On distribue complètement 52 cartes à 4 joueurs. Notons Ω l’ensemble des
mains possibles des 4 joueurs, et prenons A = P(Ω). La probabilité est la probabilité
uniforme.
Calculons la probabilité que le joueur A ait deux cœurs dans sa main en supposant que
les joueurs 3 et 4 en possèdent 8 à eux deux (on connaît donc une information supplémentaire : par exemple la composition exacte des 26 cartes des joueurs 3 et 4).
Le nombre de
mains possibles pour le joueur 1, sachant que les joueurs 3 et 4 ont
26
8 cœurs est 13 . Le nombre de mains contenant au moins deux cœurs est 52 21
11 (on
choisit 2 cœurs parmi les 5 restant,
et
11
cartes
parmi
les
21
possibles).
Ainsi
la
probabilité
(conditionnelle) cherchée est
5
2
21
11
26
13
.
Exercice. Une entreprise organise un dîner pour les employés qui ont deux enfants dont
au moins un garçon. Chaque employé est convié avec son aîné(e). Quelle est la probabilité
que M. X. vienne au dîner accompagné de son fils sachant qu’il est invité ? Quelle est la
probabilité qu’il ait deux fils sachant qu’il est invité ?
1.2
Résumé
Puisque PA est une probabilité, elle vérifie toutes les propriétés du chapitre précédent.
En particulier :
1. PA (A) = 1.
2. Si A ⊂ B, PA (B) = 1.
3. PA (B ∪ C) = PA (B) + PA (C) − PA (B ∩ C)
2
Trois formules
2.1
Formule des probabilités composées
C’est la formule « générale » pour calculer la probabilité d’une intersection (utile lorsque
les évènements ne sont pas indépendants).
Théorème 2.1.1 (Formule des probabilités composées)
Soit n > 2. Soit (A1 , . . . , An ) une famille d’évènements de l’espace probabilisé (Ω, A, P ),
tels que P (A1 ∩ · · · ∩ An−1 ) 6= 0. Alors
P (A1 ∩ · · · ∩ An ) = P (A1 )PA1 (A2 ) × · · · × PA1 ∩···∩An−1 (An )
Démonstration : Déjà, remarquons que puisque pour tout k ∈ [[ 1 ; n − 1 ]], A1 ∩ · · · ∩ An−1 ⊂
(A1 ∩ · · · ∩ Ak ), on a 0 < P (A1 ∩ · · · ∩ An−1 ) 6 P (A1 ∩ · · · ∩ Ak ) et les probabilités
conditionnelles sont toutes définies.
Montrons ce résultat par récurrence sur n.
– Initialisation : par définition P (A1 ∩ A2 ) = P (A1 )PA1 (A2 ).
– Hérédité : soit n > 2. Supposons que P (A1 ∩ · · · ∩ An ) = P (AT1 )PA1 (A2 ) × · · · ×
n
PA1 ∩···∩An−1 (An ). Soit A1 , . . . , An+1 des évènements tels que P ( i=1 Ai ) 6= 0. Alors
Tn+1
Tn
d’après le cas n = 2, P ( i=1 Ai ) = P ( i=1 Ai )PTni=1 Ai (An+1 ). Mais par hypothèse
Tn
P ( i=1 Ai ) = P (A1 )PA1 (A2 ) × · · · × PA1 ∩···∩An−1 (An ), ce qui permet de conclure.
J. Gärtner.
2
ECS3 Carnot
Chapitre 10
2013/2014
Exemple. Une urne contient n boules blanches ou rouges dont b blanches et r > 5 rouges,
indiscernables. On tire successivement et sans remise 4 boules de cette urne. Calculons la
probabilité que les quatre boules tirées soient rouges.
Notons Ri l’évènement « la i-ème boule est rouge. On cherche à calculer P (R1 ∩ R2 ∩
R3 ∩ R4 ). Utilisons la formule des probabilités composées (qui est plus naturelle que la
formule du crible ici...).
On suppose que la probabilité est uniforme.
r
– Alors P (R1 ) = 6= 0.
n
r−1
– Il reste n − 1 boules, dont r − 1 rouges. Ainsi PR1 (R2 ) =
et P (R1 ∩ R2 ) =
n−1
r(r − 1)
6= 0.
n(n − 1)
– On peut donc calculer PR1 ∩R2 (R3 ) : il reste r − 2 boules rouges parmis les n − 2
r−2
et P (R1 ∩ R2 ∩ R3 ) 6= 0.
boules de l’urne : PR1 ∩R2 (R3 ) =
n−2
– On a donc justifié l’emplois de la formule des probabilités composées et PR1 ∩R2 ∩R3 (R4 ) =
r−3
.
n−3
r(r − 1)(r − 2)(r − 3)
.
Finalement P (R1 ∩ R2 ∩ R3 ∩ R4 ) =
n(n − 1)(n − 2)(n − 3)
Exercice. Dans l’exemple ci-dessus, calculer la probabilité qu’une boule rouge apparaisse
pour la première fois au k-ième tirage.
Exercice. On dispose de n poupées russes emboitées, numérotées de 1 à n (n est la plus
grande). La poupée numéro k peut être coloriée de k couleurs différentes, choisies au hasard
parmi les k +1 couleurs de la poupée k +1. On suppose que la poupée numéro n est coloriée
de n couleurs, dont le vert, et qu’à chaque étape, le vert est choisi avec probabilité p.
Quelle est la probabilité que la poupée numéro 1 soit verte ?
2.2
Formule des probabilités totales
Théorème 2.2.1
Soit (Ω, A, P ) un espace probabilisé et A un évènement de probabilité non nulle.
∀B ∈ A, P (B) = PA (B)P (A) + PĀ (B)P (Ā)
Démonstration : (A, Ā) est un système complet d’évènements, donc P (B) = P (A ∩ B) +
P (Ā ∩ B). La formule découle de la définition de PA (B).
Théorème 2.2.2 (Formule des probabilités totales, cas fini )
Soit (Ω, A, P ) un espace probabilisé et (A1 , . . . , An ) un système complet d’évènements
tel que ∀i ∈ [[ 1 ; n ]] , P (Ai ) 6= 0. Alors
∀B ∈ A, P (B) =
n
X
P (Ak ∩ B) =
k=1
J. Gärtner.
n
X
k=1
3
PAi (B)P (Ai )
ECS3 Carnot
Chapitre 10
Démonstration : Puisque (Ai ) est un système complet d’évènements, P (B) =
2013/2014
n
P
P (B ∩ Ai ).
i=1
Le résultat découle de la définition de PA (B).
Dans le cas où l’espace probabilisé est infini, la formule reste valable (et la démonstration
est analogue)
P
Remarque.
Si (Ai )i∈I est un système complet d’événements, on a P (B) = i∈I P (Ai ∩
P
B) = i∈I P (Ai )PAi (B).
Cette formule permet de traiter les disjonctions de cas.
Exemple. On dispose de quatre urnes numérotées de 1 à 4. On répartit dans ces urnes
des boules noires et des boules blanches. L’urne i contient ni boules noires. On suppose
que toutes les urnes contiennent le même nombre B de boules. On choisit un urne ; l’urne
i
i est choisie avec probabilité
. On prélève alors une boule de l’urne choisie. Quelle est la
10
probabilité que cette boule soit noire ?
Notons Ui l’évènement « l’urne choisie est la numéro i », et N « la boule est noire ».
(U1 , U2 , U3 , U4 ) est un système complet d’évènements de probabilité non nulle. D’après la
formule des probabilités totales
P (N ) = PU1 (N )P (U1 ) + PU2 (N )P (U2 ) + PU3 (N )P (U3 ) + PU4 (N )P (U4 )
n1 + 2n2 + 3n3 + 4n4
=
10B
Exercice. Une compagnie d’assurance estime que la population se divise en deux catégories : une première catégorie d’individus enclins aux accidents représentant 40% de la
population et une deuxième population d’individus ayant peu d’accidents. Un individu de
la première catégorie a un accident en l’espace d’un an avec la probabilité 0, 5 et pour un
individu de la deuxième catégorie cette probabilité est 0, 1.
Quelle est la probabilité qu’un nouvel assuré soit victime d’un accident pendant sa
première année de souscription ?
2.3
Formule de Bayes
La formule de Bayes exprime PA (B) en fonction de PB (A). Elle permet ainsi de « remonter le temps ». Si chronologiquement B survient avant A, on calcul a posteriori la
probabilité de la cause sachant la conséquence 1 .
Théorème 2.3.1 (« petite » formule de Bayes)
Soit (Ω, A, P ) un espace probabilisé et A, B ∈ A tels que P (A)P (B) 6= 0. Alors
PA (B) =
P (B)PB (A)
P (A)
Démonstration : Exercice.
Exemple. On reprend l’exemple de la section précédente. Calculons la probabilité d’avoir
tiré une boule dans l’urne 1 sachant qu’elle est noire.
1. D’où le nom de probabilité des causes parfois donné à la formule de Bayes.
J. Gärtner.
4
ECS3 Carnot
PN (U1 ) =
Chapitre 10
2013/2014
PU1 (N )P (U1 )
n1 /B
n1
=
=
P (N )
(n1 + 2n2 + 3n3 + 4n4 )/10B
n1 + 2n2 + 3n3 + 4n4
Exercice. Dans l’exercice de la section précédente, quelle est la probabilité qu’un individu
soit de la catégorie à risque sachant qu’il n’a pas eu d’accident ?
Pour exprimer la probabilité du dénominateur, on utilise souvent la formule des probabilités totales.
Théorème 2.3.2 (Formule de Bayes)
Soit (Ω, A, P ) un espace probabilisé et (Ei )i∈I un système complet d’évènements. Soit
A ∈ A avec P (A) 6= 0. Alors puisque ∀i ∈ I, P (Ei ) 6= 0, on a
PEj (A)P (Ej )
i∈I PEi (A)P (Ei )
∀j ∈ I, PA (Ej ) = P
En particulier, si B ∈ A est de probabilité non nulle :
PA (B) =
PB (A)P (B)
PB (A)P (B) + PB̄ (A)P (B̄)
Démonstration : Exercice.
Exemple. Un étudiant passe le bac et l’exercice 2 consiste en un QCM. m réponses sont
possibles et une seule est correcte. Soit l’étudiant connaît la réponse (ce qui arrive avec
probabilité p ∈]0, 1[) soit il choisit la réponse au hasard. Sachant que la réponse de l’étudiant
est correcte, quelle est la probabilité qu’il ait répondu en connaissant la réponse ?
Soit C l’évènement « ma réponse est connue de l’étudiant » et J l’évènement « la réponse
PC (J)P (C)
est juste ». On a PJ (C) =
. Ainsi
PC (J)P (C) + PC̄ (J)P (C̄)
PJ (C) =
1×p
pm
=
1
(m − 1)p + 1
1 × p + (1 − p)
m
Exercice. Dans une usine, deux ateliers A et B fabriquent des composants électroniques
pour la construction de lecteurs Blue Ray. Ces composants arrivent ensuite sur la chaîne
d’assemblage. Après une étude statistique, il est constaté que 5% des composants de l’atelier
A sont défectueux et 1% des composants de l’atelier B le sont. 75% des composants arrivant
sur la chaîne d’assemblage proviennent de l’atelier A. Un composant parfait arrivant sur
1
la chaîne d’assemblage peut être déterioré avec probabilité
lors de l’assemblage.
48
Après assemblage, un lecteur Blue Ray est prélevé au hasard, et il ne fonctionne pas.
On sait que seuls les composants fournis par A ou B sont en cause.
Quelle est la probabilité que ce composant ait été déterioré lors de l’assemblage ?
Quelle est la probabilité que ce composant soit sorti défectueux de l’atelier A ? De
l’atelier B ?
J. Gärtner.
5
ECS3 Carnot
3
Chapitre 10
2013/2014
Indépendance d’évènements
3.1
Indépendance de deux évènements
Définition 3.1.1
Soit (Ω, A, P ) un espace probabilisé. Soit A, B ∈ A. On dit que A et B sont indépendants lorsque
P (A ∩ B) = P (A) × P (B)
Remarque. Attention : l’incompatibilité est une notion ensembliste, elle est définie dans
un espace probabilisable. La dépendance est une notion probabiliste, elle dépend d’un
espace probabilisé.
Remarque. De plus si un évènement est presque sûr (i.e. P (A) = 1) ou négligeable
(P (A) = 0), il est indépendant de tous les autres.
Exemple. Une pièce de monnaie est lancée deux fois. La pièce est biaisée : elle tombe
sur Pile avec probabilité p ∈]0, 1[. Soit A l’évènement « les deux lancers donnent le même
résultat » et B l’évènement « le deuxième lancé donne Face ».
Ω = {(F, F ), (F, P ), (P, F ), (P, P )}. En général, on a P (A) = P (F, F )+P (P, P ) car ces
deux évènements élémentaires sont incompatibles. Donc P (A) = p2 + (1 − p)2 . De même
P (B) = p(1 − p) + (1 − p)2 = 1 − p, et P (A ∩ B) = P (F, F ) = (1 − p)2 .
1
On a donc P (A ∩ B) 6= P (A)P (B) sauf si p = (i.e. la pièce est équilibrée) car alors
2
1
1
1
1 1
P (A) = + = , P (B) = et P (A ∩ B) = .
4 4
2
2
4
Ainsi à moins que la pièce ne soit équilibrée, A et B ne sont pas indépendants.
Remarque. On a supposé implicitement que les deux tirages de l’expérience ci-dessus
étaient indépendants... Lorsque dans un énoncé on parle d’épreuves indépendantes, c’est
cette notion qui est en jeu.
Théorème 3.1.1
Soit (Ω, A, P ) un espace probabilisé. Soit A, B ∈ A de probabilité non nulle. Alors A
et B sont indépendants si et seulement si PA (B) = P (B).
Démonstration : Exercice.
Exercice. Soit (Ω, A, P ) un espace probabilisé. Soit A, B ∈ A deux évènements incompatibles et non négligeables. Montrer que A et B ne sont pas indépendants.
Proposition 3.1.1
Soit (Ω, A, P ) un espace probabilisé. Soit A, B ∈ A deux évènements indépendants.
Alors les couples
(Ā, B), (A, B̄), (Ā, B̄)
sont constitués d’évènements indépendants.
Démonstration : Il suffit de montrer que A et B̄ sont indépendants (car la dépendance de
dépend pas de l’ordre des évènements choisis, et en appliquant deux fois le résultat que l’on
va montrer, on obtient que Ā et B̄ sont indépendants).
J. Gärtner.
6
ECS3 Carnot
Chapitre 10
2013/2014
On a A = (A ∩ B) ∪ (A ∩ B̄). Puisque (A ∩ B) et (A ∩ B̄) sont incompatibles, on a
P (A ∩ B̄) = P (A) − P (A ∩ B). Par indépendance :
P (A ∩ B̄) = P (A) − P (A)P (B) = P (A)(1 − P (B)) = P (A)P (B̄)
D’où le résultat.
Remarque. Attention ! Si A et B sont indépendants d’une part et d’autre part A et C
sont indépendants, on ne peut rien dire sur l’indépendance des évènements A et B ∩ C ou
A et B ∪ C. Donnons des exemples :
– Cas où les évènements sont dépendants : on dispose d’un dé rouge et d’un dé noir,
tous les deux équilibrés. On lance ces deux dé et les numéros obtenus constituent
l’univers Ω = [[ 1 ; 6 ]]2 . Soit A l’évènement « la somme des chiffres est 7 », B « le dé
rouge a donné 2 » et C « le dé noir a donné 5 ». On suppose que l’on est en situation
1
1
. Donc
d’équiprobabilité. P (A) = P (B) = P (C) = . P (A ∩ B) = P (A ∩ C) =
6
36
1
(A, B) et (A, C) sont deux couples d’évènements indépendants. On a P (B ∩ C) =
36
11
1
et P (B ∪ C) = , mais P (A ∩ B ∩ C) =
6= P (A)P (B ∩ C) et P (A ∩ (B ∪ C)) =
36
36
1
6= P (A)P (B ∪ C). Les couples (A, B ∪ C) et (A, B ∩ C) sont dépendants.
36
– Cas où les évènements sont indépendants : dans la même expérience, A « la somme
des chiffres est 7 » B« le dé rouge donne 2 » et D « le dé rouge donne un chiffre
1
1
paire ». Alors P (D) = . P (A ∩ D) =
donc A et D sont indépendants.
2
12
1
1
1
De plus P (B ∩ D) = , P (B ∪ D) = P (D) = . Alors P (A ∩ B ∩ D) =
=
6
2
36
1
P (A)P (B ∩ D) et P (A ∩ (B ∪ D)) = P (A)P (B ∪ D) =
. Les couples (A, B ∩ D)
12
et (A, B ∪ D) sont constitués d’évènements indépendants.
3.2
Famille d’évènements indépendants
Définition 3.2.1
Soit (Ω, A, P ) un espace probabilisé. (A1 , . . . An ) une famille d’évènements. Alors
1. Les (Ai ) sont dits deux à deux indépendants si
∀i 6= j ∈ [[ 1 ; n ]] , P (Ai ∩ Aj ) = P (Ai )P (Aj )
2. Les (Ai ) sont dits mutuellement indépendants lorsque
!
Y
\
P (Ai )
Ai =
∀I ⊂ [[ 1 ; n ]] , P
i∈I
i∈I
Proposition 3.2.1
Soit (Ω, A, P ) un espace probabilisé. (A1 , . . . An ) une famille d’évènements. Si les (Ai )
sont mutuellement indépendants, alors ils sont deux à deux indépendants
Démonstration : Il suffit de prendre pour I les paires d’éléments de [[ 1 ; n ]] dans la définition.
J. Gärtner.
7
ECS3 Carnot
Chapitre 10
2013/2014
Remarque. La réciproque est fausse ! Si on lance un dé équilibré deux fois, les évènements
A« la somme des chiffres vaut 7 » B« le premier chiffre est supérieur à 4 » et C « le
deuxième chiffre est supérieur à 3 » sont deux à deux indépendants mais non mutuellement
1
1
2
3
4
indépendants : P (A) = , P (B) = , P (C) = , P (A ∩ B) =
, P (A ∩ C) =
,
6
2
3
36
36
1
12
mais P (A ∩ B ∩ C) = .
P (B ∩ C) =
36
36
Proposition 3.2.2
Pour toute famille (A1 . . . An ) d’évènements, soit (B1 , . . . Bn ) une famille d’évènements
telle que Bi = Ai ou Bi = Āi . Alors si les Ai sont deux à deux indépendants, les Bi
aussi et si les Ai sont mutuellement indépendants, les Bi aussi.
Démonstration : Le cas deux à deux indépendants est clair d’après la section précédente.
Pour le cas de l’indépendance mutuelle, il suffit (via la même astuce que pour la proposition
analogue de la section précédente) de s’intéresser à Bk = Āk et pour tout i 6= k Bi = Ai .
Q
T
Soit I ⊂ [[ 1 ; n ] . Alors si k ∈
/ I, on a P
P (Bi ).
i∈I Bi =
T
T
T i∈I
T
T
Si k ∈ I. Alors P
i∈Ir{k} Ai ∪
i∈I Ai =
i∈I Bi = P ( i∈Ir{k} Ai )−P ( i∈I Ai ) car
T
B
et
que
ces
évènements
sont
incompatibles.
i
i∈I
Q
T
Q
Alors par indépendance mutuelle P
i∈I Bi =
i∈Ir{k} P (Ai ) −
i∈I P (Ai ) = (1 −
Q
Q
P (Ak )) i∈Ir{k} P (Ai ) = P (Āk ) i∈Ir{k} P (Ai ).
Ce qui prouve l’indépendance mutuelle des Bi .
Proposition 3.2.3
Pour tout triplet (A, B, C) d’évènements mutuellement indépendants, A et B ∪ C sont
indépendants.
Exercice. Montrer la proposition ci-dessus.
Remarque. Cette proposition est fausse dans le cas d’évènements deux à deux indépendants. Cet énoncé se généralise aux familles finies d’évènements mutuellement indépendants.
3.3
Epreuves indépendantes
Cette section est hors programme. Le but est d’expliquer comment on peut construire
un modèle rigoureux permettant de modéliser des épreuves indépendantes.
L’indépendance en probabilités apparaît naturellement dans la répétition d’expériences
aléatoires dans des conditions identiques. Comment modéliser ces répétitions ? Nous allons
donner un exemple pour les répétitions d’épreuves de Bernoulli.
Définition 3.3.1
Une épreuve de Bernoulli est une expérience aléatoire qui ne possède que deux issues
possibles : le succès (souvent noté 1) et l’échec (noté 0). La probabilité de succès est
un nombre p ∈]0, 1[.
On peut modéliser cette épreuve par Ω0 = {0, 1}, A0 = P(Ω0 ) et P0 (1) = p,
P0 (0) = 1 − p.
Exemple. On jette une pièce de monnaie. On considère que la pièce tombe sur Pile avec
probabilité p et que l’on gagne le jeu dans ce cas. L’expérience est une épreuve de Bernoulli.
J. Gärtner.
8
ECS3 Carnot
Chapitre 10
2013/2014
On répète n > 2 fois et de manière indépendantes des épreuves de Bernoulli identiques.
L’univers considéré est alors Ω = {0, 1}n . Prenons A = P(Ω). On définit la probabilité
des évènements élémentaires ω = (ε1 , . . . , εn ) ∈ Ω par P (ω) = P0 (ε1 ) × · · · × P0 (εn ). On
étend la définition de cette probabilité aux évènements quelconques à l’aide de la propriété
d’additivité finie.
L’espace probabilisé (Ω, A, P ) est construit pour traduire le sentiment que les expériences répétées dans des conditions identiques sont indépendantes.
Soit k ∈ [[ 0 ; n ]]. Notons Ak l’évènement « les épreuves fournissent k succès puis exclusivement des échecs, dans cet ordre » Bk « les épreuves fournissent k succès » et Ck « les
épreuves fournissent au moins k succès ».
Donnons quelques probabilités classiques dans ce cas :
1. Probabilité de k ∈ [[ 0 ; n ] succès dans un ordre fixé : cette probabilité est la même
quel que soit l’ordre fixé de ces succès. C’est donc par exemple P (Ak ) = P (1, 1, . . . , 1, 0, . . . , 0).
Ainsi
P (Ak ) = pk (1 − p)n−k
2. Probabilité de k succès : on choisi le numéro des expériences qui fournissent les
succès (soit le choix de k expériences parmi les n répétées), que l’on multiplie par la
probabilité d’exactement k succès dans un ordre déterminé.
n k
P (Bk ) =
p (1 − p)n−k
k
3. Obtenir au moins k succès, c’est obtenir exactement
Sn l succès avec l ∈ [[ k ; n ]]. Ainsi
Ck est union d’évènements incompatibles : Ck = l=k Bl . On a donc
P (Ck ) =
n X
n
l=k
l
pl (1 − p)n−l
Munis de ces probabilités, soit Si l’évènement « l’épreuve numéro i est un succès ». La
notion « naturelle » d’indépendance nous conduit à affirmer par exemple que Si et Sj sont
deux évènements indépendants si i 6= j.
Si est donné par
Si = Ω0 × · · · × {1} × · · · × Ω0
Les évènements de cette union sont incompatibles. Ainsi
P (Si ) = P0 (Ω0 ) × · · · × P0 (1) × . . . P0 (Ω0 )
D’où
P (Si ) = P (Sj ) = p
De même, Si ∩ Sj est donné par
Ω0 × · · · × Ω0 × {1} × Ω0 × · · · × Ω0 × {1} × Ω0 × · · · × Ω0
Par définition de P , on a
P (Si ∩ Sj ) = p2
Finalement, on a bien P (Si ∩ Sj ) = P (Si )P (Sj ). Les évènements Si et Sj sont indépendants : le modèle adopté est bien conforme à l’intuition.
J. Gärtner.
9
ECS3 Carnot
Chapitre 10
2013/2014
En général, si on répète indépendamment n fois une expérience aléatoire modélisée
par un espace probabilisé (Ω0 , P(Ω0 ), P0 ), où Ω0 est fini, on peut modéliser la répétition de n de ces expériences de manière indépendante par l’espace « produit cartésien » (Ωn0 , P(Ωn0 ), P ) où P est définie sur les évènements élémentaires (ω1 , . . . , ωn ) par
n
P (ω1 , . . . , ωn ) =
J. Gärtner.
Π P0 (ωk ).
k=1
10
Téléchargement