L2 MIASHS 51EE07MT Université Paris Diderot
Probabilités & Statistiques 2016 - 2017
Note de cours 3 Probabilités conditionnelles et indépendance
1 Probabilités conditionnelles
Soit (,A,P) un espace probabilisé, c’est-à-dire la donnée d’une σ-algèbre Asur
et d’une mesure de probabilités Pdéfinie sur A. Par souci de simplicité, nous
conservons ces notations pour désigner un espace probabilisé générique.
Pour introduire la notion de probabilité conditionnelle, examinons un simple de
jeu de cartes. On distribue une main, i.e. cinq cartes, issue d’un jeu de 52 cartes (4
couleurs de 13 valeurs chacune). L’espace fondamental est l’ensemble des parties
de ayant 5 éléments, A=P() et Pest la mesure de probabilité uniforme sur .
On appelle suite royale toute suite 10-V-Q-K-A de même couleur : il y en a donc 4. La
probabilité P(R) d’obtenir une suite royale est donc :
P(R)=4Ã52
5!1
=4.2.3.4.5
52.51.50.49.48 =1
22.3.5.72.13.17 =1
649740 .
Supposons que le distributeur de cartes place la cinquième carte face au-dessus et
que celle-ci soit un as de carreau. Que devient la probabilité P(R|A) d’obtenir une
suite royale sachant que l’on a tiré l’as de carreau? Pour obtenir une suite royale,
celle-ci ne peut être que de carreau et il convient de tirer les 4 cartes 10-V-Q-K de
carreau, soit une seule partie de 4 cartes parmi toutes les parties de 4 cartes tirées
dans le reste du paquet. Ainsi,
P(R|A)=Ã51
4!1
=2.3.4
51.50.49.48 =13
5P(R).
L’information a priori d’obtenir un as de carreau modifie la modélisation de l’expé-
rience et l’expression de l’événement R: la probabilité d’obtenir une suite royale sa-
chant qu’on a tiré un as de pique est multipliée par 2,6.
1.1 Définition et propriétés
L’exemple introductif illustre le fait que conditionner à la réalisation d’un état pré-
cis l’observation d’un phénomène aléatoire modifie l’ensemble des observables et,
dès lors, leur fréquence d’occurrrence.
Observons un phénomène aléatoire auquel est associé le modèle aléatoire
(,A,P). Pour un événement Bdonné, on veut évaluer la fréquence d’occurrence
d’un événement Asachant que Best réalisé. Pour tout événement C,NCdésigne le
nombre d’observations Cest réalisé et Nest le nombre d’observations du même
phénomène aléatoire : la fréquence NC/Nest une approximation de P(C). Si l’on
conditionne les observations à la réalisation de B, la fréquence d’occurrence de A
sachant que Best réalisé est :
NAB
NB
=
NAB
N
NB
N
P(AB)
P(B).
Ceci nous conduit à proposer la définition suivante.
Proposition et définition 1.1.1. Soient (,A,P)un espace probabilisé et un événe-
ment B Atel que P(B)>0. On appelle mesure de probabilités conditionnelle sa-
chant B la mesure de probabilités sur Anotée P(· | B)ou PBtelle que :
AAP(A|B)=
P(AB)
P(B).
Démonstration. Montrons que P(· | B), application de Adans R+, est une mesure
de probabilités sur A. D’une part, P(|B)=P(B)1P(B)=1. D’autre part, vérifions
que P(· | B) est σ-additive. Soit (An)nNANune suite à valeurs dans A, constituée
d’événements de Adeux à deux disjoints (i.e. AnAm= ; pour tout (m,n)N2
tel que m6= n). Comme Aest stable par intersection finie ou dénombrable, (An
B)nNANest une suite à valeurs dans A, constituée d’événements de Adeux à
deux disjoints car (AnB)(AmB)=(AnAm)B= ;B= ; pour tout (m,n)N2
tel que m6= n. Comme (SnNAn)B=SnNAnB, on obtient que :
Pµµ[
nN
AnB=Pµ[
nN
AnB=X
nN
P(AnB),
Pµµ[
nN
An¯¯¯B=1
P(B)Pµµ[
nN
AnB=1
P(B)X
nN
P(AnB)=X
nN
P(An|B)
On a ainsi prouvé que P(· | B) est une mesure de probabilités.
Remarque 1.1.2. Il résulte de la définition même que, pour tout événement AA
disjoint de B,P(A|B)=0. Pour cette raison, on dit que P(· | B) est concentrée sur B.
Proposition 1.1.3. Soient (,A,P)un espace probabilisé et B Atel que P(B)>0
1. La mesure de probabilité P(· | B jouit de toutes les propriétés habituelles des me-
sures de probabilité.
1
2. Pour tout événement A Aet tout événement B Atel que P(B)>0, on dispose
de l’égalité :
P(AB)=P(A|B)P(B),
formule particulièrement utile pour calculer la probabilité d’une intersection de
deux événements.
3. Notons ˜
P=PBla P-probabilité conditionnelle sachant B.
Soit C Atel que ˜
P(C)>0, c’est-à-dire P(BC)>0. Alors, la ˜
P-probabilité sa-
chant C, ˜
PC, coïncide avec la mesure de probabilité conditionnelle PBC.
Démonstration. Seul le dernier point est à prouver. Pour tout AA,
˜
PC(A)=˜
P(AC)
˜
P(C)=
P(ACB)/P(B)
P(CB)/P(B)=
P(ACB)
P(CB)=PBC(A).
Ainsi, on obtient l’égalité ˜
PC=PBC, autrement dit (PB)C=PBC.
Exemple 1.1.4 (LE CAS DE LA PROBABILITÉ UNIFORME).Soient un ensemble fini
non vide et A=P() la σ-algèbre des parties de . On munit l’espace probabilisable
(,A) de la mesure de probabilité uniforme P=Punif telle que
AAPunif(A)=#(A)/#().
Soit Bnon vide de sorte que P(B)>0. Pour tout AA, la P-probabilité condi-
tionnelle de Asachant Bvaut
PB(A)=
P(AB)
P(B)=#(AB)/#(B).
Ainsi, PB({ω}) =1
#(B)B(ω) si ω:PBest la mesure de probabilité uniforme sur B.
1.2 Applications
Définition 1.2.1 (SYSTÈME COMPLET DÉVÉNEMENTS).
Soit (,A,P)un espace probabilisé. On appelle système complet d’événements de
Atoute famille finie ou dénombrable (Bj)jJAJd’événements deux à deux dis-
joints, i.e. BjBk= ; pour tout (j,k)J2tel que j 6= k, de réunion = ∪jJBjet telle
que P(Bj)>0pour tout j J.
Proposition 1.2.2 (FORMULE DES PROBABILITÉS TOTALES).
Soient (,A,P)un espace probabilisé et (Bj)jJAJun système complet d’évé-
nements de A. Pour tout événement A A, la Pprobabilité de A est barycentre des
probabilités conditionnelles (P(A|Bj))jJ:
P(A)=X
jJ
P(A|Bj)P(Bj). (1.1)
Démonstration. Soit AA. La famille finie ou dénombrable (ABj)jJAJest
une famille d’événements deux à deux disjoints car, pour tout (j,k)J2tel que j6= k,
(ABj)(ABk)=A(BjBk)=A; = ; et de réunion jJABj=A(jJBj)=
A=A. Comme Jest fini ou dénombrable, la σ-additivité de Pmontre que :
P(A)=P¡jJABj¢=X
jJ
P(ABj)=X
jJ
P(A|Bj)P(Bj).
puisque, pour tout jJ,P(Bj)>0 et P(ABj)=P(A|Bj)P(Bj).
Commentaire 1.2.3. Pour illustrer cette formule, imaginons choisir au hasard un
individu dans une population donnée. L’ensemble représentant cette population
d’individus est stratifiée suivant rNcaractères distincts, la sous-population ayant
le caractère jN
rformant l’événement Bj. Connaissant pour tout jN
rla proba-
bilité qu’un événement Aait lieu dans la sous-population Bj, i.e. P(A|Bj), on peut
donc reconstituer la probabilité de Aà l’aide de ces probabilités et des probabilités
(P(Bj))1ÉjÉrd’appartenir à l’une des sous-populations Bj.
On utilise cette idée de stratification des observations pour déterminer la probabi-
lité qu’un individu (pris au hasard) appartienne à l’une des strates Bjsachant qu’un
événement Aest réalisé. C’est l’objet même du :
Théorème 1.2.4 (FORMULE DE BAYES).Sous les mêmes hypothèses que dans la pro-
position 1.2.2, pour tout événement A Atel que P(A)>0et tout j J, la probabilité
conditionnelle de Bjsachant A peut s’écrire sous la forme :
P(Bj|A)=
P(A|Bj)P(Bj)
PkJP(A|Bk)P(Bk). (1.2)
Démonstration. Pour tout événement AAtel que P(A)>0 et tout jJ, on a les
égalités :
P(A)P(Bj|A)=P(BjA)=P(A|Bj)P(Bj).
En utilisant l’expression (1.1) de P(A), on obtient l’expression (1.2) souhaitée.
Voyons sur un exemple très classique une application concrète du calcul bayésien.
Exemple 1.2.5 (LES FAUX POSITIFS).Dans une population donnée, la proportion d’in-
dividus atteints d’une certaine maladie est x. On dispose d’un test de dépistage de cette
maladie et on voudrait étudier sa fiabilité. On sait que, lorqu’on effectue le test de dé-
pistage sur 100 personnes considérées comme malades, 98 ont un résultat au test posi-
tif, et que, lorsqu’on effectue le test de dépistage sur 100 personnes considérées comme
saines, une seule a un résultat au test positif. On choisit au hasard un individu dans
la population et on lui fait passer le test. On note f (x)la probabilité qu’une personne
ayant un test positif soit malade.
2
1. Exprimer f (x)en fonction de x [0,1].
Notons (,A,P) l’espace probabilisé sous-jacent à l’expérience, Ml’événement
que l’individu dépisté est atteint de la maladie et Tl’événement que l’individu
dépisté a un résultat positif au test.
Par hypothèse, x=P(M), α=P(Tc|M)=2% et β=P(T|Mc)=1%.
La formule de Bayes montre que
f(x)=P(M|T)=
P(T|M)P(M)
P(T|M)P(M)+P(T|Mc)P(Mc)=(1α)x
(1α)x+β(1x).
2. On considère que le test est fiable lorsque la probabilité qu’un individu ayant un
test positif soit malade est supérieure à 95%. Le test est-il fiable si la proportion
d’individus atteints de la maladie est de 5%? À partir de quelle valeur de la pro-
portion d’individus atteints de la maladie le test est-il fiable?
On vérifie aisément que fest une application strictement croissante de [0,1]
sur lui-même avec f(0) =0 et f(1) =1. La fiabilité du test est déterminée par le
niveau maximal γde faux positifs.
Le test est donc fiable si et seulement si f(x)Ê1γxÊxγ
xγ=β(1γ)
β(1γ)+(1α)γ.
Ici, γ=5% et xγ=95
95+5.98 =19
19+98 =19
117 16,23%.
La proportion minimale de la population atteinte, à partir de laquelle le test peut
être considéré comme fiable, s’élève donc à 16,23%.
Comme x=5%, le test en question n’est évidemment pas fiable.
COMMENTAIRE. Ce résultat peut surprendre : l’usage d’un test sanguin semble to-
talement inutile. Ici, le très haut niveau de faux positifs découle de la très faible oc-
currence de la maladie. Le calcul montre qu’il est illusoire d’effectuer un test sanguin
sur la totalité de la population si la maladie ne concerne qu’une fraction trop faible
de la population. C’est une des raisons principales pour lesquelles il est impératif de
cibler les sous-populations les plus exposées à la maladie et d’intensifier une infor-
mation et une éducation à la santé. Bien entendu, l’usage (sérieux et responsable)
des probabilités est un outil majeur des sciences médicales.
2 Indépendance
La notion d’indépendance probabiliste est, malgré l’extrême simplicité de sa défi-
nition, l’une des idées mathématiques les plus présentes mais aussi les plus subtiles.
2.1 Indépendance de deux événements
Au paragraphe précédent, on a défini la notion de probabilité conditionnelle pour
tenir compte de l’information a priori dont pourrait disposer le modélisateur. Ce-
pendant, sur un espace probabilisé (,A,P), la probabilité conditionnelle d’un évé-
nement AAsachant BApourrait ne pas être modifiée par la connaissance de
B:P(A|B)=P(A), autrement dit : P(AB)=P(A)P(B). C’est la notion même d’in-
dépendance de deux événements. D’où la :
Définition 2.1.1. Soit (,A,P)un espace probabilisé. Deux événements A Aet B
Asont indépendants pour la probabilité Pou P-indépendants si et seulement si :
P(AB)=P(A)P(B).
Exemple 2.1.2. Considérons le lancer de deux dés parfaits et distinguables (l’un est
vert, l’autre rouge). L’espace des possibles est donc l’ensemble des couples formés
d’entiers compris entre 1 et 6 : =(N
6)2. Les deux dés étant parfaits, on choisit sur
l’espace probabilisable fini (,P()) la mesure de probabilité uniforme : si ω,
P({ω}) =1/36.
Notons Al’événement «le dé vert donne 2 »et Skl’événement «la somme des
deux chiffres vaut k ». Clairement, A={(2,l)|lN
6} et P(A)=1/6. De même, S6=
{(1,5),(2,4),(3,3),(4,2),(5,1)} et S7={(1,6),(2,5),(3,4),(4,3),(5,2),(6,1)}.
On en déduit que P(A|S6)=#(S6A)/#(S6)=1/5 et P(A|S7)=#(S7A)/#(S7)=
1/6. Aet S7sont donc P-indépendants mais Aet S6ne le sont pas.
Remarque 2.1.3. Considérons deux événements AAet BA.
Si P(B)=0, comme ABB,P(AB)ÉP(B)=0 et P(AB)=0=P(A)P(B).
Autrement dit, si l’un des deux événements Aou Best de P-probabilité nulle, Aet B
sont P-indépendants.
Supposons maintenant que P(B)>0. Alors, Aet Bsont P-indépendants si et seule-
ment si P(A|B)=P(A).
La théorie de l’information fournit ainsi une interprétation à la notion d’indépen-
dance : deux événements sont indépendants sous une probabilité Psi l’information
fournie par le premier événement ne donne aucune information sur le deuxième évé-
nement, ces informations étant mesurés par P. En voici une illustration quasi évi-
dente.
Considérons le tirage d’une boule prise dans une urne qui contient deux boules,
une rouge et une noire. Si on réalise l’expérience sans remettre la boule tirée dans
l’urne, et que la première boule tirée est rouge, on peut déduire de cette information
que la deuxième boule tirée est noire et ne peut être rouge. Les deux événements R1et
R2ne sont donc pas indépendants. Si on remet la première boule dans l’urne avant un
3
deuxième tirage, l’information du premier événement (la boule est rouge) ne fournit
aucune information sur la couleur de la deuxième boule. Les deux événements R1et
R2sont alors indépendants.
Remarque 2.1.4. L’indépendance de deux événements dépend aussi du choix de la
probabilité. Sur l’espace fondamental =N
4muni de la σ-algèbre complète P(),
considérons la mesure de probabilité uniforme Punif telle que Punif({x}) =1
4pour tout
xet la mesure de probabilité ˜
Ptelle que ˜
P({1}) =˜
P({3}) =˜
P({4}) =1
3et ˜
P({2}) =0.
Il est immédiat de constater que A={1,2}, B={2,3} sont Punif-indépendants mais ne
sont pas ˜
P-indépendants.
Proposition 2.1.5. Soit (,A,P)un espace probabilisé.
Tout événement A Aest P-indépendant avec ;ou .
Soient A et B deux événements P-indépendants. Alors, C et D sont P-indépendants
pour tout (C,D){;,A,Ac,}×{;,B,Bc,}.
Démonstration. Soit AA. Si B= ;, on sait déjà que Aet Bsont P-indépendants.
Si B=, c’est clair. Supposons donnés deux événements P-indépendants Aet B.
La relation d’indépendance étant symétrique, il suffit de prouver que Acet Bsont
P-indépendants. Mais B=(BA)(BAc) et l’on calcule :
P(BAc)=P(B)P(BA)=P(B)P(B)P(A)=P(B)(1P(A)) =P(B)P(Ac)
ce qui prouve la P-indépendance de Bet Ac.
2.2 Indépendance d’une famille d’événements
Lorsqu’on observe non pas deux événements mais une collection (Ai)iIquel-
conque d’événements de A, on souhaite définir la P-indépendance de (Ai)iI
comme le fait que la connaissance d’informations sur toute sous-collection finie
(Ai)iJne dépend pas de celle d’autre sous-collection (Ai)iKsi Jet Ksont disjoints.
D’où la :
Définition 2.2.1. Soit (,A,P)un espace probabilisé.
Une famille quelconque d’événements (Ai)iIAIest P-indépendante, i.e. consti-
tuée d’événements indépendants pour la probabilité P, si et seulement si, pour toute
partie J finie de I,
P¡\
iJ
Ai¢=Y
iJ
P(Ai). (2.1)
Remarque 2.2.2. On convient que, si J= ;,TiJAi=et QiJP(Ai)=1. L’égalité
(2.1) est donc vérifiée pour les parties finies de Iqui sont soit ;soit un singleton. Il
en résulte que, si Iest une partie finie de cardinal nN, une famille d’événements
(Ai)iIAIest P-indépendante si 2nn1 égalités du type (2.1) sont satisfaites. La
complexité algorithmique de la P-indépendance est donc exponentielle!
Remarque 2.2.3 (LAP-INDÉPENDANCE DEUX À DEUX NEST PAS LA P-INDÉPENDANCE).
Si la famille d’événements (Ai)iIAIest P-indépendante, les événements Aαet Aβ
sont P-indépendants pour toute paire d’indices {α,β}I. Mais il peut exister une
famille d’événements deux à deux P-indépendants qui n’est pas P-indépendante.
Voici un exemple simple. Sur l’espace fondamental =N
4muni de la σ-algèbre
complète P() et de la mesure de probabilité uniforme P, considérons les évé-
nements A={1,2}, B={2,3} et C={3,4}. La famille finie (A,B,C) n’est pas P-
indépendante alors que les événements A,B,Csont deux à deux P-indépendants.
En effet, P({x}) =1
4pour tout xet P(A)=P(B)=P(C)=1
2, de sorte que les évé-
nements A,B,Csont deux à deux P-indépendants. Mais, ABC= ; de sorte que
P(ABC)=06= 1
8=P(A)P(B)P(C).
Remarque 2.2.4. Le lecteur peut s’étonner de la nécessité de parler de la P-
indépendance d’une famille quelconque d’événements. Mais, pour ne prendre que
l’exemple très intuitif du jeu de Pile ou Face infini, il paraît raisonnable de penser
que, pour le cas d’un dé parfait et d’un joueur-robot, la famille dénombrable des lan-
cers soit P-indépendante. Mais, là, le problème est de bien définir la mesure de pro-
babilités sous-jacente qui réalise cette P-indépendance. On retrouve ici notre vieux
problème de prouver l’existence de mesures de probabilités pour un espace fonda-
mental et une σ-algèbre précis.
4
1 / 4 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !