Cours, printemps 2011, Martine Nida-Rümelin

publicité
1
Cours, printemps 2011, Martine Nida-Rümelin
Handout 4 modifié et élargi
Application du modèle de Bayes au problème de la Belle Endormie
Le modèle de Bayes donne une réponse très claire et apparemment convaincante à la question
de savoir comment les probabilités subjectifs d’une personne rationnelle change en vue de
nouvelles informations. Ce modèle est introduit ci-dessous après l’introduction des éléments
de la théorie de probabilité qui seront employés.
Quelques éléments de la théorie de probabilité employée dans ce qui suit :
Axiomes de la théorie de probabilité :
(1) La probabilité P(A) de la proposition A est, pour chaque proposition entre 0 et 1.
(2) Additivité de la probabilité:
Si les propositions A1, A2, ….An s’excluent mutuellement, alors
P(A1vA2….vAn) = P(A1) + P(A2)….+P(An).
Une définition centrale de la théorie de probabilité :
(3) La probabilité conditionnelle P(A|B) est définie ainsi :
P(A|B) = P(A&B) / P(B)
Donc : P(A & B) = P(A|B) x P(B).
Théorème 1 : La formule de la probabilité totale
Soient E, A1, ….An des propositions dans le domaine de définition de la probabilité P.
Si
(a) A1, …An s’excluent mutuellement
et si
(b) A1 v A2….v An
alors :
P(E) = P(E|A1) x P(A1) + …+P(E|An) x P(An).
Preuve :
(1) E ↔ (E & A1) v (E & A2) v ….(E & An)
(parce que : E ↔ E & (A1 v A2 v …v An)
selon (b) ci-dessus
↔ (E & A1) v (E & A2) … v (E & An)
Donc (puisque des propositions équivalentes reçoivent la même probabilité) :
(2) P(E) = P ((E & A1) v (E & A2) v ….(E & An))
= P (E & A1) + P(E & A2) + …. + P(E & An)
= P(E|A1) x P(A1) + …+P(E|An) x P(An).
selon l’additivité et l’exclusion
mutuelle des propositions
concernées
selon la définition de la probabilité
conditionnelle
2
3
Théorème 2 (Théorème de Bayes) :
Soient E, A1, ….An des propositions dans le domaine de définition de la probabilité P telles
que (a) A1, …An s’excluent mutuellement et (b) A1 v A2….v An,
Alors :
P(Ai| E) = P(E | Ai) x P(Ai) / P(E|A1) x P(A1) + …+P(E|An) x P(An).
Preuve :
P(Ai|E) = P(Ai & E) / P(E)
selon la définition de la probabilité conditionnelle
= P(Ei|A) x P(A) / P(E)
selon la définition de la probabilité conditionnelle
= P(E | Ai) x P(Ai) / P(E|A1) x P(A1) + …+P(E|An) x P(An) selon la formule de la
probabilité totale.
Dans l’application qui nous intéresse
E représente une nouvelle donnée
Ai, A2, …An représentent des hypothèses qui s’excluent et dont une est correcte
P(Ai) est la probabilité a priori de l’hypothèse Ai
P(E|Ai) est la probabilité de E si Ai est correcte (la probabilité que l’hypothèse Ai donnait à la
donnée qui s’est en faite réalisée)
P(Ai|E) est la probabilité de l’hypothèse Ai étant donnée E (probabilité a prostériori de Hi
étant donné E)
Example pour illustrer l’approche du modèle de Bayes :
Première boîte : elle contient trois boules noires.
Deuxième boîte : elle contient deux boules blanches et une boule noire.
Une boule est tirée d’une des deux boîtes.
Deux hypothèses H1 et H2 :
H1 : La boule a été tirée de la première boîte.
H2 : La boule a été tirée de la deuxième boîte.
E (une seule observation) : la boule tirée est noir.
Les probabilités a priori (c’est-à-dire les probabilités attribuée aux deux hypothèses avant
cette observation) :
P(H1) = P(H2) = ½.
Probabilités conditionnelles (les ‘likelihood’) qui donne la probabilité de l’observation qui a
été faite sous l’hypothèse concernée (sans prendre en compte que l’information que E s’est
produit soit délà disponible) :
P(E|H1) = 1 ; P(E|H2) = 1/3.
P(E) = P(E|H1) x P(H1) + P(E|H2) x P(H2) selon la formule de la probabilité totale.
= 1 x ½ + 1/3 x ½ = ½ + 1/6 = 2/3
4
P(H1|E) = P(E|H1) x P(H1) / P(E)
selon le théorème de Bayes (simplifié, voir cidessus)
= 1 x ½ / 2/3 = ½ x 3/2 = ¾.
P(H2|E) = P(E|H2) x P(H2) / P(E) = 1/3 x ½ / 2/3 = 1/6 x 3/2 = ½ x ½ = ¼.
Thèse générale par rapport à la question de savoir comment une personne rationnelle doit
changer ses probabilités subjectifs en vue de nouvelles informations :
H1, H2……Hn :
E:
P(E|Hi) :
P(Hi|E)
P(Hi) :
P(E)
des hypothèses qui s’excluent et dont une est vraie.
la base évidentielles (l’ensemble des nouvelles données pertinentes)
la probabilité que E se produite sous la conditions que Hi soit
correcte.
la probabilité de Hi étant donné E.
la probabilité de Hi avant d’avoir reçu l’information E.
probabilité totale de E.
Dans ces cas on peut calculer P(Hi|E) ainsi :
P(E|Hi) x P(Hi)
P(Hi|E) = _____________________________
P(E)
où : P(E) = P(E|H1)xP(H1) + …………+ P(E|Hn)xP(Hn).
Thèse :
Si une personne a les probabilités a priori P(Hi) pour les hypothèses H1, …Hn,
et si elle a les probabilités conditionnelles P(E|Hi) (pour que E se produit sous la condition
que Hi soit correcte), alors elle doit accepter P(Hi|E) comme nouvelle probabilité subjectif de
Hi quand elle a appris que E s’est produit. (P(Hi|E) est a calculer selon la fomule ci-dessus.)
Application de ce modèle au problème de la belle endormie :
(Il s’agit d’une présentation précisée de la solution de Terrence Horgan)
Attention !!!!
J’utilise ici la variante de l’exemple comme il est présenté chez Horgan :
La belle est réveillée soit une seule fois, et ceci le lundi, soit elle est réveillée deux fois, et
ceci le lundi et le mardi.
Le dé est jeté le lundi, et, selon le résultat la belle est endormie une deuxième fois.
Face : l’expérience est terminée.
Pile : la belle est rendormie et réveillée une deuxième fois le mardi.
La thèse de Horgan :
La belle doit avoir une probabilité ½ pour que la pièce tombe pile le dimanche.
Mais, quand on la réveille et lui repose la même question, elle doit avoir une probabilité 2/3
pour que le dé soit tombé pile.
5
Pourquoi ?
Parce que maintenant elle a une nouvelle information accessible qui par principe n’était pas
accessible le dimanche : on m’a réveillée aujourd’hui ! (C’est une nouvelle connaissance
indexicale.)
Version courte du raisonnement :
Selon les probabilités qui étaient accessibles le dimanche (la connaissance « on m’a réveillée
aujourd’hui » n’était pas encore accessible à la Belle Endormie) les 4 combinaisons (Face / il
est lundi ; Face / il est mardi ; Pile/ il est lundi ; Pile / il est mardi) avaient toutes la même
probabilité ¼, et donc ‘pile’ avait la probabilité ½.
Maintenant, au moment ou elle est réveillée, la Belle Endormie a la nouvelle connaissance
indexicale « on m’a réveillée aujourd’hui ». Sur cette base, elle peut exclure la possibilité
‘Face/ il est mardi’. Car, si maintenant il était mardi et la pièce était tombée ‘face’ alors il
serait exclut qu’elle soit réveillée aujourd’hui ! Les possibilités qui restent ont toutes la même
probabilité, donc, chacune 1/3. Dans deux de ces 3 possibilités la pièce tombe ‘pile’, donc
ceci a une probabilité 1/3 + 1/3.
F : la pièce est tombée face.
L : Il est lundi
Pi : La pièce est tombée pile.
M : Il est mardi.
H1 :
H2 :
T1 :
T2 :
F&L
F&M
P&L
P&M
E : on me réveille aujourd’hui.
P(H1) = P(H2) = P(H3) = P(H4).
(1) P(E|H1) = 1
Explication :
Si la pièce tombe face et s’il est lundi, alors il est sûr que je sois réveillée aujourd’hui.
(2) P(E|H2) = 0
Explication :
Si la pièce tombe face et s’il est mardi, alors il est exclu que je sois réveillée aujourd’hui.
(Il s’agit ici de la probabilité conditionnelle que le Belle Endormie attribue a être réveillée
aujourd’hui si H2 était correcte selon les informations accessibles le dimanche).
(3) P(E|T1) = 1
Explication :
Si la pièce tombe pile et s’il est lundi, alors il est certain que je sois réveillée aujourd’hui.
(4) P(E|T2) = 1
Explication :
Si la pièce tombe pile et s’il est mardi, alors il est certain que je sois réveillée aujourd’hui.
6
P(E) = P(E|H1)xP(H1) + P(E|H2) x P(H2) + P(E|T1) x P(T1) + P(E|T2) x P(T2)
= ¼ x (1 + 0 + 1 + 1) = ¾. selon la formule de la probabilité totale
Application du théorème de Bayes :
P(H1|E) = P(E|H1)xP(H1) : P(E) = 1x1/4x4/3 = 1/3.
P(H2|E) = P(E|H1)xP(H1) : P(E) = 0x1/4x4/3 = 0
P(T1|E) = P(E|H1)xP(H1) : P(E) = 1x1/4x4/3 = 1/3
P(T2|E) = P(E|H1)xP(H1) : P(E) = 1x1/4x4/3 = 1/3
Calculation de P(Pi|E) sur cette base :
P(Pi|E) = P(Pi & L v Pi & M|E)
= P(T1 v T2 | E)
= P(T1|E) + P(T2|E)
= 1/3 + 1/3 = 2/3 (!)
selon simple logique
selon définition de T1 et 2
additivité de la probabilité conditionnelle (ce qui
est simple à prouver)
selon les résultats ci-dessus.
L’erreur de l’argument en faveur de ½ selon la thèse de Horgan :
Il y a une nouvelle information qui n’était pas accessible à la Belle Endormie le dimanche et
qui doit, maintenant, changer les probabilités qu’elle attribue aux résultats du jet de dé: J’ai
été réveillée aujourd’hui !
7
Annexe :
Normalement, on définie la probabilité comme une fonction qui attribue une chiffre entre 0 et 1 à des
ensembles. Dans cette version les axiomes ci-dessus apparaissent dans la définition d’une espace de
probabilité.
Cette définition est la suivante :
(Ώ,Pot(Ώ),P) est une espace de probabilité si et seulement si
(1) Pot(Ώ) est l’ensemble de tous les sous-ensembles de Ώ
(2) P est une fonction qui satisfait les conditions suivante :
(2a) P(Ώ) = 1
(2b) Pour tous les sous-ensembles A1, A2, …, An de l’univers Ώ tels que Ai∩Aj = {} pour
i≠j
P( A1 U A2 ….U An) = P(A1) + P(A2) + …P(An)
(Additivité de P)
Exemple :
L’espace de probabilité qui représente les probabilités dans un jet de dé.
Ώ = {1,2,…6}
P({1}) = P({2})…=P({6})= 1/6
Selon (2) P({1} U {2}) = P({1,2}) = 1/6 + 1/6.
Téléchargement