A et B

publicité
Probabilités :
axiomes et formules
Cours ‘ Interprétation de la preuve ’
(3b)
Peut-on se passer de calculs de probabilités en
sciences forensiques ?
La réponse est claire : non, pour deux raisons.
Le calcul des probabilités a des applications directes
(il suffit de citer la génétique des populations).
(1) C’est la base théorique nécessaire au scientifique
qui, dans l’estimation, identifie des modèles
probabilistes et,
(2) dans les tests, en compare plusieurs pour en choisir
un.
La notion de probabilité
La vision fréquentiste repose sur la loi des grands nombres,
établie pour la première fois par J. Bernoulli en 1713, fournit
une définition ‘pratique’ de la notion de probabilité.
Une seule expérience ne suffisant pas pour évaluer la
probabilité d’un événement on va répéter un très grand nombre
de fois l’expérience.
Cette loi stipule que si on répète un grand nombre n de fois une
épreuve, la fréquence f avec laquelle on observe la survenue
d’un événement tend (quand nginfini) vers une limite qui est
définie comme probabilité de cet événement.
Ainsi du lancer d’un dé : la probabilité d ’observer la face 6 est
la limite du rapport no. de 6 obtenus / no. d ’essais = f
La notion de probabilité : un exemple
Par exemple, en lançant un nombre n de fois une
pièce ‘parfaite’ de monnaie, la fréquence f de ’pile’
tendra vers 1/2 au fur et à mesure que n
augmentera.
Dessiner l’exemple
La notion de probabilité : un exemple
N. tosses
N. heads in n tosses
Frequency
10
100
1000
10000
100000
6
52
463
4908
49573
0.60000
0.52000
0.46300
0.49080
0.49573
Les probabilités dites ‘objectives’
Du point de vue pratique il est clair que la vision fréquentiste
ne permet pas de trouver la probabilité d’un événement
puisqu’un tel processus nécessitant une infinité d’observations
est physiquement irréalisable : cela permet tout au plus de
donner une définition de la probabilité comme limite d’une
fréquence.
Remarquons que dans la conception fréquentiste il est
impossible de donner une valeur et même au sens à la
probabilité d ’un événement non répétable du genre « neigerat-il le 25 octobre 2990 » , ce qui limite le champ d’application
du calcul des probabilités.
Les probabilités subjectives
Cette définition ‘pratique’ de la probabilité suppose que l’on puisse
répéter l’épreuve indéfiniment, ou tout au moins imaginer pouvoir le
faire. Tel est le cas dans le jeu de pile ou face.
Le point de vue classique étant trop limité, l’existence même de
probabilités objectives à été niée par beaucoup :
« La probabilité n’existe pas »
« L’abandon de croyances superstitieuses sur l’existence du phlogistique, de
l’éther, de l’espace et du temps absolu … ou des fées, a été une étape
essentielle dans la pensée scientifique.
La probabilité, considérée comme quelque chose ayant une existence
objective est également une conception erronée et dangereuse, une tentative
d’extérioriser ou de matérialiser nos véritables conceptions probabilistes! »
Les probabilités subjectives
La probabilité objective d’un événement n’existe pas et n’est
donc pas une grandeur mesurable analogue à la masse d’un
corps, c’est simplement une mesure d’incertitude, pouvant
varier avec les circonstances et l’observateur, donc subjective,
la seule exigence étant qu’elle satisfasse aux axiomes du calcul
des probabilités.
Les probabilités subjectives (Bayesiennes)
Une probabilité est donc une mesure donnée à une évaluation
subjective (personnelle) qui se base sur les informations à
disposition de la personne.
En résumé, la probabilité :
•
•
•
•
dépend des informations à disposition ;
peut changer en fonction de nouvelles informations ;
peut varier entre individus ;
correspond aux aires d’un diagramme de Venn.
Les probabilités subjectives : exemple
«Je pense qu’il y a 20 chances sur 100 pour qu’il
pleuve demain.» Ce chiffre est basé éventuellement
sur l’expérience acquise.
«Cette personne a une probabilité 30% d’être décédé
pour des raisons cardiaques» : ce chiffre peut être basé
sur un modèle de pronostique incluant les expériences
acquises sur un grand nombre de décès ‘a priori
semblables.’
Les probabilités subjectives : exemple
Cette probabilité 30% peut être obtenue aussi en soumettant le
dossier de la victime à une dizaine d’experts qui notent de 0 à
100 le risque de mort pour des raisons cardiaques et en
constatant que la note moyenne obtenue est 30.
Cette probabilité de 30% est dite subjective.



(Harold Jeffreys, Theory of probability. Oxford University Press, 1939
(III edition, Clarendon Press, 1998)
Leonard J. Savage, The foundations of statistics. II revised edition, Dover
Publications, Inc., New York, 1972 (original 1954)
Bruno de Finetti, Probabilità e induzione (induction and probability).
Editrice Clueb, Bologna, 1993
Les probabilités subjectives : exemple
Il est clair donc qu’il faut être capable de définir la
probabilité autrement que par une approche
fréquentielle si on veut être capable de parler de
probabilité d’événements qui ne peuvent se produire
qu’une fois et pour lesquels la répétition de l’épreuve
n’a aucun sens (comme c’est le cas dans les deux
exemples précédents).
Les trois axiomes
Le calcul des probabilités repose sur un certain
nombre de règles minimales qui permettent de
construire toutes les théories nécessaires.
On définit un axiome comme un principe de base non
démontrable permettant de construire la suite de la
théorie.
Un axiome, même si, très souvent, il correspond au
‘bon sens’ apparent, est toujours contestable puisqu’il
n’est pas démontrable.
Les trois axiomes
 La probabilité de tout événement associé à une
épreuve est un nombre compris entre 0 et 1 ;
 Si deux événements A1 et A2 sont incompatibles, la
probabilité de l’événement (A1 ou A2 ) est égale à la
somme des probabilités de A1 et de A2 ;
 La probabilité de l’événement certain est égal à 1.
Epreuve
S
e
A
On suppose qu’à chaque fois qu’on réalise l’épreuve, on obtient un point e
(événement élémentaire) à l’intérieur de S représenté par l’ensemble des
points contenus dans le rectangle. On suppose que l’ensemble des
événements élémentaires est réparti de façon uniforme sur la surface de S.
On suppose que la surface de E vaut 1.
A (surface rouge) est une partie de S : il représente l’événement composé de
tous les points événements élémentaires à l’intérieur de sa frontière.
La probabilité de S est 1. La probabilité de A est, dans cette représentation,
la surface de A (sur la figure, elle vaut à peu près 0.2).
Formules (1)
La probabilité de l’événement impossible est nulle :
P   0
L’événement ‘impossible’ et l’événement ‘certain’ sont
incompatibles ; la réunion de l’événement ‘impossible’ et de
l’événement ‘certain’ est l’événement ‘certain’ (ces deux
résultats s’obtiennent en considérant les listes d’événements
qui caractérisent respectivement l’événement ‘impossible’
(liste vide) et l’événement ‘certain’ (liste composée de tous les
événements élémentaires).
Formules (1)
L’application des axiomes 2 et 3 donne le résultat.
En effet :
P   E   P    P E 
P E  puisque   E  E
Formules (2)
La probabilité du contraire d’un événement est égale à 1 moins
la probabilité de cet événement :

P A 1  P A
Un événement et son contraire sont incompatibles ;
l’événement (A ou contraire de A) est certain, ce qui veut dire
que lorsque l’on réalise l’épreuve ou bien l’événement
élémentaire correspondant réalise A ou bien réalise le contraire
de A.
Formules (2)
 

PA ou A  PE   1
P A ou A  P A  P A
Formules (3)
Si un événement A est inclus dans un événement B, alors la
probabilité de A est inférieure ou égale à la probabilité de B.
Ceci se déduit immédiatement du fait que l’on peut écrire dans
ce cas B comme (A ou (non-A et B)). Les deux événements (A)
et (non-A et B) sont incompatibles. L’application des axiomes
indique que :


PB  P A et B  P A  P A


puisque P A et B est nécessairement positif (Axiome 1).
Formules (4)
La probabilité de l’événement A ou B est égale à la somme des
probabilités de A et B, moins celle de (A et B).
La façon la plus simple de mémoriser la formule donnant la
probabilité de A ou B s’obtient grâce à l’analogie probabilitéssurface. En effet, la surface de A ou B est égale à la surface de
A, plus celle de B, moins celle de A et B (oublier ce dernier
terme reviendrait à compter 2 fois la surface de A et B dans A
et dans B.
P A ou B  P A  PB   P A et B
Probabilités conditionnelles - indépendance
On peut admettre qu’environ 550’000 personnes étaient porteurs en France
en 1999 du virus de l’hépatite C. S’il ne dispose que de cette information, le
médecine avant de recevoir un patient en consultation peut penser que ce
parient a une probabilité d’environ 1% d’être VHC+ (550’000/55’000’000)
s’il suppose que sa clientèle ressemble globalement à l’ensemble de la
population française. Si en consultant le dossier de son patient avant qu’il
ne franchisse sa porte, le médecin constate que celui-ci est un enfant de 10
ans, la probabilité que pour ce patient soit VHC+ est à coup sûr beaucoup
plus faible, (peut être entre 10-5 et 10-4 ...) car on sait que les personnes
contaminées par ce virus sont en général des adultes (transfusion,
toxicomanie, etc.).
Probabilités conditionnelles - indépendance
Si en revanche l’information fournie par le dossier indique que
le patient est toxicomane par voie intraveineuse depuis plus de
5 ans, les données épidémiologiques indiquent que la
probabilité qu’il soit VHC+ est certainement supérieure à 1%.
Si, enfin, le seul renseignement que le dossier présente est le
fait que le patient est asthmatique, l’opinion du médecin sur la
probabilité pour que le patient soit VHC+ ne sera pas modifiée,
car il n’y a pas de relation entre le fait d’être asthmatique et le
fait d’être porteur du virus VHC+ .
La probabilité que le malade qui franchira la porte soit porteur
de VHC est toujours de 1%.
La démarche de la connaissance
La démarche médicale, et la démarche de la
connaissance en général, se fait toujours par étape: on
est, au début, dans une certaine incertitude quantifiée
par des probabilités a priori : le mot a priori signifie
qu’il s’agit de la probabilité avant d’avoir une
information.
Par exemple, a priori, avant d’avoir quelque
renseignement que ce soit sur le patient qui attend de
l’autre côté de la porte, la probabilité a priori pour
que ce patient soit VHC+ est 1%.
La démarche de la connaissance
Le médecin obtient, par exemple en prescrivant des
examens complémentaires, des informations qui sont
susceptibles de modifier la probabilité du diagnostic
auquel il s’intéresse.
Les probabilités modifiées s’appellent des probabilités
a posteriori : l’expression a posteriori est utilisée pour
signifier qu’il s’agit de la probabilité après
l’information reçue.
La nouvelle information permet de faire évoluer la
probabilité a priori.
Le processus du raisonnement
Probabilité
s
a
priori
Autres
informations
(dossier)
se combinent
avec
Données
analytiques
Probabilité
s
a
posteriori
Décision sur
l’hypothèse
(maladie)
Probabilités conditionnelles (1)
Soit S l’ensemble des événements. Supposons qu’après avoir
réalisé l’épreuve on obtienne l’information que l’événement
élémentaire obtenu a réalisé un événement B (autrement dit,
que l’événement B s’est produit). On peut à nouveau définir les
probabilités de tous les autres événement de S,
conditionnellement à cette information.
Probabilités conditionnelles (2)
La probabilité conditionnelle d’un événement A, sachant que B
s’est produit, est définie par l’égalité suivante :
P A et B 
P A | B  
P B 
on suppose que PB   0
Probabilités conditionnelles (3)
Pour prendre des exemples extrêmes, la probabilité de A
sachant qu’il s’est produit - noté P(A|A) - est 1 et la probabilité
du contraire de A sachant que A s’est produit - noté P(non-A|A)
- est évidemment 0. Cette formule se comprend bien en
considérant la figure suivante : les chances de tomber dans A
sachant qu’on est dans B sont obtenues en faisant le rapport de
la surface de (A et B) sur la surface de B.
E
A
B
Probabilités conditionnelles (4)
En termes de probabilité a priori et a posteriori, P(A) est la
probabilité a priori de A (avant que l’on sache si B s’est produit
ou non) et P(A|B) est la probabilité a posteriori de A (sachant
que B s’est produit).
La formule donnant P(A|B) s’écrit de façon équivalente :
P A et B  P A | B  PB
En échangeant A et B dans la formule précédente, le premier
terme reste inchangé car (A et B) = (B et A) ; on peut donc
écrire :
P A et B   PB | A P A
Probabilités conditionnelles (5)
On déduit que :
P A et B  
 PB | A P A  P A | B  PB 
Probabilités conditionnelles (6)
Il est à noter que la symétrie de la notation correspond à des
modes de recueil de l’information différents.
Par exemple :


P(VHC+|toxicomane) peut être évaluée dans une population
de toxicomanes chez qui on dose les anticorps à VHC.
P(toxicomane|VHC+) sera évaluée dans une population de
patients de VHC+ qu’on interrogera sur leur toxicomanie
passée.
Indépendance et information
1ère définition de l’indépendance :
La meilleure définition qu’on peut donner de l’indépendance de 2
événements est en terme d’information : on dira que deux
événements sont indépendants lorsque savoir que l’on s’est produit
n’apporte pas d’information sur la probabilité de l’autre.
Dans l’exemple introductif, l’asthme et le VHC+ sont deux
événements indépendants. En effet, savoir que le patient a l’une des
deux affections n’apporte aucune information sur sa probabilité
d’avoir l’autre.
Un événement A est dit indépendant d’un événement B lorsque
savoir que B s’est produit ne modifie pas la probabilité de
l’événement A : la probabilité a priori de A est identique à la
probabilité a posteriori de A.
Indépendance et information
2ème définition de l’indépendance :
Deux événements A et B sont indépendants lorsque la
probabilité de réaliser l’événement (A et B) est égale au produit
des probabilités de réaliser A et de réaliser B.
Ces deux définitions se traduisent par deux formules :
Indépendance et information
La première définition de l’indépendance de A et B s’écrit
P  A | B   P  A
La seconde définition de l’indépendance s’écrit
P A et B  P A  PB 
Indépendance et information
La seconde formule rend évident la symétrie entre A et B :
si B est indépendant de A, alors A est indépendant de B.
Ce qui signifie en pratique que si on démontre que A n’apporte
pas d’information sur B, on en déduit immédiatement B
n’apporte pas réciproquement sur A.
Dans l’exemple introductif, savoir que la probabilité de VHC
est la même chez les asthmatiques et les non- asthmatiques ,
c’est automatiquement en déduire que la probabilité d’asthme
est la même chez les porteurs et les non-porteurs de VHC.
Téléchargement