Les approches bayésiennes et les
modèles de Markov cachés
Jean-François Flot
Max Planck Institute for Dynamics and Self-Organization
(Göttingen, Germany)
jean-francois.flot@ds.mpg.de
04.02.13
Thomas Bayes
Mathématicien et religieux
anglais (1701?-1761) à qui
l’ont doit le fameux
« théorème de Bayes »
Le théorème de Bayes
Soit un modèle M et des données observées O, on a alors
P(M|O) = P(O|M).P(M)/P(O)
P(M) est la probabilité a priori du modèle (sans connaître
les données O), également appelée prior
P(M|O) est la probabilité du modèle connaissant les
données, également appelée probabilité postérieure du
modèle
P(O|M) est la probabilité des données connaissant le
modèle, également appelée la vraisemblance du modèle
Le théorème de Bayes
Comparons la probabilité de deux modèles M1et M2: Soit
un modèle M et des données observées O, on a alors
P(M1|O)/P(M2|O) = (P(O|M1).P(M1))/(P(O|M2).P(M2))
Ceci peut également s’écrire :
P(M1|O)/P(M2|O) = (P(M1)/P(M2)).(P(O|M1)/P(O|M2))
Le rapport de la probabilité des deux modèle connaissant
les données est égal au rapport de probabilité initial (prior)
multiplié par le rapport des vraisemblances des deux
modèles.
Le problème du prior
Comment définir la probabilité a priori d’un modèle en
l’absence de toute observation ?
Si cette probabilité peut être définie de manière objective,
alors l’approche bayésienne ne pose pas de problème.
Malheureusement ce n’est généralement pas le cas, et du
coup on peut préférer en rester au rapport des
vraisemblances (méthode du maximum de vraisemblance).
1 / 21 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !