Laboratoire d`Analyse – Recherche en Economie Quantitative

publicité
Révision bayésienne, par Jean – Paul Tsasa
Laboratoire d’Analyse – Recherche en Economie Quantitative
One pager
Avril 2012
Vol. 1 – Num. 008
Copyright © tsasajp –laréq 2012
www.lareq.com
Probabilité et révision bayésienne
De la genèse du calcul de probabilités à l’initiation aux pratiques bayésiennes
Jean – Paul Tsasa V. Kimbambu†
L’abstraction est le prix à payer pour transcender la vision du commun de mortel !
[L’auteur]
La probabilité est – elle réductible à notre incapacité à prédire précisément quelles sont les forces qui pourraient
affecter un phénomène ? Ou fait – elle partie de la nature de la réalité elle – même comme le suggère la
mécanique quantique ou la théorie du chaos ?
Question ouverte
Probabilité : le hasard de Pascal versus le théorème de Cox – Jaynes
La probabilité peut être appréhendée en considérant soit une approche objective [démarche classique],
soit une approche subjective [démarche bayésienne]. La première approche, développée notamment par
Pascal, Bernoulli et Pòlya, consiste à dériver la probabilité de réalisation d’un événement grâce à des
calculs combinatoires. Et la deuxième approche, basée sur le théorème de Cox – Jaynes, suppose que
tout mécanisme d’apprentissage est soit isomorphe à la théorie des probabilités, soit incohérent. Ainsi,
au sens bayésien, la probabilité apparait comme une codification numérique d’un état de connaissance
[valeur subjective] obtenue par un processus rationnel et individuellement indépendant.
Par la suite, il parait donc important de distinguer à chaque fois que l’on approche le futur :
-
D’une part, la probabilité de l’aléatoire qui est une évaluation du caractère vraisemblable d’un
événement dont les chances de réalisation est fonction de quelques phénomènes physiques
stochastique ;
-
Et d’autre part, la probabilité de l’epistémé qui mesure l’incertitude éprouvée face à certaines
affirmations ou preuves par manque d’informations et de connaissances sur les circonstances et
les causalités de choses.
Afin de bien saisir la dimension analytique du concept de probabilité et son application dans les pratiques
bayésiennes, il nous parait légitime de procéder comme suit. Présenter, d’abord, un panorama de
l’évolution de la théorie des probabilités‡. Ensuite, rappeler quelques notions et concepts clés du calcul de
probabilité. Et enfin, illustrer, par un exemple, le processus de révision bayésienne.
†
‡
Master en cours Economie – NPTCI 2011 ; Assistant CCAM – UPC et Chercheur au Laboratoire d’Analyse – Recherche
en Economie Quantitative [LAREQ] ; [email protected] – BP 16.626 Kinshasa I.
Si l’on admet que la probabilité est une évaluation du caractère vraisemblable d’un événement, et donc, une mesure
de réalisation d’un événement ; ce que la théorie des probabilités peut dès lors être définie comme l’étude
mathématique des phénomènes stochastiques, c’est – à – dire caractérisés par le hasard et l’incertitude.
48
Laréq
Par J. Paul Tsasa/ Chercheur co – accompli
Evolution temporelle et conceptuelle de la probabilité
Laplace (1795) propose une première définition opérationnelle de la probabilité d’un événement, mais
l’attribue explicitement à Pascal : « la probabilité est une fonction dont le numérateur est le nombre de
cas favorable, et dont le dénominateur est le nombre de cas possibles ». Cette définition garde ses vertus
historiques mais demeure pas universellement valable, puisque, intrinsèquement, elle ne se réduit qu’à
des cas d’événements équiprobables.
Notons que la définition proposée par Laplace ne marque pas du tout le début de la pensée sur la
probabilité. En effet, comme le notent nombre d’historiens, notamment Ernet Coumet, le concept de
probabilité a fait également l’objet d’analyse par le savant des civilisations anciennes. Ainsi, Coumet
estime que le calcul de probabilité n’est pas né par hasard. Il est le fait d’une réflexion autour de
nombreuses situations concrètes vécues dans l’évolution et les développements de différents domaines
tels que le commerce, le contrat d’échange, les pratiques actuarielles, la médecine, etc.
Bien que longtemps ignoré en algèbre, géométrie, chimie et physique, le concept de probabilité a connu
une dynamique dans l’appréhension de sont contenu dès l’antiquité. Ainsi, par exemple, Aristote
considère la probabilité comme une opinion dont le caractère est généralement admis. Cicéron,
contrairement à Aristote ; associe la probabilité à la notion de vraisemblance.
Au XVIè siècle, Galilée établit un lien entre le concept de probabilité et la notion du risque. Et par la suite,
Bartolomé de Médina propose une définition proche du sens généralement admis à ce jour : la probabilité
est une traduction du caractère vraisemblable d’une idée. Il estimait que, une fois une opinion probable,
il est permis de la suivre, même si l’opinion opposée est plus probable.
Et enfin, Blaise Pascal et Pierre de Fermat, à travers une série de correspondance, intègre la notion de
hasard dans l’appréhension du concept de probabilité.
Les réflexions de Pascal et Fermat ont été sémantiques, puisqu’à l’origine d’une série d’innovations :
-
Christian Huygens, encouragé par Pascal, publie en 1657, un premier traité sur la probabilité et
introduit la notion d’espérance mathématique ;
-
Par la suite, Jakob Bernoulli, définit la variable aléatoire, établit le lien entre probabilité et
fréquence en cas de jeux répétés, propose la première expression de la loi binomiale et énonce
la loi des grands nombres [théorème de Bernoulli] ;
-
Abraham de Moivre (1718) généralise l’usage de la combinaison ;
-
Thomas Simpson (1755), sur base de travaux de Roger Coes, applique la théorie des erreurs aux
erreurs sur les observations ;
-
Pierre – Simon Laplace (1812) énonce une première version du théorème central limite. Plus
tard, en 1901, Alexandre Liapounov donne sa version moderne et en 1910, Paul Lévy en fournit
la première preuve ;
-
Emile Borel (1897) introduit les notions de mesure et d’ensembles mesurables. Ses travaux
seront complété par Henri Léon Lebesgue, avec la théorie de l’intégration ;
-
Andrei Markov (1902) introduit les chaînes de Markov afin de généraliser la loi des grands
nombres par une série d’expérience dépendant les unes des autres ;
49
Laréq
Par J. Paul Tsasa/ Chercheur co – accompli
-
Andrei Kolmogorov, par ses recherches, fait de l’analyse de probabilités une véritable théorie,
notamment, en énonçant son axiomatique et en révélant ses applications ;
-
Kiyoshi Itô développe, dès 1940, une théorie et un lemme reliant l’analyse [équations aux
dérivées partielles] et les probabilités [calcul stochastique].
Le calcul de probabilités
Le calcul de probabilités est un exercice qui permet de chiffrer les chances de réalisation d’un événement.
Le calcul de probabilités est gouverné par des axiomes, théorèmes et lois. Ci – après, nous illustrons les
plus importants.
Soit E, la réalisation d’un événement quelconque ; p, sa probabilité de réalisation et q, sa probabilité de
non réalisation, Au sens de Laplace – Pascal :
où
est le nombre de cas favorables et , le nombre de cas possible
et
Par conséquent :
Lorsque la réalisation de l’événement E est certain,
, dans l’opposé [événement impossible],
Axiomatique de Kolmogorov
Soit un espace probabiliste (Ω, A, p), où Ω est l’ensemble fondamental ou l’univers ; A, la tribu ou un
sous – ensemble des événements Ei tel que
et p Il ressort que les définitions classique [Laplace –
Pascal], fréquentiste [Bernoulli] et subjective [Bayès] de la probabilité de réalisation d’un événement
vérifient les axiomes suivants.
-
Axiome 1 : pour tout événement E,
-
Axiome 2 :
-
Axiome 3 : pour
événements mutuellement exclusifs,
Loi de multiplication de probabilités :
Les formules issues de la loi de multiplication diffèrent suivant la nature des événements.
-
Pour des événements mutuellement non exclusifs et stochastiquement indépendants :
-
Pour des événements mutuellement non exclusifs et stochastiquement dépendants :
-
Pour des événements mutuellement exclusifs, on obtient la formule du crible :
50
Laréq
Par J. Paul Tsasa/ Chercheur co – accompli
Loi d’addition de probabilités :
De même, les formules issues de la loi d’addition diffèrent suivant la nature des événements.
-
Pour des événements mutuellement non exclusifs et stochastiquement indépendants :
-
Pour des événements mutuellement non exclusifs et stochastiquement dépendants :
-
Pour des événements mutuellement exclusifs, on obtient la formule du crible :
Théorèmes de Morgan [ou Théorème de De Morgan§]
Les théorèmes de Morgan ont été mis à jour par le mathématicien Auguste De Morgan.
-
Théorème 1 : lorsque deux événements E1 et E2 obéissent à la restriction d’indépendance
stochastique, il est prouvé que :
-
Théorème 2 : si deux événements E1 et E2 obéissent à la restriction d’indépendance
stochastique, il est prouvé que :
-
Démonstration du théorème de Morgan
Théorème 1 :
Théorème 2 :
Une manipulation mathématique simple montre
clairement que :
§
Et en conséquence :
Appelé également lois de Morgan.
51
Laréq
Par J. Paul Tsasa/ Chercheur co – accompli
Binôme de Newton et Triangle de Pascal
Le binôme de Newton, du nom d’Isaac Newton, est généralement utilisé en calcul de probabilités lorsque
deux événements E1 et E2, ayant une probabilité de réalisation constante, sont complémentaires. Il est
donc construit en considérant une expansion entre deux termes. Supposons que
soit la probabilité de
fabrique une bonne pièce de monnaie et , celle de fabrique une mauvaise pièce de monnaie.
1ière expérience
:
est la probabilité de fabriquer une bonne pièce de
monnaie ;
est la probabilité d’en fabriquer une mauvaise.
2ième expérience
:
est la probabilité de fabriquer 2 bonnes pièces de
monnaie ;
est la probabilité de fabriquer une bonne pièce et
une mauvaise ;
est la probabilité de fabriquer 2 mauvaises pièces
de monnaie.
3ième expérience
:
est la probabilité de fabriquer 3 bonnes pièces de
monnaie ;
est la probabilité de fabriquer 2 bonnes pièces et
une mauvaise ;
est la probabilité de fabriquer une bonne pièce et
2 mauvaises ;
est la probabilité de fabriquer 3 mauvaises pièces
de monnaie.
.
.
.
.
.
.
nième expérience
C’est la formule qui généralise le binôme de Newton,
avec , le nombre de fois où l’expérience est répétée.
.
.
.
Le tableau illustratif ci – dessous établit un lien étroit entre le binôme de Newton et le triangle de Pascal.
Chaque terme repris à l’intérieur du triangle de Pascal correspond à la somme du terme immédiatement
supérieur et de celui qui se trouve directement à sa gauche.
m
0
1
2
3
4
5
6
7
8
9
10
i
0
1
2
3
4
5
6
7
8
9
10
1
1
1
1
1
1
1
1
1
1
1
1
2
3
4
5
6
7
8
9
10
1
3
6
10
15
21
28
36
45
1
4
10
20
35
56
84
120
1
5
15
35
70
126
210
1
6
21
56
126
252
1
7
28
84
210
1
8
36
120
1
9
45
1
10
1
Ainsi, les coefficients du binôme de Newton peuvent dès lors être dérivés à partir du triangle de Pascal.
52
Laréq
Par J. Paul Tsasa/ Chercheur co – accompli
Théorème de probabilité de cause : Initiation au processus de révision bayésienne
La science distingue la doxa (connaissance incertaine) et l’epistémé (connaissance certaine). Et la
statistique, étant un art de raisonner de façon quantitative en avenir incertain, s’intéresse à la doxa.
D’où, la place de choix qu’occupe la théorie de probabilité dans l’analyse statistique. Introduit en
économétrie ** par les travaux novateurs de Haavelmo, la probabilité apparait, à ce jour indissociable
dans les développements de techniques économétriques.
Ce point présente une application du théorème de Bayès dans le processus de révision de choix. Cette
démarche s’applique souvent dans le cas d’incohérence temporelle de politique économique où le
décideur doit, à chaque période, s’assurer de l’optimalité de choix réalisé.
Le théorème de Bayes a été mis a jour par le révérend Thomas bayèsi et découvert indépendamment par
Laplace. Egalement appelé théorème de cause, le théorème BL permet d’appréhender la distribution a
posteriori de la probabilité. Ainsi, en se basant sur les observations et leurs lois de probabilité, le
théorème BL actualise les estimations d’un paramètre ou d’une probabilité.
Connaissant p(Ei) et p(B), respectivement, les probabilités marginales ou probabilités a priori des
événements
Ei et B ; p(Ei/B), la fonction de vraisemblance de l’événement A, le théorème de BL s’écrit:
avec p(A/B), probabilité a posteriori de A sous condition B.
En vertu du théorème de probabilité totale :
En vue d’illustrer le processus de révision bayésienne, la formule de Bayès, reprise ci – dessus, peut
également s’écrire :
Quel sera le taux de croissance en fin de l’année ?
Supposons que l’on sache la probabilité que la banque centrale a d’annoncer :
p(G/taux positif) = 0,9 : probabilité d’annoncer que le taux de croissance économique soit positif sachant
qu’il y aura effectivement un taux de croissance positif ;
p(G/taux négatif) = 0,2 : probabilité d’annoncer que le taux de croissance soit positif sachant qu’il y aura
un taux de croissance négatif ; où G est l’événement la banque centrale annonce un taux de croissance
positif.
**
Discipline s’intéressant à la mesure de l’économie.
53
Laréq
Par J. Paul Tsasa/ Chercheur co – accompli
On ignore [dans le présent] si d’ici la fin de l’année, la croissance sera positive ou non [probabilité a
priori].
Supposons qu’on admet que p(taux positif) = 1/2, c’est – à – dire une croyance a priori : on croit qu’il y
a une chance sur deux qu’il ait taux de croissance économique positif ;
Hypothèse : il y aura croissance économique positive à la fin de l’année.
Partant, on estime la probabilité que la banque centrale annonce un taux de croissance positif en se
basant sur la croyance a priori :
p(G) = p(G/ taux positif).p(taux positif) + p(G/taux négatif).p(taux négatif)
Soit p(G) = 0,55
Sachant que la banque centrale a annoncé un taux de croissance positif, quelle est la probabilité qu’on
enregistre effectivement un taux de croissance positif à la fin de l’année :
Soit p(taux positif /G) = 0,82
Il y a lieu de réviser une deuxième fois que le taux de croissance sera positif en consultant, par exemple,
les rapports du FMI ou de la banque mondiale où l’on prédit le taux de croissance en fin période [année].
Dans ce cas, on considère comme croyance initiale, la probabilité que le taux de croissance économique
soit positif, que l’on vient de calculer.
i
Thomas Bayès, 1763, An Essay towards solving a Problem in the Doctrine of Chances, in Philosophical Transactions of the
Royal Society of London.
54
Laréq
Par J. Paul Tsasa/ Chercheur co – accompli
Téléchargement