Laboratoire d`Analyse – Recherche en Economie Quantitative

publicité
Laboratoire d’Analyse – Recherche en Economie Quantitative
One pager
Août 2012
Vol. 3 – Num. 003
http://www.lareq.com
Paradigme Bayésien et Principe de Révision Bayésienne
Jean – Paul Tsasa V. Kimbambu*
La controverse philosophique école classique versus école bayésienne
est finalement peu intéressante. Il faut faire un choix et le nôtre
est clair : c’est le paradigme bayésien.
Boreux – Parent – Bernier, 2010
Introduction
Ce papier s’inscrit dans la série de travaux qui préparent l’avènement d’un modèle d’équilibre général
dynamique stochastique (DSGE) de la RD. Congo. Il présente dans un langage approprié les principaux
concepts permettant de bien appréhender l’analyse bayésienne. A ce titre, il faut noter que l’approche
bayésienne a considérablement favorisé le développement des modèles DSGE comme outil d’analyse et
de prévision de la politique macroéconomique.
Elle propose un cadre rigoureux pour formaliser les
croyances a priori (paradigme bayésien) et déterminer comment celles – ci doivent être mises à jour
une fois que les données sont observées (révision bayésienne). Aussi, il convient de préciser que cette
approche est généralement opposée à une autre dite classique. A l’effet de voir tout le tableau, nous
nous proposons d’analyser préalablement l’approche classique avant de s’atteler sur celle bayésienne.
Dans la dernière section, nous allons rappeler, par un exemple, le processus de révision bayésienne.
I. Paradigme classique
L’inférence statistique comprend deux grandes écoles : l’école classique et l’école bayésienne. Nous
reprenons dans les deux premières sections les caractéristiques qui marquent la différence entre les
deux grandes écoles.
Considérons une observable Y, distribuée selon un modèle d’échantillonnage
le paramètre
†.
Ce paramètre appartient à un espace (ensemble des états de la nature)
dimension finie et l’expression
paramètres
la seule inconnue est
de
est la distribution de la variable aléatoire Y conditionnellement à ses
L’école classique attribue au paramètre
une vraie valeur inconnue et certaine, c’est – à –
dire conceptuellement unique. L’estimation de ce paramètre exige la construction d’une statistique
(fonction des données ou estimateur) dont les paramètres dépendent de
Soit l’estimateur de la moyenne arithmétique d’un échantillon de n variables aléatoires indépendantes et
identiquement distribuées (iid) :
*
†
Master en cours Economie – NPTCI 2010 – 2012 ; Assistant CCAM – UPC et Chercheur co – accompli au Laboratoire
d’Analyse – Recherche en Economie Quantitative [LAREQ] ; [email protected]– BP 16 626 Kinshasa I.
Un paramètre est souvent multidimensionnel,
26
Laréq
Jean – Paul Tsasa/ Chercheur co – accompli
Pour n assez grand (théorème central limite), l’estimateur
de variance
risque
. Il s’agit en réalité de la probabilité de
a une distribution normale, de moyenne
sachant l’inconnu
et
. En considérant un
il devient aisé de calculer les valeurs critiques :
Comme l’indique la relation précédente, il n’est possible de calculer l’intervalle de tolérance que si
et
sont connus. Or en réalité, ces paramètres sont inconnus. Ainsi, le statisticien classique, en refusant de
considérer
-
comme une variable aléatoire, procède en trois temps et comme suit :
En un premier temps ; il suppose qu’il connait
et de ce fait, renverse la perspective en
*
écrivant un intervalle de confiance :
contrairement au paramètre
qui est inconnu mais certain, les limites de l’intervalle calculé sur
les données réellement observées sont aléatoires. L’intervalle obtenu n’est donc pas un
jugement probabiliste sur
mais plutôt l’expression du degré de fiabilité de la procédure
statistique, autrement la probabilité† de recouvrement de
par un intervalle aléatoire
(l’intervalle de confiance n’a donc pas de sens probabiliste direct) ;
-
En un deuxième temps, il remplace, d’une part, l’écart – type inconnu
par l’écart – type
estimé :
et d’autre part, le percentile z, en vertu de la théorie statistique de l’échantillonnage, par le
percentile de Student t. Ainsi, il obtient :
é
-
Sachant que rien ne garantit que le paramètre
é
appartienne à l’intervalle de confiance, le
statisticien classique fait généralement preuve d’une souplesse intellectuelle, voire d’une
entourloupette en réalisant un véritable tout de passe – passe : (i) il imagine une collection
d’échantillons recueillis dans les mêmes conditions, (ii) pour chaque échantillon généré, il obtient
*
†
Alors qu’un intervalle de tolérance porte sur une observable, un intervalle de confiance porte sur un paramètre.
Nous verrons plus loin que contrairement au statisticien classique qui considère la probabilité comme une fréquence
limite dans une succession d’essais dans laquelle on rapporte le nombre de cas favorables (sous – entendu
équiprobables) au nombre d’essais effectivement réalisés, le statisticien bayésien conçoit la probabilité comme le
résultat d’un pari subjectif mais pas arbitraire.
27
Laréq
Jean – Paul Tsasa/ Chercheur co – accompli
quasi – inévitablement un nouvel intervalle de confiance
de ces intervalles contiendraient
et (iii) il conclut que
pour cent
dans ce cas, la valeur inconnue et certaine
C’est la vision fréquentiste de l’inférence statistique où l’analyse admet que tout est dans les données.
Nous verrons dans le point qui suit que le statisticien bayésien raisonne différemment puisqu’il admet
que le paramètre du modèle statistique paramétrique
est incertain. Dès lors, la préoccupation
change ; on cherchera plutôt à quantifier cette incertitude en mobilisant toutes les informations
disponibles.
II. Paradigme bayésien
Le statisticien bayésien, contraire au classique, confère au paramètre
le statut de variable aléatoire.
Ainsi, il lui attribue une distribution de probabilité a priori (prior) qui décrit l’état de savoir actuel sur le
paramètre en cause. On la note :
Le prior quantifie à la fois l’état de connaissance et le degré d’incertitude d’un analyste, modélisateur ou
expert sur le phénomène observé. En vue de préserver la cohérence du modèle, le savoir de l’expert doit
être indépendant de l’échantillon considéré. Comme le notent Boreux, Parent et Bernier (2010),
reconnaître la quantification de l’expert, c’est prendre acte que ses paris ne sont pas arbitraires. Ainsi,
des méthodes ont été développées pour traduire les paris en cause sous la forme d’une loi ou distribution
de probabilité.
Considérons la règle de Bayès :
é
é
é
Pour passer des informations a priori aux lois (distribution) a priori, la théorie bayésienne de la décision
statistique affecte des indices de crédibilité (élicitation) aux éléments de l’ensemble des valeurs possibles
du paramètre
. La pratique bayésienne distingue quatre façons de coder l’information a priori (Robert,
2006 ; Parent et Bernier, 2007 ; Boreux, Parent et Bernier, 2010).
a) Prendre un prior non informatif
Le prior non informatif, appelé également prior vague ou prior peu informatif, n’est pas l’expression
d’une ignorance absolue de la distribution statistique du paramètre. Ce prior suppose que le savoir de
l’expert sur le problème considéré ne lui permet pas de lier les paramètres :
28
Laréq
Jean – Paul Tsasa/ Chercheur co – accompli
que toutes les plages de valeurs
sont, à ses yeux, équiprobables* (symétriques), à tel enseigne qu’il ne
pariera pas davantage sur une valeur que sur une autre.
Soit l’information de Fisher† d’un n–échantillon iid :
Cette matrice intervient dans la construction de priors non informatifs. C’est ainsi qu’en privilégiant un
raisonnement mathématique, Jeffrey (1939) a proposé la construction d’un prior vague à partir du
déterminant de
:
Ce prior impropre a comme propriété de fournir une référence insensible à une reparamétrisation du
modèle de vraisemblance.
b) Choisir un prior conjugué à la vraisemblance
Dans ce cas, la forme analytique du modèle d’échantillonnage présente des caractéristiques
mathématiques que l’on doit identifier dans la forme analytique du prior. Ainsi, on obtient de modèles en
juxtaposant le nom du modèle de prior au nom du modèle d’échantillonnage (Par exemple, gamma–
normal–normal ; gamma–Poisson ; bêta–binomial).
En considérant respectivement un modèle gamma–normal–normal‡ :
où les paramètres du prior (hyperparamètres)
sont connus,
ainsi, on a :
Pour
tendant vers zéro, on a :
§
é
é
Les priors non informatifs peuvent être obtenu en donnant des valeurs extrêmes aux hyperparamètres
du prior conjugué.
*
†
‡
§
L’équiprobabilité qui traduit l’ignorance et la prudence de l’expert.
Pour de plus amples développement, nous renvoyons l’intéressé à Matata et Tsasa (2012).
Le modèle d’échantillonnage choisi est la loi normale
et le prior conjugé est un mélange gamma–
normal.
On note l’indépendance avec le signe
29
Laréq
Jean – Paul Tsasa/ Chercheur co – accompli
c) Procéder par analogie
Cette approche est généralement utilisée par l’expert lorsqu’il accorde moins de confiance aux données
provenant des observations.
d) Mobiliser la méthode par introspections successives
Dans ce cas, l’expert parie sur des valeurs de
qui ont un sens à ses yeux. Ensuite, il tente de caler une
distribution standard sur le modèle d’élicitation que constituent ces valeurs phares ou d’en déduire un
prior conjugué à partir de la connaissance de certains quantiles ou de leurs écarts.
Il convient, par ailleurs, de noter que l’analyse statistique bayésienne repose à la fois sur les données
(composante objective) et sur les idées du chercheur (composante subjective). Elle vise à déterminer les
causes à partir des effets. Les causes sont réduites aux paramètres du mécanisme probabiliste
générateur des données imaginé par l’expert et que les effets sont résumés par les observations
disponibles. Ainsi, les observations apparaissent comme une série des tirages dans une loi statistique
contrôlée par le paramètre inconnu
.
Dans sa démarche, l’analyste bayésien procède en trois temps :
-
il applique une méthode statistique afin de déduire des observations une inférence sur
-
il quantifie, à l’issue de cette inférence, l’incertitude sur
-
il recourt au mécanisme générateur de données conditionnellement à
(connaissance de la cause
;
);
à l’effet de prévoir les
observations futures.
Ainsi, à partir du principe de l’analyse statistique bayésienne, la règle de Bayès peut être dérivée en
considérant le théorème des probabilités conditionnelles :
Figure 1. : Principe de l’analyse statistique bayésienne
30
Laréq
Jean – Paul Tsasa/ Chercheur co – accompli
Avant l’observation,
est la distribution prédictive a priori :
La probabilité conjointe du paramètre
peut donc être représentée de trois façons différentes :
-
la cause
produit l’effet y (représentation du prior) ;
-
Sachant l’effet y, on infère ka cause
-
La combinaison de deux premières représentations.
(représentation du posterior) ;
Déterminons à présent la distribution de probabilité de l’observable
une observation future
conditionnellement à l’échantillon observé y. Il suffit pour ce faire de multiplier
sa densité d’échantillonnage
rapport à
afin de quantifier l’incertitude sur
par la distribution a posteriori
puis intégrer ce produit par
:
Ainsi, on montre (Boreux, Parent et Bernier, 2010) que l’observable
indépendante des observations passées quand on dispose de
est conditionnellement
:
III. Principe de révision bayésienne*
III.1. Autopsie de la théorie de probabilité
Comme vu précédemment, la probabilité peut être appréhendée en considérant soit une approche
objective (démarche classique), soit une approche
subjective (démarche bayésienne). La première
approche, développée notamment par Pascal, Bernoulli et Pòlya, consiste à dériver la probabilité de
réalisation d’un événement grâce à des calculs combinatoires. Et la deuxième approche, basée sur le
théorème de Cox – Jaynes, suppose que tout mécanisme d’apprentissage est soit isomorphe à la théorie
des probabilités, soit incohérent. Ainsi, au sens bayésien, la probabilité apparait comme une codification
numérique d’un état de connaissance (valeur subjective) obtenue par un processus rationnel et
individuellement indépendant.
Afin de bien saisir la dimension analytique du concept de probabilité et son application dans les pratiques
bayésiennes, il nous parait légitime de procéder comme suit. Présenter, d’abord, un panorama de
l’évolution de la théorie des probabilités†. Ensuite, rappeler quelques notions et concepts clés du calcul de
de probabilité. Et enfin pour clore le chapitre, nous nous proposons d’illustrer, par un exemple, le
processus de révision bayésienne.
*
†
Cette section cite largement Tsasa (2012a).
Si l’on admet que la probabilité est une évaluation du caractère vraisemblable d’un événement, et donc, une mesure
de réalisation d’un événement ; ce que la théorie des probabilités peut dès lors être définie comme l’étude
mathématique des phénomènes stochastiques, c’est – à – dire caractérisés par le hasard et l’incertitude.
31
Laréq
Jean – Paul Tsasa/ Chercheur co – accompli
a) Evolution temporelle et conceptuelle de la probabilité
Laplace, en 1795, a proposé une première définition opérationnelle de la probabilité d’un événement,
mais l’attribue explicitement à Pascal : « la probabilité est une fonction dont le numérateur est le nombre
de cas favorable, et dont le dénominateur est le nombre de cas possibles ». Cette définition garde ses
vertus historiques mais ne demeure pas universellement valable, puisque, intrinsèquement, elle ne se
réduit qu’à des cas d’événements équiprobables.
Notons que la définition proposée par Laplace ne marque pas du tout le début de la pensée sur la
probabilité. En effet, comme le notent nombre d’historiens, notamment Ernet Coumet, le concept de
probabilité a fait également l’objet d’analyse par le savant des civilisations anciennes. Ainsi, Coumet
estime que le calcul de probabilité n’est pas né du hasard. Il est le fait d’une réflexion autour de
nombreuses situations concrètes vécues dans l’évolution et les développements de différents domaines
tels que le commerce, le contrat d’échange, les pratiques actuarielles, la médecine, etc.
Bien que longtemps ignoré en algèbre, géométrie, chimie et physique, le concept de probabilité a connu
une dynamique dans l’appréhension de sont contenu dès l’antiquité. Ainsi, par exemple, Aristote
considère la probabilité comme une opinion dont le caractère est généralement admis. Cicéron,
contrairement à Aristote, associe la probabilité à la notion de vraisemblance.
Au XVIè siècle, Galilée établit un lien entre le concept de probabilité et la notion du risque. Et par la
suite, Bartolomé de Médina propose une définition proche du sens généralement admis à ce jour : la
probabilité est une traduction du caractère vraisemblable d’une idée. Il estimait que, une fois une opinion
probable, il est permis de la suivre, même si l’opinion opposée est plus probable.
Et enfin, Blaise Pascal et Pierre de Fermat, à travers une série de correspondance, intègre la notion de
hasard dans l’appréhension du concept de probabilité.
Les réflexions de Pascal et Fermat ont été sémantiques, puisqu’à l’origine d’une série d’innovations :
-
Christian Huygens, encouragé par Pascal, publie en 1657, un premier traité sur la probabilité et
introduit la notion d’espérance mathématique ;
-
Par la suite, Jakob Bernoulli, définit la variable aléatoire, établit le lien entre probabilité et
fréquence en cas de jeux répétés, propose la première expression de la loi binomiale et énonce
la loi des grands nombres (théorème de Bernoulli) ;
-
Abraham de Moivre, en1718, généralise l’usage de la combinaison ;
-
Thomas Simpson, en 1755, sur base de travaux de Roger Coes, applique la théorie des erreurs
aux erreurs sur les observations ;
-
Pierre – Simon Laplace, en 1812, énonce une première version du théorème central limite. Plus
tard, en 1901, Alexandre Liapounov donne sa version moderne et en 1910, Paul Lévy en fournit
la première preuve ;
-
Emile Borel, en 1897, introduit les notions de mesure et d’ensembles mesurables. Ses travaux
seront complété par Henri Léon Lebesgue, avec la théorie de l’intégration ;
-
Andrei Markov, en 1902, introduit les chaînes de Markov afin de généraliser la loi des grands
nombres par une série d’expérience dépendant les unes des autres ;
32
Laréq
Jean – Paul Tsasa/ Chercheur co – accompli
-
Andrei Kolmogorov, par ses recherches, fait de l’analyse de probabilités une véritable théorie,
notamment, en énonçant son axiomatique et en révélant ses applications ;
-
Kiyoshi Itô développe, dès 1940, une théorie et un lemme reliant l’analyse (équations aux
dérivées partielles) et les probabilités (calcul stochastique).
b) Calcul de probabilités
Le calcul de probabilités est un exercice qui permet de chiffrer les chances de réalisation d’un
événement. Le calcul de probabilités est gouverné par des axiomes, théorèmes et lois. Ci – après, nous
illustrons les plus importants.
Soit E, la réalisation d’un événement quelconque ; p, sa probabilité de réalisation et q, sa probabilité de
non réalisation, Au sens de Laplace – Pascal :
où
est le nombre de cas favorables et , le nombre de cas possible,
et
Par conséquent :
Lorsque la réalisation de l’événement E est certain,
, dans l’opposé [événement impossible],
b.1) Axiomatique de Kolmogorov
Soit un espace probabiliste (Ω, A, p), où Ω est l’ensemble fondamental ou l’univers ; A, la tribu ou un
sous – ensemble des événements Ei tel que
et p Il ressort que les définitions classique [Laplace –
Pascal], fréquentiste [Bernoulli] et subjective [Bayès] de la probabilité de réalisation d’un événement
vérifient les axiomes suivants.
-
Axiome 1 : pour tout événement E,
-
Axiome 2 :
-
Axiome 3 : pour
événements mutuellement exclusifs,
b.2) Les lois en probabilités
Loi de multiplication de probabilités :
Les formules issues de la loi de multiplication diffèrent suivant la nature des événements.
-
Pour des événements mutuellement non exclusifs et stochastiquement indépendants :
-
Pour des événements mutuellement non exclusifs et stochastiquement dépendants :
33
Laréq
Jean – Paul Tsasa/ Chercheur co – accompli
-
Pour des événements mutuellement exclusifs, on obtient la formule du crible :
Loi d’addition de probabilités :
De même, les formules issues de la loi d’addition diffèrent suivant la nature des événements.
-
Pour des événements mutuellement non exclusifs et stochastiquement indépendants :
-
Pour des événements mutuellement non exclusifs et stochastiquement dépendants :
-
Pour des événements mutuellement exclusifs, on obtient la formule du crible :
b.3) Théorèmes de Morgan [ou Théorèmes de De Morgan*]
Les théorèmes de Morgan ont été mis à jour par le mathématicien Auguste De Morgan.
-
Théorème 1 : lorsque deux événements E1 et E2 obéissent à la restriction d’indépendance
stochastique, il est prouvé que :
-
Théorème 2 : si deux événements E1 et E2 obéissent à la restriction d’indépendance
stochastique, il est prouvé que :
Tableau 1 : Démonstration du théorème de Morgan
Théorème 1 :
Théorème 2 :
Une manipulation mathématique simple montre
clairement que :
Et en conséquence :
b.4) Binôme de Newton et Triangle de Pascal
Le binôme de Newton, du nom d’Isaac Newton, est généralement utilisé en calcul de probabilités lorsque
deux événements E1 et E2, ayant une probabilité de réalisation constante, sont complémentaires. Il est
donc construit en considérant une expansion entre deux termes. Supposons que
soit la probabilité de
fabriquer une bonne pièce de monnaie et , celle de fabriquer une mauvaise pièce de monnaie.
*
Appelé également lois de Morgan.
34
Laréq
Jean – Paul Tsasa/ Chercheur co – accompli
Tableau 2 : Illustration du Binôme de Newton
est la probabilité de fabriquer une bonne pièce de
1ière
:
expérience
monnaie ;
est la probabilité d’en fabriquer une mauvaise.
2ième
expérience
:
est la probabilité de fabriquer 2 bonnes pièces
de monnaie ;
est la probabilité de fabriquer une bonne pièce
et une mauvaise ;
est la probabilité de fabriquer 2 mauvaises
pièces de monnaie.
3ième
expérience
:
est la probabilité de fabriquer 3 bonnes pièces
de monnaie ;
est la probabilité de fabriquer 2 bonnes pièces
et une mauvaise ;
est la probabilité de fabriquer une bonne pièce
et 2 mauvaises ;
est la probabilité de fabriquer 3 mauvaises
pièces de monnaie.
.
.
.
.
.
.
.
.
.
nième
expérience
C’est la formule qui généralise le binôme de
Newton, avec , le nombre de fois où l’expérience
est répétée.
Le tableau illustratif ci – dessous établit un lien étroit entre le binôme de Newton et le triangle de Pascal.
Chaque terme repris à l’intérieur du triangle de Pascal correspond à la somme du terme immédiatement
supérieur et de celui qui se trouve directement à sa gauche.
Tableau 3 : Interaction Binôme de Newton et Triangle de Pascal
i
m
0
1
2
3
4
5
6
7
8
9
10
0
1
2
3
4
5
6
7
8
9
10
1
1
1
1
1
1
1
1
1
1
1
1
2
3
4
5
6
7
8
9
10
1
3
6
10
15
21
28
36
45
1
4
10
20
35
56
84
120
1
5
15
35
70
126
210
1
6
21
56
126
252
1
7
28
84
210
1
8
36
120
1
9
45
1
10
1
Ainsi, les coefficients du binôme de Newton peuvent dès lors être dérivés à partir du triangle de Pascal.
III.2. Révision bayésienne
Ce point présente une application du théorème de Bayès dans le processus de révision de choix. Cette
démarche s’applique souvent dans le cas d’incohérence temporelle de politique économique où le
décideur doit, à chaque période, s’assurer de l’optimalité de choix réalisé.
Le théorème de Bayès – Laplace permet d’appréhender la distribution a posteriori de la probabilité. Ainsi,
en se basant sur les observations et leurs lois de probabilité, le théorème BL actualise les estimations
d’un paramètre ou d’une probabilité. Connaissant
et
, respectivement, les probabilités
35
Laréq
Jean – Paul Tsasa/ Chercheur co – accompli
marginales ou probabilités a priori des événements
et
;
, la fonction de vraisemblance de
l’événement A, le théorème de BL peut s’écrire comme suit:
avec
, probabilité a posteriori de
sous condition
.
En vertu du théorème de probabilité totale, on sait :
En vue d’illustrer le processus de révision bayésienne, la formule de Bayès, reprise ci – dessus, peut
également s’écrire comme suit :
Répondons, à présent, à l’interrogation suivante : quel sera le taux de croissance en fin de l’année ?
Supposons que l’on sache la probabilité que la banque centrale a d’annoncer :
p(G/taux positif) = 0,9,
probabilité d’annoncer que le taux de croissance économique soit positif sachant qu’il y aura
effectivement un taux de croissance positif ;
p(G/taux négatif) = 0,2,
probabilité d’annoncer que le taux de croissance soit positif sachant qu’il y aura un taux de croissance
négatif ; où G est l’événement la banque centrale annonce un taux de croissance positif.
On ignore [dans le présent] si d’ici la fin de l’année, la croissance sera positive ou non (probabilité a
priori).
Supposons qu’on admet que :
p(taux positif) = 1/2,
c’est – à – dire une croyance a priori : on croit qu’il y a une chance sur deux qu’il ait taux de croissance
économique positif.
Hypothèse : il y aura croissance économique positive à la fin de l’année.
Partant, on estime la probabilité que la banque centrale annonce un taux de croissance positif en se
basant sur la croyance a priori :
p(G) = p(G/ taux positif).p(taux positif) + p(G/taux négatif).p(taux négatif)
Soit p(G) = 0,55
Sachant que la banque centrale a annoncé un taux de croissance positif, quelle est la probabilité qu’on
enregistre effectivement un taux de croissance positif à la fin de l’année :
36
Laréq
Jean – Paul Tsasa/ Chercheur co – accompli
Soit p(taux positif /G) = 0,82
Il y a lieu de réviser une deuxième fois que le taux de croissance sera positif en consultant, par exemple,
les rapports du FMI ou de la banque mondiale où l’on prédit le taux de croissance en fin période [année].
Dans ce cas, on considère comme croyance initiale, la probabilité que le taux de croissance économique
soit positif, que l’on vient de calculer.
Bibliographie

ADJEMIAN Stéphane et Florian PELGRIN, 2008, « Un Regard Bayésien sur les Modèles Dynamiques de la
Macroéconomie », Economie & Prévision, vol. 2/3, num. 183/184, JEL C3, C5, E3, 127 – 152.

AN Sungabae and Frank SCHORFHEIDE, 2007, «Bayesian Analysis of DSGE Models», Econometric
Reviews, forthcoming”, Econometric Reviews, vol. 26, num. 2/4,113 – 172.

BERGER, JamesO., 1985, Statistical Decision Theory and Bayesian Analysis, 2nd ed., Springer-Verlag
France.

BOREUX Jean – Jacques, Eric PARENT et Jacques BERNIER, 2010, Pratique du Calcul Bayésien, éd.
Springer, Paris.

CHOPIN Nicolas and Florian PELGRIN, 2004, «Bayesian Inference and State Number Determination for
Hidden Markov Models : An Application to the Information Content of the Yield Curve about Inflation»,
Journal of Econometrics, vol. 123, num. 2, 327 – 344.

FERNANDEZ – VILLAVERDE Jesús and Juan F. Rubio-Ramírez, 2005, «Estimating Dynamic Equilibrium
Economies : Linear versus NonLinear Likelihood», Journal of Applied Econometrics, vol. 20, num. 7, 891 –
910.

FERNÁNDEZ – VILLAVERDE Jesús, 2009, “The Econometrics of DSGE Models”, NBER Working Paper
Series, No.14667.

GUJARATI Damodar N., 2004, Econométrie, Traduction de la 4ième édition américaine par Bernard
Bernier, De Boeck, Bruxelles.

JEFFREYS Harold, 1939, Theory of Probability, Oxford University Press, Oxford.

MATATA Dandy et Jean – Paul TSASA, 2012, “Troïka statistique de R.A. Fisher : Critère absolu,
Information de Fisher et Analyse de la Variance”, One Pager Laréq, vol. 2, num. 003, (mai 2012), 16 – 21.

PARENT Eric et Jacques BERNIER, 2007, Le Raisonnement Bayésien ? Modélisation et Inférence, Springer
Verlag France.

ROBERT Christian P., 2007, Le Choix Bayésien, Principes et Pratique. Statistique et Probabilités
Appliquées, éd. Springer, Paris

TSASA Jean – Paul, 2012a, “Probabilité et révision bayésienne : De la genèse du calcul de probabilités à
l’initiation aux pratiques bayésiennes”, One Pager Laréq, vol. 1, (mars 2012), 7p.

TSASA Jean – Paul, 2012b, « Initiation à la Macroéconomie DGE : Identités Mathématiques et
Fondements Théoriques », One Pager Laréq, vol. 1, num. 009, (avril 2012), 13p.

TSASA Jean – Paul, 2012c, « Incohérence Temporelle de la Politique Economique : Application et
Développement du modèle de Fischer », One Pager Laréq, vol. 3, num. 001, (juillet 2012), 1 – 14.

WALLISER Bernard, 2011, Comment Raisonnent les Economistes : Les Fonction des Modèles, éd. Odile
Jacob, Paris.

WICKENS Michael, 2010, Analyse Macroéconomique Approfondie : Une Approche par l’Equilibre Général
Dynamique, 1ière édition, De Boeck, Bruxelles.

ZELLNER Arnold, 1971, An Introduction to Bayesian Inference in Econometrics, JohnWiley & Sons, New
York.
37
Laréq
Jean – Paul Tsasa/ Chercheur co – accompli
Téléchargement