où {Xn}n∈N est une suite de variables aléatoires i.i.d. et fest une fonction
intégrable.
Ainsi, il suffit de d’engendrer suffisament de variables aléatoires Xipour
approcher E(f(X)) par la moyenne de f(Xi). C’est l’idée de la méthode Monte
Carlo.
Ainsi, le problème le plus important pour appliquer la méthode Monte Carlo
est de savoir comment engendrer Xi. Afin d’engendrer ces échantillons, nous
avons besoin la fonction de répartition (fr) Fou bien de la densité de probabilité
(dp) fde la variable aléatoire. Mais parfois, avec un fdonné, il est très difficile
d’ engendrer des échantillons (il arrive souvent que fne soit connue qu’à une
constante de normalisation près, qui soit très difficile à calculer). La méthode
MCMC est une solution à ce problème. Dans ce travail, nous nous concentrons
uniquement sur le cas d’un ensemble d’états fini. Plutôt que des tirages indé-
pendants à partir de f, on peut à la place utiliser une chaîne ne Markov dont
la mesure invariante est f, qui commence avec un X0convenablement choisi.
Alors, d’après le théorème 4, on peut utiliser la moyenne de cette suite comme
une approximation non biaisée de ce que l’on veut.
Remarque : En fait, notre chaîne de Markov doit satisfaire des conditions plus
fortes que l’irréductibilité et l’apériodicité. Dans notre cas, où l’espace d’états
est en fait fini, ces deux conditions sont suffisantes. Grâce au théorème 1, une
chaîne ayant un nombre fini d’états,et irréductible est aussi récurrente positive,
et ainsi nous pouvons appliquer le théorème ergodique.
C’est juste l’idée de comment cela fonctionne. En fait, les échantillons ini-
tiaux peuvent introduire un grand biais, puisque les différences entre les dis-
tributions des premiers échantillons et fpeut être très grande. Mais grâce au
théorème 3, la différence entre la distribution de Xnet ftend vers 0 quand n
tend vers ∞. Donc il suffit d’attendre jusqu’à un nassez grand, d’oublier les n
premiers échantillons, et utiliser le reste de la chaîne comme approximation de
la variable aléatoire dont la dp est f.
Maintenant, voici les deux algorithmes les plus importants qui utilisent les
chaînes de Markov Monte Carlo.
1.2.1 Metropolis-Hastings
Maintenant, supposons que nous ayons une dp πsous la main, et que nous
voulions tirer des échantillons de cette dp. Mais parfois il est difficile de faire
cela directement (en utilisant l’inverse de la fonction de dp correspondante par
exemple) alors voici une solution. Rappelons-nous que nous avons toujours consi-
déré un espace d’états fini (peut-être gros mais fini). Soit Tune matrice stochas-
tique sur E×E, et T(x, y)>0quand T(y, x)>0pour toute paire de x, y dans
E. Alors soit une chaîne de Markov ayant la matrice de transition Psuivante :
P(x, y) = T(x, y)min{1,π(y)T(y, x)
π(x)T(x, y)} ∀x, y ∈E, x 6=y
P(x, x) = 1 −X
y6=x
P(x, y)∀x∈E
Proposition 2 La matrice Pdéfinie ci-dessus est stochastique, et une chaîne
qui a pour matrice de transition Pest réversible et a πcomme distribution
stationnaire.
5