PROCESSUS ALÉATOIRES - CHAÎNES DE MARKOV
Cours 4
2.5 Notion de mesure invariante
Nous avons déjà observé que dans certain cas, une chaîne de Markov pouvait se stabiliser i.e.
qu’après un assez grand nombre de transitions, la probabilité d’être dans un état donné devenait
constante. On donne la définition suivante :
Définition 10 – Soit une chaîne de Markov homogène sur un espace d’états fini, de matrice de
transition P. On appelle mesure invariante (ou probabilité invariante) pour cette chaîne, toute
mesure πtelle que :
∀i,X
i
πiPi,j=πj
Proposition 10 – Si πest une mesure invariante pour la chaîne de Markov homogène ©Xn,n>0ª
et si la loi de X0vaut π, alors la loi de Xnest égale à π, quelque soit l’instant n.
Preuve : P(X1=i)=X
j
P(X1=i|X0=j)P(X0=j). Si P(X0=j)=πj, le terme de droite est égal
àX
j
πjPj,i. Mais si la mesure est invariante, on a : X
j
πjPj,i=πidonc P(X1=i)=πi.
Par récurrence, on obtient : P(Xn=i)=πi,∀n.
2.6 Notion de mesure réversible
Définition 11 – Soit une chaîne de Markov homogène sur un espace d’états fini, de matrice de
transition P. On appelle mesure réversible (ou probabilité réversible) pour cette chaîne, toute
mesure πtelle que :
∀i,j,πiPi,j=πjPj,i.
Etant en i, la probabilité d’aller en jest la même que la probabilité d’aller de ivers jalors que
l’on était en i.
Proposition 11 – Toute mesure réversible est invariante.
Preuve : Si πest réversible, πiPi,j=πjPj,idonc X
i
πiPi,j=X
i
πjPj,i=πjX
i
Pj,i=πj
19