Université Paris 13, Institut Galilée MACS 2 – Probabilités
Année universitaire 2015–2016
Corrigé de l’exercice 16, fiche 1
Exercice 1 – Modèle d’Ising, algorithme de Metropolis.Soit Λ = {1, . . . , r}2un carré dans Z2. On
note E={+1,1}Λ:Eest l’ensemble des configurations obtenues en plaçant les valeurs +1 ou -1 en chaque
sommet de Λ. Pour σ= (σ(z))zΛEet xΛ, on définit φxσEen changeant la valeur de σen x:
φxσ(z) = (σ(z)si z6=x
σ(x)si z=x.
On définit H:ERpar : pour tout σE,
H(σ) = 1
2X
x,yΛ,|xy|=1
1{σ(x)6=σ(y)}.
Soit β > 0. On peut alors définir une mesure µsur Epar µ(σ) = 1
ZeβH(σ), où Zest une constante telle que
µ(E)=1. L’objectif est de simuler (approximativement) une variable aléatoire de loi µ.
Soit (Zn)nune suite de variables aléatoires i.i.d. de loi uniforme sur Λ, et (Un)nune suite de variables aléatoires
i.i.d. de loi uniforme sur [0,1], indépendantes entre elles. On définit la suite (Xn)n0à valeurs dans Epar
récurrence en choisissant X0quelconque (par exemple, X0(x) = +1 pour tout xΛ, ou X0peut être aléatoire)
puis, pour tout n0,
Xn+1 =(φZn+1 Xnsi Un+1 <µ(φZn+1 Xn)
µ(Xn)
Xnsinon.
1. Justifier que (Xn)nest une chaîne de Markov. Donner ses probabilités de transition P(σ, σ0)(selon H).
On a, pour tout n,Xn+1 =f(Xn,(Un+1, Zn+1)) f:E×([0,1] ×Λ) Eest définie par
f(σ, (u, z)) = (φz(σ)si u < µ(φz(σ))
µ(σ)
σsinon.
et les v.a. (Un+1, Zn+1), pour n0, sont indépendantes et suivent la même loi. Par l’exercice 3, on conclut
que (Xn)nest une chaîne de Markov. On note Psa matrice de transition. Pour tout σE, on a P(σ, σ0)>0
si et seulement si σ0=σou σ0=φzσzΛ. Et, pour tous σE,zΛ,
P(σ, φxσ) = PZ1=z, U1<µ(φzσ)
µ(σ)=P(Z1=z)PU1<µ(φzσ)
µ(σ)
Si µ(φzσ)> µ(σ), c’est-à-dire si H(φzσ)H(σ), alors le second événement est toujours vérifié donc
P(σ, φzσ) = P(Z1=z) = 1
Card(Λ)
et si H(φzσ)> H(σ)alors
P(σ, φzσ) = 1
Card(Λ)
µ(φzσ)
µ(σ)=1
Card(Λ)eβ(H(φzσ)H(σ)).
On peut noter que H(φzσ)H(σ)dépend seulement du nombre de voisins yde ztels que σ(y)6=σ(z).
Enfin, la probabilité P(σ, σ)est non nulle et se déduit des autres mais n’a pas d’expression simple :
P(σ, σ) = 1 X
zΛ
P(σ, φzσ)
2. Est-elle irréductible ? apériodique ? récurrente ?
1
On a P(σ, φzσ)>0pour tous zΛ,σE, or pour tout σE, la composée des opérations φzσ(z) = 1
envoie σsur la configuration constante (+1)xΛ, et vice-versa, donc Pest irréductible. Puisque P(σ, σ)>0
pour n’importe quel σ,Pest apériodique. Xest une chaîne de Markov irréductible sur un espace fini, donc
est récurrente positive.
3. Vérifier que, pour tous σEet xΛ, en notant σ0=φxσ, on a µ(σ)P(σ, σ0) = µ(σ0)P(σ0, σ)et en déduire
que µest invariante. (On dit que µest réversible dans ce cas)
Pour tous σE,xΛ, on a, en notant σ0=φxσ,
P(σ, σ0) = 1
Card(Λ) min 1,µ(σ0)
µ(σ),
donc
µ(σ)P(σ, σ0) = 1
Card(Λ) min µ(σ), µ(σ0)=µ(σ0)P(σ0, σ),
où la dernière égalité s’obtient en échangeant les rôles (symétriques) de σet σ0précédemment. Notons que la
formule µ(σ)P(σ, σ0) = µ(σ0)P(σ0, σ)vaut pour n’importe quels σ, σ0Ecar si σ06=φxσpour tout xΛ,
alors les deux termes de l’identité valent zéro.
Alors, pour tout σE,
X
σ0E
µ(σ0)P(σ0, σ) = X
σ0E
µ(σ)P(σ, σ0) = µ(σ)X
σ0E
P(σ, σ0) = µ(σ),
ce qui montre que µest invariante.
4. Conclure que la loi de Xnconverge vers µquand n→ ∞. Quel est le rôle qualitatif de β?
La chaîne de Markov (Xn)nest irréductible, récurrente positive (car l’espace d’états est fini), et apériodique,
donc la loi de Xnconverge vers l’unique probabilité invariante, qui est µd’après la question précédente.
Remarquons qu’il n’a pas été nécessaire de connaître la constante Zde la définition de µpour définir la
chaîne de Markov (Xn)n. Il suffit de pouvoir comparer H(σ)et H(φzσ), ce qui est très simple et rapide.
On peut donc simuler une variable aléatoire Xde loi approximativement égale à µen simulant la chaîne de
Markov (Xn)npendant un grand nombre de pas.
Si Xn=σ, la définition de Xn+1 se résume ainsi : on choisit un sommet Zn+1 =zau hasard de façon
uniforme ; si changer le signe de σen zdiminue son énergie H, c’est-à-dire que cela diminue le nombre de
voisins de signes contraires, alors on le change pour définir Xn+1 ; sinon, on ne change le signe en zqu’avec
probabilité eβ(H(φzσ)H(σ)).
Notons que si βest proche de zéro, alors la dernière probabilité est proche de 1 : on change le signe en z
dans presque tous les cas, quelle que soit la configuration σ. Il en résulte que les composantes de Xnsont
presque indépendantes : la loi µest proche de la loi uniforme sur E, le “désordre” est grand (en termes de
physique statistique, l’entropie est importante).
Inversement, si βest grand, alors l’exponentielle plus haut est proche de zéro, donc on ne change le signe de
Xn=σen zpresque seulement lorsque cela diminue le nombre de voisins de signes contraires. Il en résulte
rapidement une certaine régularisation de la configuration : les îlots de +1 entourés de -1 (ou vice-versa)
prennent des formes plus régulières, les îlots de petite taille disparaissent,... jusqu’à aboutir à une situation
où l’énergie ne peut plus diminuer, sauf avec petite probabilité, ce qui peut emmener la configuration vers
une autre configuration “stable”, etc. La dynamique est beaucoup moins rapide ici, et moins désordonnée.
Cela correspond à une “phase” différente du système.
Pour le système physique, β=1
TTest la températûre. Cela reflète bien la dynamique rapide et désor-
donnée si Test grand (βproche de 0), et lente et plus ordonnée si Test petit. On pourrait parler de phase
gazeuse et de phase liquide. La simulation suivante obtenue avec Scilab montre, pour un carré de côté 30 (en
fait, un tore : conditions au bord périodique), l’allure de Xnpour n= 50000 (noir pour +, blanc pour -).
β= 0.5β= 1 β= 2
2
1 / 2 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !