Université Paris 13, Institut Galilée Année universitaire 2015–2016 MACS 2 – Probabilités Corrigé de l’exercice 16, fiche 1 Exercice 1 – Modèle d’Ising, algorithme de Metropolis. Soit Λ = {1, . . . , r}2 un carré dans Z2 . On note E = {+1, −1}Λ : E est l’ensemble des configurations obtenues en plaçant les valeurs +1 ou -1 en chaque sommet de Λ. Pour σ = (σ(z))z∈Λ ∈ E et x ∈ Λ, on définit φx σ ∈ E en changeant la valeur de σ en x : ( σ(z) si z 6= x φx σ(z) = −σ(x) si z = x. On définit H : E → R par : pour tout σ ∈ E, H(σ) = 1 2 X 1{σ(x)6=σ(y)} . x,y∈Λ, |x−y|=1 Soit β > 0. On peut alors définir une mesure µ sur E par µ(σ) = Z1 e−βH(σ) , où Z est une constante telle que µ(E) = 1. L’objectif est de simuler (approximativement) une variable aléatoire de loi µ. Soit (Zn )n une suite de variables aléatoires i.i.d. de loi uniforme sur Λ, et (Un )n une suite de variables aléatoires i.i.d. de loi uniforme sur [0, 1], indépendantes entre elles. On définit la suite (Xn )n≥0 à valeurs dans E par récurrence en choisissant X0 quelconque (par exemple, X0 (x) = +1 pour tout x ∈ Λ, ou X0 peut être aléatoire) puis, pour tout n ≥ 0, ( µ(φZn+1 Xn ) φZn+1 Xn si Un+1 < µ(Xn ) Xn+1 = Xn sinon. 1. Justifier que (Xn )n est une chaîne de Markov. Donner ses probabilités de transition P (σ, σ 0 ) (selon H). On a, pour tout n, Xn+1 = f (Xn , (Un+1 , Zn+1 )) où f : E × ([0, 1] × Λ) → E est définie par ( z (σ)) φz (σ) si u < µ(φ µ(σ) f (σ, (u, z)) = σ sinon. et les v.a. (Un+1 , Zn+1 ), pour n ≥ 0, sont indépendantes et suivent la même loi. Par l’exercice 3, on conclut que (Xn )n est une chaîne de Markov. On note P sa matrice de transition. Pour tout σ ∈ E, on a P (σ, σ 0 ) > 0 si et seulement si σ 0 = σ ou σ 0 = φz σ où z ∈ Λ. Et, pour tous σ ∈ E, z ∈ Λ, P (σ, φx σ) = P Z1 = z, U1 < µ(φz σ) µ(φz σ) = P(Z1 = z)P U1 < µ(σ) µ(σ) Si µ(φz σ) > µ(σ), c’est-à-dire si H(φz σ) ≤ H(σ), alors le second événement est toujours vérifié donc P (σ, φz σ) = P(Z1 = z) = 1 Card(Λ) et si H(φz σ) > H(σ) alors P (σ, φz σ) = 1 µ(φz σ) 1 = e−β(H(φz σ)−H(σ)) . Card(Λ) µ(σ) Card(Λ) On peut noter que H(φz σ) − H(σ) dépend seulement du nombre de voisins y de z tels que σ(y) 6= σ(z). Enfin, la probabilité P (σ, σ) est non nulle et se déduit des autres mais n’a pas d’expression simple : X P (σ, σ) = 1 − P (σ, φz σ) z∈Λ 2. Est-elle irréductible ? apériodique ? récurrente ? 1 On a P (σ, φz σ) > 0 pour tous z ∈ Λ, σ ∈ E, or pour tout σ ∈ E, la composée des opérations φz où σ(z) = −1 envoie σ sur la configuration constante (+1)x∈Λ , et vice-versa, donc P est irréductible. Puisque P (σ, σ) > 0 pour n’importe quel σ, P est apériodique. X est une chaîne de Markov irréductible sur un espace fini, donc est récurrente positive. 3. Vérifier que, pour tous σ ∈ E et x ∈ Λ, en notant σ 0 = φx σ, on a µ(σ)P (σ, σ 0 ) = µ(σ 0 )P (σ 0 , σ) et en déduire que µ est invariante. (On dit que µ est réversible dans ce cas) Pour tous σ ∈ E, x ∈ Λ, on a, en notant σ 0 = φx σ, P (σ, σ 0 ) = donc µ(σ)P (σ, σ 0 ) = 1 µ(σ 0 ) min 1, , Card(Λ) µ(σ) 1 min µ(σ), µ(σ 0 ) = µ(σ 0 )P (σ 0 , σ), Card(Λ) où la dernière égalité s’obtient en échangeant les rôles (symétriques) de σ et σ 0 précédemment. Notons que la formule µ(σ)P (σ, σ 0 ) = µ(σ 0 )P (σ 0 , σ) vaut pour n’importe quels σ, σ 0 ∈ E car si σ 0 6= φx σ pour tout x ∈ Λ, alors les deux termes de l’identité valent zéro. Alors, pour tout σ ∈ E, X X X µ(σ 0 )P (σ 0 , σ) = µ(σ)P (σ, σ 0 ) = µ(σ) P (σ, σ 0 ) = µ(σ), σ 0 ∈E σ 0 ∈E σ 0 ∈E ce qui montre que µ est invariante. 4. Conclure que la loi de Xn converge vers µ quand n → ∞. Quel est le rôle qualitatif de β ? La chaîne de Markov (Xn )n est irréductible, récurrente positive (car l’espace d’états est fini), et apériodique, donc la loi de Xn converge vers l’unique probabilité invariante, qui est µ d’après la question précédente. Remarquons qu’il n’a pas été nécessaire de connaître la constante Z de la définition de µ pour définir la chaîne de Markov (Xn )n . Il suffit de pouvoir comparer H(σ) et H(φz σ), ce qui est très simple et rapide. On peut donc simuler une variable aléatoire X de loi approximativement égale à µ en simulant la chaîne de Markov (Xn )n pendant un grand nombre de pas. Si Xn = σ, la définition de Xn+1 se résume ainsi : on choisit un sommet Zn+1 = z au hasard de façon uniforme ; si changer le signe de σ en z diminue son énergie H, c’est-à-dire que cela diminue le nombre de voisins de signes contraires, alors on le change pour définir Xn+1 ; sinon, on ne change le signe en z qu’avec probabilité e−β(H(φz σ)−H(σ)) . Notons que si β est proche de zéro, alors la dernière probabilité est proche de 1 : on change le signe en z dans presque tous les cas, quelle que soit la configuration σ. Il en résulte que les composantes de Xn sont presque indépendantes : la loi µ est proche de la loi uniforme sur E, le “désordre” est grand (en termes de physique statistique, l’entropie est importante). Inversement, si β est grand, alors l’exponentielle plus haut est proche de zéro, donc on ne change le signe de Xn = σ en z presque seulement lorsque cela diminue le nombre de voisins de signes contraires. Il en résulte rapidement une certaine régularisation de la configuration : les îlots de +1 entourés de -1 (ou vice-versa) prennent des formes plus régulières, les îlots de petite taille disparaissent,... jusqu’à aboutir à une situation où l’énergie ne peut plus diminuer, sauf avec petite probabilité, ce qui peut emmener la configuration vers une autre configuration “stable”, etc. La dynamique est beaucoup moins rapide ici, et moins désordonnée. Cela correspond à une “phase” différente du système. Pour le système physique, β = T1 où T est la températûre. Cela reflète bien la dynamique rapide et désordonnée si T est grand (β proche de 0), et lente et plus ordonnée si T est petit. On pourrait parler de phase gazeuse et de phase liquide. La simulation suivante obtenue avec Scilab montre, pour un carré de côté 30 (en fait, un tore : conditions au bord périodique), l’allure de Xn pour n = 50000 (noir pour +, blanc pour -). β = 0.5 β=1 2 β=2