Corrigé de l`exercice 16, fiche 1

publicité
Université Paris 13, Institut Galilée
Année universitaire 2015–2016
MACS 2 – Probabilités
Corrigé de l’exercice 16, fiche 1
Exercice 1 – Modèle d’Ising, algorithme de Metropolis. Soit Λ = {1, . . . , r}2 un carré dans Z2 . On
note E = {+1, −1}Λ : E est l’ensemble des configurations obtenues en plaçant les valeurs +1 ou -1 en chaque
sommet de Λ. Pour σ = (σ(z))z∈Λ ∈ E et x ∈ Λ, on définit φx σ ∈ E en changeant la valeur de σ en x :
(
σ(z)
si z 6= x
φx σ(z) =
−σ(x) si z = x.
On définit H : E → R par : pour tout σ ∈ E,
H(σ) =
1
2
X
1{σ(x)6=σ(y)} .
x,y∈Λ, |x−y|=1
Soit β > 0. On peut alors définir une mesure µ sur E par µ(σ) = Z1 e−βH(σ) , où Z est une constante telle que
µ(E) = 1. L’objectif est de simuler (approximativement) une variable aléatoire de loi µ.
Soit (Zn )n une suite de variables aléatoires i.i.d. de loi uniforme sur Λ, et (Un )n une suite de variables aléatoires
i.i.d. de loi uniforme sur [0, 1], indépendantes entre elles. On définit la suite (Xn )n≥0 à valeurs dans E par
récurrence en choisissant X0 quelconque (par exemple, X0 (x) = +1 pour tout x ∈ Λ, ou X0 peut être aléatoire)
puis, pour tout n ≥ 0,
(
µ(φZn+1 Xn )
φZn+1 Xn si Un+1 <
µ(Xn )
Xn+1 =
Xn
sinon.
1. Justifier que (Xn )n est une chaîne de Markov. Donner ses probabilités de transition P (σ, σ 0 ) (selon H).
On a, pour tout n, Xn+1 = f (Xn , (Un+1 , Zn+1 )) où f : E × ([0, 1] × Λ) → E est définie par
(
z (σ))
φz (σ) si u < µ(φ
µ(σ)
f (σ, (u, z)) =
σ
sinon.
et les v.a. (Un+1 , Zn+1 ), pour n ≥ 0, sont indépendantes et suivent la même loi. Par l’exercice 3, on conclut
que (Xn )n est une chaîne de Markov. On note P sa matrice de transition. Pour tout σ ∈ E, on a P (σ, σ 0 ) > 0
si et seulement si σ 0 = σ ou σ 0 = φz σ où z ∈ Λ. Et, pour tous σ ∈ E, z ∈ Λ,
P (σ, φx σ) = P Z1 = z, U1 <
µ(φz σ) µ(φz σ) = P(Z1 = z)P U1 <
µ(σ)
µ(σ)
Si µ(φz σ) > µ(σ), c’est-à-dire si H(φz σ) ≤ H(σ), alors le second événement est toujours vérifié donc
P (σ, φz σ) = P(Z1 = z) =
1
Card(Λ)
et si H(φz σ) > H(σ) alors
P (σ, φz σ) =
1
µ(φz σ)
1
=
e−β(H(φz σ)−H(σ)) .
Card(Λ) µ(σ)
Card(Λ)
On peut noter que H(φz σ) − H(σ) dépend seulement du nombre de voisins y de z tels que σ(y) 6= σ(z).
Enfin, la probabilité P (σ, σ) est non nulle et se déduit des autres mais n’a pas d’expression simple :
X
P (σ, σ) = 1 −
P (σ, φz σ)
z∈Λ
2. Est-elle irréductible ? apériodique ? récurrente ?
1
On a P (σ, φz σ) > 0 pour tous z ∈ Λ, σ ∈ E, or pour tout σ ∈ E, la composée des opérations φz où σ(z) = −1
envoie σ sur la configuration constante (+1)x∈Λ , et vice-versa, donc P est irréductible. Puisque P (σ, σ) > 0
pour n’importe quel σ, P est apériodique. X est une chaîne de Markov irréductible sur un espace fini, donc
est récurrente positive.
3. Vérifier que, pour tous σ ∈ E et x ∈ Λ, en notant σ 0 = φx σ, on a µ(σ)P (σ, σ 0 ) = µ(σ 0 )P (σ 0 , σ) et en déduire
que µ est invariante. (On dit que µ est réversible dans ce cas)
Pour tous σ ∈ E, x ∈ Λ, on a, en notant σ 0 = φx σ,
P (σ, σ 0 ) =
donc
µ(σ)P (σ, σ 0 ) =
1
µ(σ 0 )
min 1,
,
Card(Λ)
µ(σ)
1
min µ(σ), µ(σ 0 ) = µ(σ 0 )P (σ 0 , σ),
Card(Λ)
où la dernière égalité s’obtient en échangeant les rôles (symétriques) de σ et σ 0 précédemment. Notons que la
formule µ(σ)P (σ, σ 0 ) = µ(σ 0 )P (σ 0 , σ) vaut pour n’importe quels σ, σ 0 ∈ E car si σ 0 6= φx σ pour tout x ∈ Λ,
alors les deux termes de l’identité valent zéro.
Alors, pour tout σ ∈ E,
X
X
X
µ(σ 0 )P (σ 0 , σ) =
µ(σ)P (σ, σ 0 ) = µ(σ)
P (σ, σ 0 ) = µ(σ),
σ 0 ∈E
σ 0 ∈E
σ 0 ∈E
ce qui montre que µ est invariante.
4. Conclure que la loi de Xn converge vers µ quand n → ∞. Quel est le rôle qualitatif de β ?
La chaîne de Markov (Xn )n est irréductible, récurrente positive (car l’espace d’états est fini), et apériodique,
donc la loi de Xn converge vers l’unique probabilité invariante, qui est µ d’après la question précédente.
Remarquons qu’il n’a pas été nécessaire de connaître la constante Z de la définition de µ pour définir la
chaîne de Markov (Xn )n . Il suffit de pouvoir comparer H(σ) et H(φz σ), ce qui est très simple et rapide.
On peut donc simuler une variable aléatoire X de loi approximativement égale à µ en simulant la chaîne de
Markov (Xn )n pendant un grand nombre de pas.
Si Xn = σ, la définition de Xn+1 se résume ainsi : on choisit un sommet Zn+1 = z au hasard de façon
uniforme ; si changer le signe de σ en z diminue son énergie H, c’est-à-dire que cela diminue le nombre de
voisins de signes contraires, alors on le change pour définir Xn+1 ; sinon, on ne change le signe en z qu’avec
probabilité e−β(H(φz σ)−H(σ)) .
Notons que si β est proche de zéro, alors la dernière probabilité est proche de 1 : on change le signe en z
dans presque tous les cas, quelle que soit la configuration σ. Il en résulte que les composantes de Xn sont
presque indépendantes : la loi µ est proche de la loi uniforme sur E, le “désordre” est grand (en termes de
physique statistique, l’entropie est importante).
Inversement, si β est grand, alors l’exponentielle plus haut est proche de zéro, donc on ne change le signe de
Xn = σ en z presque seulement lorsque cela diminue le nombre de voisins de signes contraires. Il en résulte
rapidement une certaine régularisation de la configuration : les îlots de +1 entourés de -1 (ou vice-versa)
prennent des formes plus régulières, les îlots de petite taille disparaissent,... jusqu’à aboutir à une situation
où l’énergie ne peut plus diminuer, sauf avec petite probabilité, ce qui peut emmener la configuration vers
une autre configuration “stable”, etc. La dynamique est beaucoup moins rapide ici, et moins désordonnée.
Cela correspond à une “phase” différente du système.
Pour le système physique, β = T1 où T est la températûre. Cela reflète bien la dynamique rapide et désordonnée si T est grand (β proche de 0), et lente et plus ordonnée si T est petit. On pourrait parler de phase
gazeuse et de phase liquide. La simulation suivante obtenue avec Scilab montre, pour un carré de côté 30 (en
fait, un tore : conditions au bord périodique), l’allure de Xn pour n = 50000 (noir pour +, blanc pour -).
β = 0.5
β=1
2
β=2
Téléchargement