Éléments de Thermodynamique Statistique

publicité
École nationale supérieure de chimie de Paris
Éléments de
Thermodynamique Statistique
Alain Fuchs
Septembre 2008
1
Ces choses-là sont rudes, il faut pour les comprendre avoir fait ses études
Victor Hugo
Plan du cours
I. Introduction
II. Les Ensembles Statistiques
II.1. La notion d’ensemble statistique
II.2. L’ensemble canonique
II.3. Température et entropie en thermodynamique statistique
II.4. Autres ensembles statistiques
II.5. Fluctuations et condition d’équivalence entre les ensembles
III. Application aux systèmes « dilués »
III.1. Statistiques de Boltzmann, Fermi-Dirac et Bose-Einstein
III.2. Gaz parfait
IV. L’approximation classique
IV.1. Formalisme de Lagrange-Hamilton et fonction de partition classique
IV.2. Théorème d’équipartition de l’énergie et mouvement Brownien
IV.3. Théorie des fluides moléculaires : le modèle de van der Waals
V. Retour aux ensembles statistiques : introduction aux méthodes de simulation
moléculaire
Bibliographie
-
D.A. McQuarrie, Statistical Mechanics, Univ. Science Books, Sausalito, 2000
D.A. McQuarrie et J.D. Simon, Chimie Physique : Approche Moléculaire, Dunod,
Paris, 2000
B. Diu, C. Guthman, D. Lederer, B. Roulet, Eléments de Physique Statistique,
Hermann, Paris, 1996
D. Chandler, Introduction to Modern Statistical Mechanics, Oxford Univ. Press,
1987
B. Widom, Statistical Mechanics : a Concise Introduction for Chemists, Cambridge
Univ. Press, 2002
2
I. Introduction
Expliquer du visible compliqué par de l’invisible simple
Jean Perrin
Dans la deuxième moitié du XIXe siècle, la communauté scientifique internationale
(majoritairement européenne à cette époque) adopte progressivement l’idée selon
laquelle la matière est faite d’atomes et de molécules. Un double défi est alors à relever.
Il s’agit d’une part de développer des modèles de la matière à l’échelle microscopique (ce
qui conduira au développement de la mécanique quantique), et d’autre part de faire
ensuite le lien entre l’échelle atomique et l’échelle macroscopique, ce qui conduira à la
thermodynamique statistique. Au premier de ces défis sont associés les noms de Bohr,
Schrödinger, Heisenberg, de Broglie, … Au second, on associe les noms de Maxwell,
Boltzmann et Gibbs. Einstein quant à lui a contribué a ces deux fronts de la connaissance
(en plus de la théorie de la relativité !).
Au moment où se produisent ces grandes évolutions scientifiques (au début du XXe), le
rêve est d’aboutir à une explication complète du monde basée sur la description
atomique. C’est ce que traduit la phrase de Jean Perrin citée en exergue. Aujourd’hui, on
est plus circonspect sur le fait de savoir ce qui est « simple » et ce qui est « compliqué ».
Il semble bien qu’une certaine forme de « complexité » se retrouve à toutes les échelles.
Il reste toutefois que l’interprétation des phénomènes macroscopiques à l’aide de
mécanismes microscopiques est une des aventures intellectuelles les plus fascinantes qui
soit. Pour cela, la thermodynamique statistique, par la voie traditionnelle analytique, ou
plus récemment par la voie numérique (les simulations moléculaires) est un outil d’une
grande utilité dans beaucoup de problématiques scientifiques et technologiques
contemporaines.
Les notes qui suivent ne constituent pas un ouvrage
Dans l’esprit de la réforme du cursus ingénieur, il s’agit
détails des développements formels et d’insister sur la
résultats importants sont présentés ici de façon aussi
notes ne dispense pas de la présence en cours.
complet de thermodynamique statistique.
de passer moins de temps en cours sur les
compréhension des concepts de base. Les
succincte que possible. L’existence de ces
3
II. Les ensembles statistiques
II.1. La notion d’ ensemble statistique
Les premiers développements de thermodynamique statistique sont dus à L. Boltzmann,
qui envisageait simplement l’étude statistique de N particules classiques (il n’y avait pas
de mécanique quantique en 1880) indépendantes dans un système physico-chimique
macroscopique. C’est plus tard, en 1902, que J.W. Gibbs (dont le portrait est reproduit
ci-dessous), proposa une version plus élaborée de la mécanique statistique, en y
introduisant la notion d’ensemble statistique (dans Elementary Principles of Statistical
Mechanics)
Le concept d’ensemble statistique peut-être simplement compris comme la réalisation
d’une expérience de pensée d’une mesure physico-chimique. Une observable
physicochimique s’effectue sur un temps « long » devant les temps caractéristiques
moléculaires. On laissera de côté ici pour l’instant les expériences contemporaines qui se
font aux temps « ultra-courts », et on se référera simplement par exemple à une mesure
de pression d’un gaz à l’équilibre dans un récipient fermé, effectué à l’aide d’un
manomètre. Le chiffre donné par l’appareil de mesure résulte de toute évidence d’une
moyenne effectuée au cours du temps sur un grand nombre d’états microscopiques du
même système.
t
t
t
t
…
C’est cette idée qui est reprise dans la notion d’ensemble statistique.
Un ensemble statistique est un ensemble de A systèmes identiques (avec A " # ).
L’ensemble est fermé, isolé (voir ci-dessous). Pour des raisons pratiques, on ne définit
pas l’ensemble statistique comme dans le schéma ci-dessus, à partir d’une suite
temporelle d’états du même système. Ces deux notions sont toutefois équivalentes.
!
À l’équilibre thermodynamique, une moyenne effectuée sur une suite d’états du même
système est équivalente à la moyenne effectuée sur une suite de systèmes différents
mais identiques. Cette propriété est reliée à la notion d’ergodicité dans la théorie des
systèmes dynamiques.
4
1
2
Ensemble statistique
3
.
.
.
A
t
t
t
t
t
...
B
<u>A = <u>B = observable macroscopique
Ergodicité
.
.
.
Hypothèse fondamentale de la thermodynamique statistique
A
5
Soit u une grandeur (ou variable) mécanique caractéristique du système, et qui peut
prendre l’une des r valeurs discrètes u1, u2, u3,…. ur avec les probabilités associées P1, P2,
P3,…. Pr.
u prendra la valeur ui dans A systèmes, avec Ai = Pi A
Considérons A systèmes, avec
A"#
La valeur moyenne de la grandeur u, prise sur l’ensemble statistique sera donc:
!
u
A
=
A1u1 + A2u2 + ...Ar ur
A
… II.1.1
r
"Au
i
!
=
u
!
i=1
i
… II.1.2
A
r
A
=
"P u
i
… II.1.3
i
i=1
On parle couramment de « moyenne d’ensemble ». Ainsi, par exemple, la moyenne
d’ensemble de l’énergie, prise sur toutes les valeurs Ej accessibles au système s’écrira:
!
E
A
=
"P E
j
.. II.1.4
j
j
Cette moyenne d’ensemble à la signification physique de l’énergie interne
thermodynamique U. D’une manière générale, on associera chacune des moyennes
d’ensemble de grandeurs
mécaniques microscopiques à une observable macroscopique.
!
Par exemple :
E
p
A
A
=
"P E
j
j
=U
j
=
" P j pj = P
… II.1.5
j
où P est la pression, telle qu’elle est définie en thermodynamique. On définira plus loin
un « équivalent microscopique » de la pression pj.
!
Le problème fondamental de la thermodynamique statistique est donc celui de calculer la
probabilité (Pj) de trouver un système dans l’état j. Les variables dites « mécaniques »
(Ej, pj) sont fournies par la mécanique quantique ou classique. Les équations II.1.3 à
II.1.5 indiquent comment la combinaison de ces données permet d’obtenir les moyennes
d’ensemble que l’on identifie à des observables macroscopiques.
6
II.2. L’ensemble canonique
There is essentially one problem in statistical thermodynamics :
the distribution of a given amount of energy E over N identical systems.
Or perhaps better : to determine the distribution of an assembly of
N identical systems over the possible states in which the assembly
can find itself, given that the energy of the assembly is a constant E
Erwin Schrödinger
Statistical Thermodynamics
Cambridge Univ. Press, 1946
L’ensemble appelé canonique est un ensemble de A systèmes identiques, fermés, non
isolés, plongés dans un bain thermique à température constante. Le nombre de
particules N et le volume V de chaque système est constant. On parle d’un système à
(N,V,T) constants.
L’ensemble est isolé, son énergie totale, E est constante. Chaque système se trouve dans
un des états quantiques accessibles j, avec une énergie Ej. Cette énergie peut, a priori,
varier d’un système à un autre. Il faut donc examiner la façon dont l’énergie totale E se
répartit entre les A systèmes.
On appelle distribution une répartition d’énergie dans laquelle a1 systèmes se trouvent
dans l’état 1 avec l’énergie E1, a2 dans l’état 2, a3 dans l’état 3, … aj dans l’état j. On
notera une telle distribution
a
Il existe a priori plusieurs distributions possibles. Chaque distribution
!
aux contraintes suivantes
:
"a
j
j
=A
"aE
j
j
j
a doit satisfaire
… II.2.1
!
=E
… II.2.2
!
Il existe, pour chaque distribution a un nombre W( a ) de façons de la réaliser (les
systèmes macroscopiques étant discernables) :
!
!
( ) "A!a !
!
Wa =
j
… II.2.3
j
Dans une distribution particulière a , il existe (aj /A) systèmes dans l’état j avec l’énergie
Ej. Cette fraction d’états dans l’état j change évidemment d’une distribution à une autre.
!
La probabilité Pj de trouver un système dans l’état j dans l’ensemble canonique s’obtient
en moyennant cette fraction
! sur toutes les distributions possibles :
7
aj
Pj =
A
=
a
1
A
"
() ()
" W(a)
a
W a aj a
… II.2.4
a
La résolution !
de l’équation II.2.4. s’effectue à l’aide de la méthode de la distribution la
plus probable. On utilise ici une propriété du coefficient multinomial W( a ) qui se
comporte sensiblement comme une gaussienne, centrée sur la distribution la plus
probable. Cette dernière devient de plus en plus probable (l’écart type de la gaussienne
diminue) au fur et à mesure que A augmente. À la limite A " # la distribution la plus
a * est infiniment plus probable que toutes les !autres distributions
(techniquement W( a ) devient une fonction généralisée de Dirac " a # a * . Dans les
! la distribution la plus probable est
sommes qui figurent dans l’équation II.2.4., seule
maintenant
prise
en
compte.
!
!
!
probable, notée
(
Pj =
( ) ( )
( )
)
( )
aj a *
1 W a * aj a *
=
… II.2.5
A
A
W a*
que l’on écrira simplement
!
Pj =
aj *
… II.2.6
A
aj* est la valeur de aj (le nombre de systèmes qui se trouvent dans l’état j dans
!
l’ensemble canonique), dans
la distribution la plus probable
a * . Cette distribution est
celle pour laquelle on observe le maximum de W( a ) en présence des contraintes II.2.1
et II.2.2.
! : il faut exprimer la condition
Le problème se simplifie donc de la manière suivante
!
d’extremum de la fonction W( a ) en présence
de deux contraintes sur les coefficients aj.
Nous utiliserons la méthode très pratique et générale des multiplicateurs indéterminés de
Lagrange. Dans ce cadre, on recherchera l’extremum de ln W( a ) pour des raisons
pratiques (cela nous permettra d’utiliser plus loin la formule de Sterling pour les
factorielles : lnN ! = !
N ln N - N). Ces conditions s’écrivent
!
"
ln W a # $& ai # %& aiEi = 0 ; " j
i
i
" aj
[
]
()
… II.2.7
α et β sont deux multiplicateurs indéterminés de Lagrange (un pour chaque contrainte).
!
!
8
Le développement de l’équation II.2.7 conduit à l’expression suivante
" ln a#j + ln A " $ " % E j = 0 … II.2.8
ou
!
#& E j
a"j = e# %$e
… II.2.9
avec α’=α-ln A
! II.2.6, en se souvenant que
On revient alors à l’équation
A=
#
$' E j
j
a"j = e$ &% # e
j
Et alors
Pj =
"# E j
e
"# E j
$e
!
… II.2.10
j
L’équation II.2.10 est !la formule de base de l’ensemble canonique. Elle donne la
probabilité de trouver un système dans l’état j avec l’énergie Ej. Avec ce résultat, on a
donc quasiment résolu la question fondamentale de la thermodynamique statistique. Il
reste que Pj est fonction du multiplicateur indéterminé β. Nous allons maintenant
démontrer que β vaut 1/kT.
II.3. Température et entropie en thermodynamique statistique
Une théorie est d'autant plus influente qu'elle donne plus de simplicité à ses
prémisses, qu'elle associe un grand nombre de types d'objets distincts, et que son
domaine d'application est étendu. C'est de là que découle l'impression profonde
qu'exerça sur moi la thermodynamique classique. C'est la seule théorie physique
d'une portée universelle dont je sois convaincu que, dans le domaine d'application
défini par ses concepts fondamentaux, elle ne sera jamais remise en question.
Albert Einstein
Afin de déterminer la valeur du multiplicateur de Lagrange β, nous allons écrire quelques
équations, sur la base des relations II.1.3 à II.1.5, et identifier la relation finale avec la
relation de thermodynamique macroscopique suivante :
# "U &
# "P &
%
( = T%
( )P
$ " V 'T
$ " T 'V
!
… II.3.1
9
Commençons par définir l’équivalent microscopique de la pression pj. En raisonnant sur
deux ensembles canoniques, dont les systèmes sont à (N,V,T) et (N,V+dV,T)
respectivement, on montre que :
$ #E '
p j = "&& j ))
% # V (N
… II.3.2
La pression macroscopique s’écrira donc :
!
p =
% $E (
' j **
P
p
=
#
P
"j j j
j'
& $ V )N
… II.3.3
Dans un système fermé (N = const.), on trouve
!
" p dV =
#
j
Pj dE j = dWrev
…II.3.4
Cette relation sera utilisée plus loin pour le calcul de l’entropie dans l’ensemble
canonique.
!
On écrira séparément les grandeurs <E>, <p>, <Ep> et <E><p>, en utilisant le
formalisme des équations II.1.3 à II.1.5. On montre alors que :
#" E &
%
( = * p + ) Ep * ) E p
% "V (
$
'N,)
#" p &
%
(
= E p * Ep
% "V (
$
'N,V
… II.3.5
Ensemble, ces deux relations conduisent à :
!
#" E
%
% "V
$
ou
#" E
%
% "V
$
!
&
#" p
( + )%
(
% ")
'N,)
$
&
(
=*p
(
'N,V
… II.3.6
&
#"p &
(
(
* 1/)%
=*p
(
% "1 / ) (
'N,1 / )
$
'N,V
10
En identifiant cette relation à l’équation II.3.1, on trouve β=const./T
On pose
"=
1
kT
… II.3.7
avec k : constante de Boltzmann
k = 1.38 10-23 J. K-1
!
On connaît donc maintenant l’expression complète de la probabilité dans l’ensemble
canonique :
"
Pj =
e
Ej
"
kT
"
#e
Ej
=
kT
Ej
e
… II.3.8
Q
kT
j
"Ej
avec
!
Q=
#e
kT
j
la fonction de partition du système.
!
Remarque sur la notion de température en thermodynamique statistique : Les
énergies Ej, qui sont les valeurs propres de l’hamiltonien quantique total du système,
sont fonctions de la masse de la (ou des) particule(s) composant le système, du nombre
de particules et du volume. Dans l’exemple standard de la particule dans un puits de
potentiel infini aux bornes et nul au centre, on trouve (voir le cours de mécanique
quantique):
Enx ,ny ,nz =
h2
2
(n + n + n )
2
x
2
y
2
z
… II.3.9
8mV 3
Les Ej ne dépendent que des variables « mécaniques » du système. Elles sont en effet
issues d’un calcul de mécanique (quantique ou plus loin dans le cours, classique). La
température n’apparaît
que lorsque l’on procède au calcul de la moyenne d’ensemble de
!
l’énergie
E =
" P E , à travers l’expression de la probabilité. La température, variable
j
j
j
thermodynamique, est un concept statistique. Il n’existe pas d’équivalent microscopique
de la température, ni d’ailleurs de l’entropie, comme on va le voir ci-dessous.
!
L’entropie dans l’ensemble canonique est calculée de la façon suivante. Considérons
la fonction f=ln Q
11
$ "f '
$"f'
)) dE j
df = & ) d# + * &&
j
"E
% "# (E j
% j (#
… II.3.10
En explicitant les dérivées partielles, on trouve
!
df = " E d# " #$ Pj dE j
j
et
…II.3.11
(
d f+ # E
) = #(d E
)
" $ PjdEj = # dQrev
j
et donc
!
S = k lnQ+
E
T
+ constante
… II.3.12
On peut montrer (voir bibliographie), que la constante d’intégration vaut zéro.
!
Résumé : les relations fondamentales dans l’ensemble canonique. La fonction clé
de l’ensemble canonique est la fonction de partition Q. On peut exprimer plusieurs
grandeurs macroscopiques en fonction de Q :
# "lnQ &
E = kT 2 %
(
$ " T 'N,V
# "lnQ &
p = kT%
(
$ " V 'N,T
… II.3.13
F = U) TS = ) kT lnQ
Signalons enfin que Q peut s’écrire de la façon suivante :
!
Q=
$ E(N,V) /kT
# " (N, V,E) e
… II.3.14
E
où Ω(N,V,E) est le nombre de microétats quantiques d’énergie E (dégénérescence du
niveau d’énergie E).
!
12
II.4. Autres ensembles statistiques
On peut, sur le même principe que ce qui a été développé ci-dessus, construire d’autres
ensembles statistiques que l’ensemble canonique. Ceux-ci varieront par les conditions
imposées à chaque système dans l’ensemble statistique. Si l’ensemble canonique est tel
que chaque système est à (N,V,T) constants, d’autres ensembles seront tels que :
µ,V,T constants : c’est l’ensemble dit « grand canonique »
N,V,E constants : ensemble « microcanonique »
N,p,T constants : ensemble isobare-isotherme
… etc
On peut, selon les conditions thermodynamiques qui nous intéressent pour un problème
particulier, inventer un nouvel ensemble statistique et effectuer le travail de
détermination de la probabilité de trouver le système dans l’état j, en définissant au
passage la fonction de partition spécifique à cet ensemble.
A titre d’exemple, l’ensemble grand canonique est tel que chaque système est ouvert (N
variable), mais à l’équilibre avec tous les autres systèmes identiques (µ constant).
L’ensemble reste fermé (N constant) isolé (E constant), et les contraintes auxquelles les
répartitions d’énergie doivent satisfaire s’écrivent ici
" "a
" "a
" "a
N
j N,j
N
j N,j
N
j N,j
= A
EN,j = E
… II.4.1
N=N
À ces trois contraintes seront associés trois multiplicateurs indéterminés de Lagrange, au
moment d’écrire les conditions d’extremum du facteur multinômial
!
( ) " "A! a
Wa =
N
N,j
j
… II.4.2
!
On montre alors que la fonction de partition vaut
!
(
#$ EN, j
) % %e
" V, T,µ =
N
j
e#& N
… II.4.3
et que la probabilité dans l’ensemble grand canonique s’écrit
!
PN,j =
"# EN, j
e
e"$ N
%
… II.4.4
!
13
avec : β=1/kT et γ=-µ/kT
Les grandeurs macroscopiques accessibles au moyen de cet ensemble (c’est à dire par le
calcul de la fonction de partition Θ) sont, entre autres :
$ "ln # '
ln #
p = kT&
) = kT
V
% " V (µ,T
$ "ln # '
N = kT&
)
% "µ ( V,T
$ "ln # '
S = k ln # + kT&
)
% " T ( V,µ
… II.4.5
On trouvera dans la bibliographie, par exemple dans l’ouvrage de D. McQuarrie, une liste
des principaux
! ensembles et des équations correspondantes. Signalons que dans
l’ensemble microcanonique (chaque système est isolé), la fonction de partition n’est
autre que Ω(N,V,E), le nombre de microétats quantiques du système. Dans l’ensemble
microcanonique, l’entropie s’écrit S=k lnΩ.
La question se pose, à ce stade, de savoir s’il est absolument nécessaire, pour un
problème physico-chimique donné, de se référer à l’ensemble statistique correspondant
aux conditions thermodynamiques du problème. La réponse est (heureusement) non,
dans le cas général de systèmes macroscopiques, c’est à dire pour lesquels N " # (on
appelle cela la « limite thermodynamique »). On va le voir ci-dessous.
II.5. Fluctuations et condition d’équivalence entre les ensembles
! statistiques
Examinons les fluctuations d’énergie dans l’ensemble canonique, c’est à dire la façon
dont l’énergie d’un système donné diffère de l’énergie moyenne <E>.
"E2 =
(
E# E
)
2
= E2 # E
2
=
$P E #
j j
2
j
E
2
… II.5.1
en développant la somme dans le membre de droite on trouve
!
$# E
" = kT &
& #T
%
2
E
2
'
)
= kT 2 C V
)
(N,V
… II.5.2
la dispersion relative
de l’énergie vaut
!
14
"E
E
1/ 2
(kT C )
=
2
V
E
… II.5.3
On peut estimer l’ordre de grandeur de cette dispersion, en considérant le cas du gaz
parfait (Cv = 3/2 Nk et <E>=3/2 NkT). On trouve alors que
!
"E
E
# N$1 / 2 … II.5.4
pour un système à la limite thermodynamique (N~1023), la dispersion relative est de
l’ordre de 10-12. Ainsi la probabilité de trouver un système avec une énergie E est une
fonction très étroite centrée
sur <E>. Tout se passe comme si chaque système se
!
trouvait à une énergie identique, <E>, alors qu’il ne s’agissait pas là d’une contrainte
spécifique de l’ensemble canonique. En conséquence, pour N grand
(
) # "(E) e
$ E/kT
Q N, V, T =
( )
$ E /kT
=" E e
E
… II.5.5
et en utilisant l’expression de F dans l’ensemble canonique, on trouve
()
S = k ln " E … II.5.6
!
qui est justement l’expression de l’entropie dans l’ensemble microcanonique. À l’équilibre
thermodynamique, et pour N " # , l’ensemble canonique est équivalent à l’ensemble
microcanonique : chaque!système se trouve à une énergie <E> identique.
Ce résultat est général. On peut montrer que tous les ensembles sont équivalents
lorsque N " # . Dans
l’ensemble grand canonique, par exemple, la fluctuation du
!
nombre de particules dans chaque système varie également comme 1/N1/2. À la limite
thermodynamique, l’ensemble grand canonique est équivalent à l’ensemble canonique.
Ce résultat est important. Il a pour conséquence que le physico-chimiste peut calculer la
!fonction de partition qui lui convient le mieux, en fonction des données disponibles, en
vue d’accéder à une grandeur macroscopique. Mais ceci n’est vrai qu’à la limite
thermodynamique ( N " # ). Pour des systèmes de taille finie, avec N suffisamment petit
(dans toutes les applications « nano » par exemple), les résultats issus d’ensembles
statistiques différents ne seront pas comparables. Il faudra dans ce cas effectuer les
calculs dans l’ensemble correspondant strictement aux conditions de l’expérience.
!
15
III. Application aux systèmes « dilués »
III.1. Statistiques de Boltzmann, Fermi-Dirac et Bose-Einstein
À ce stade de l’exposé des éléments de thermodynamique statistique, on peut résumer le
problème de la façon suivante : il suffit de savoir calculer la fonction de partition du
système physico-chimique qui nous intéresse (à partir de données de mécanique
quantique ou classique), pour accéder complètement à la thermodynamique de ce
système. Le problème semble ainsi « résolu », et il ne reste plus qu’à passer aux
applications. C’est formellement vrai, mais pas encore praticable aisément dans des
problèmes concrets. En effet, la fonction de partition dont il a été question jusqu’à
maintenant est la fonction de partition du système dans sa totalité (N particules dans un
volume V à la température T, pour l’exemple de l’ensemble canonique). Le calcul de Q
dans un tel système nécessite la connaissance des toutes les énergies Ej pour le système
complet de N particules, ce qui n’est pas accessible aujourd’hui.
Face à cette difficulté, plusieurs hypothèses peuvent être effectuées pour simplifier le
problème. La première est celle de l’hypothèse mono-particulaire. On sépare
l’hamiltonien quantique total du système en une somme d’hamiltoniens correspondants
aux particules séparées. À l’intérieur d’une même particule (molécule) il est raisonnable
de séparer l’hamiltonien total en une somme d’hamiltoniens partiels correspondants aux
processus translationnel, rotationnel, vibrationnel, électronique, … On parle dans ce cas
de l’hypothèse mono-quasi-particulaire. Dans ce cas, l’énergie totale sera la somme des
énergies des particules, ou des quasi-particules. Mais le problème du calcul de la fonction
de partition n’est pas pour autant encore résolu.
En effet, si l’on écrit simplement la fonction de partition dans l’ensemble canonique de la
manière suivante
Q=
% $a + $b + $c + ...(
j
k
' i
* … III.1.1
...exp"
#i#j#k
'
*
kT
&
)
où ειa correspond à l’énergie de la particule a dans l’état i. Si particules étaient
discernables on pourrait alors écrire
!
Q = qaqbqc ... =
"q
i
… III.1.2
i
et dans le cas de N particules identiques
!
Q = qNparticule … III.1.3
Mais, dans le cas général, les particules qui nous intéressent sont indiscernables. La
somme dans l’équation !
III.1.1 est donc soumise à des restrictions, qui ne sont pas les
mêmes si les particules sont des bosons ou des fermions. On rappelle en effet que deux
bosons peuvent occuper la même case quantique, alors que ce n’est pas le cas pour les
fermions. La somme dans III.1.1 est impossible à calculer dans le cas général des bosons
16
ou des fermions. On montre (voir bibliographie) qu’il faut passer par le calcul de la
fonction de partition dans l’ensemble grand canonique. Il existe toutefois un cas limite
pour lequel le calcul de Q est possible, c’est celui pour lequel la probabilité d’observer
deux particules dans le même état quantique est négligeable. Cela se produit lorsque le
nombre d’états accessibles est très grand devant le nombre de particules (on parle de
système « dilué »). Dans ce cas, l’immense majorité des termes de la somme dans
III.1.1 se trouvent sous la forme (εi+εj+εk+εl+εm+...), avec i≠j≠k≠l≠m. Il existe alors N !
termes identiques pour chaque combinaison i,j,k,l,m,… Les particules étant
indiscernables, il suffit d’effectuer la somme III.1.1 sans restriction, et de diviser chacun
des termes obtenus par N !
Q=
qNpart
N!
… III.1.3
où qpart est la fonction de partition de la particule isolée. L’équation III.1.3 correspond à
la statistique de Bolzmann
! (où de Maxwell-Boltzmann) pour N particules identiques.
Examinons la condition de validité de l’hypothèse de « dilution » (nombre d’états
accessibles >>N). Considérons le cas simple de la particule dans le puits de potentiel
infini. Le nombre d’états dont l’énergie est ≤E est donné par
()
"E =
#
6 h3
(8mE)
3/2
V
… III.1.4
Pour un gaz moléculaire (m=10-25kg), dilué, à la température de 300 K, dans une boîte
cubique de 0.1 m de côté, on trouve une valeur de Φ de l’ordre de 1030.
!
La condition Φ(E)>>N s’écrit
3/2
6 N #12mkT &
<< 1
%
(
" V $ h2 '
… III.1.5
le membre de gauche de l’inégalité III.1.5 prend les valeurs suivantes pour différents
systèmes simples!:
Helium liquide à la température de 4 K : 1,6
He gazeux à 4 K : 0,11
He gazeux à 100 K : 3,5 10-5
He liquide à 86 K : 1.6 10-5
Electron de conduction dans un métal (Na) à 300 K : 1465
La condition d’applicabilité de la statistique de Boltzmann est d’avoir des particules de
masse « élevées » (des atomes ou molécules, et pas des électrons), et une température
« suffisamment élevée » également (pas voisine du zéro absolu). C’est une excellente
approximation pour des systèmes atomiques ou moléculaires à température ambiante.
17
Application : « la formule de Boltzmann » en spectroscopie. Dans le cadre de la
statistique de Boltzmann, on peut écrire
(
)
# "lnQ &
)j exp *)j /kT
E = kT 2 %
= N+
=N)
(
j
qpart
$ " T 'N,V
… III.1.6
où q est la fonction de partition de la particule isolée (notée qpart plus haut). Les εj sont
les !
énergies des états accessibles à cette particule.
On peut alors écrire, pour la particule isolée, des équations de thermodynamique
statistique semblables à celle que l’on a développées pour un système complet de N
particules
#$ /kT
n
e j
"j =
= j
qpart
N
… III.1.7
où πj est la probabilité de trouver la particule dans l’état j, et nj le nombre de particules
du système qui se trouvent
dans l’état j.
!
Considérons deux niveaux d’énergie i et j de la particule isolée, séparés de ΔE=(εj-ει)=hν.
On peut écrire
ni
= exp "j # "i /kT
nj
[(
)
]
… III.1.8
ce qui n’est autre que la « formule de Boltzmann » utilisée couramment en spectroscopie
pour évaluer les !
rapports des populations de différents états fondamentaux et/ou excités
par exemple.
III.2. Le gaz parfait
Le gaz parfait constitue l’application standard de la thermodynamique statistique. On la
trouve (détaillée) dans tous les ouvrages en langue française notamment. Nous ne
reprendrons ici que les résultats principaux et le lecteur se référera à la bibliographie
pour les détails des calculs. Une partie de ces résultats est utile, en spectroscopie par
exemple, et c’est la raison pour laquelle nous y passerons un peu de temps. Toutefois,
l’intérêt majeur de la thermodynamique statistique aujourd’hui, est d’aborder les
systèmes composés de particules en interaction ! Nous insisterons donc plutôt sur ce
dernier aspect dans les chapitres suivants consacrés à l’approximation classique puis à
ses applications aux fluides moléculaires réels.
18
Le modèle microscopique du gaz parfait est un ensemble de particules indépendantes,
chacune se comportant comme la « particule dans une boîte », c’est-à-dire dans un puits
de potentiel infini aux bornes et nul au centre. Au vu de ce qui a été développé en III.1.,
on peut donc écrire
N
Htot =
"H
part
i=1
N
Etot =
Q=
"#
…III.2.1
i
i=1
N
part
q
N!
De plus, l’hamiltonien de chaque particule, Hpart peut lui même être exprimé en fonction
d’hamitoniens partiels
!
Hpart = Htranslation + Hélectronique + Hnucléaire + Hvibration + Hrotation … III.2.2
et ainsi
!
Q=
qtransqelecqnuclqvibqrot
N!
III.2.3
On montre (voir bibliographie) que
!
qtrans
# 2" mkT & 3 / 2
=%
( V
2
$ h
'
III.2.4
Les fonctions de partition électroniques et nucléaires ne contribuent, pour un grand
nombre de processus physico-chimiques, qu’à une constante à qtotal : la degré de
dégénérescence de
! l’état fondamental. Le premier état excité étant trop éloigné en
énergie pour les processus thermiquement activés. Dans le cas de processus
photochimiques par exemple, il faudra tenir compte explicitement des états peuplés au
cours du processus
qelec =
#"
$
ei
e
%i
kT
III.2.5
i
Le modèle microscopique standard pour la vibration moléculaire est l’oscillateur
harmonique quantique![εn=(n+1/2)hν ; n=0, 1, 2, …]. On montre que
19
qvib =
e"# h $ / 2
1 " e"# h $
III.2.6
On définit une température caractéristique de vibration Θv=hν/k (pour la majorité des
molécules Θv >>Tambiante). À suffisamment haute température qvib=T/Θr.
!
Le modèle microscopique standard pour la rotation moléculaire est le rotateur
rigide [εj=BJ(J+1) ; J=0, 1, 2.. ; B=h/8π2Ic ; I=µre2]. On définit une température
caractéristique rotationnelle Θr=hB/k (pour la majorité des molécules Θr <<Tambiante). On
trouve alors :
qrot =
8" 2 IkT
h2
=
T
; #r << T
#r
… III.2.7
Ce dernier résultat est valable pour une molécule diatomique héteronucléaire. Des
considérations subtiles de couplage spin-orbite conduisent, pour une molécule
héteronucléaire,
! à écrire qrot=T/2Θr. Le lecteur intéressé consultera la bibliographie.
20
IV. L’approximation classique
L’équation III.2.4. ci-dessus, pour la fonction de partition translationnelle d’une particule
de gaz parfait peut-s’écrire
qtrans =
V
"3
… IV.1
où Λ a les dimensions d’une longueur. On l’appelle « longueur d’onde thermique de
de Broglie », pour les raisons suivantes. L’énergie moyenne d’une telle particule vaut
<ε>=3/2 kT. En mécanique
! classique, on écrit l’énergie translationnelle d’une particule
sous la forme p2/2m (où p est la quantité de mouvement). En combinant ces deux
relations on trouve
(
p = 3mkT
1/ 2
)
… IV.2
or la longueur d’onde de de Broglie associée à une particule de quantité de mouvement p
vaut : λ=h/p. On en déduit que
!
# h2 &1 / 2
" = %%
((
$ 3mkT '
… IV.3
ce qui, à une constante près (voisine de l’unité), est équivalent à Λ.
La condition d’applicabilité
de la statistique de Boltzmann (équation III.1.5) peut alors
!
s’écrire
N
V "3
<< 1
… IV.4
or, (V/N) est le volume occupé en moyenne par une particule dans un système
homogène à l’équilibre. L’équation IV.4 s’écrit donc
!
"3
vparticule
<< 1 … IV.5
La traduction de cette relation est la suivante : la statistique de Boltzmann s’applique
lorsque Λ est petite devant la dimension de l’espace occupée en moyenne par une
particule du système. Dans
! ces conditions, les effets quantiques deviennent négligeables.
La particule peut-être considérée en très bonne approximation comme « localisée ». On
se situe à la limite classique de la mécanique quantique.
21
IV.1. La fonction de partition classique
On va chercher à construire une expression de la fonction de partition (dans l’ensemble
canonique) sur les bases de la mécanique classique. L’objectif n’est pas de faire du
formalisme par plaisir. On verra que l’on ne peut démontrer quelques relations
importantes pour la chimie (comme le théorème d’équipartition de l’énergie) que dans le
cadre de l’approximation classique.
L’idée est assez simple. Il s’agit d’écrire une relation de ce type
qclassique "
# H(q1 ,...qs ;p1 ....ps ) /kT
$ ... $ e
dq1 ....dps … IV.1.1
L’énergie n’étant plus quantifiée, on transforme la somme en intégrales. Il faut alors
trouver l’équivalent classique de l’énergie Ej. Plusieurs possibilités sont ouvertes pour
cela. La
! plus efficace consiste à utiliser l’Hamiltonien classique H. La fonction H de
Hamilton s’écrit, pour une particule :
(
)
(
)
(
H q1, q2 ,...qs;p1,p 2 ,...ps = K p1,p 2 ,...ps + U q1, q2 ,...qs
)
… IV.1.2
où K est l’énergie cinétique de la particule. Elle ne dépend, en mécanique classique non
relativiste, que des quantités de mouvement pi.
!
U est l’énergie potentielle qui ne dépend que des coordonnées qi.
Dans cette expression, s est le nombre de degrés de liberté nécessaire pour définir l’état
du système. Par exemple, dans le cas d’une masse ponctuelle trois coordonnées sont
nécessaires (en coordonnées cartésiennes : q1=x, q2=y, q3=z), auxquelles on associe
trois quantités de mouvements (dites-conjuguées) : p1=px=mvx2, p2=py=mvy2,
p3=pz=mvz2.
Le dernier point à considérer pour construire la fonction de partition classique est la
nécessité d’une équivalence stricte avec la fonction de partition que l’on a définie plus
haut dans le cadre général quantique. Un simple examen de la relation IV.1.1 montre
que le membre de droite n’est pas sans dimension, comme devrait l’être la fonction de
partition. On montre en effet qu’il faut corriger cette expression de la façon suivante pour
obtenir une « vraie » fonction de partition
# s
&
%
qcl = s * ... * %" dqidpi (( e) H(q1 ,...qs ;p1 ....ps ) /kT
h
$ i=1
'
1
… IV.1.3
On généralise cette expression à un système formé de N particules atomiques
!
1 1
Qcl =
N! h3 N
# 3N
&
%
* ... * %" dqidpi (( e) H(q1 ,...q 3N ;p1 ....p 3N ) /kT
$ i=1
'
… IV.1.4
Dans le formalisme présenté ici, on a introduit des coordonnées notées qi et des
quantités
de mouvement conjuguées, notées pi. On dit que ces coordonnées et ces
!
22
quantités de mouvements sont généralisées. En effet, on peut montrer, dans le cadre
général de la mécanique de Lagrange-Hamilton, que les équations du mouvement y sont
indépendantes du système de coordonnées (cartésiennes, polaires, …). Ce n’est pas le
cas dans le formalisme de Newton (voir McQuarrie, Statistical Mechanics). Lagrange a
introduit pour cela une fonction L=K-U et a développé un formalisme dans lequel les
équations du mouvement s’écrivent sous la forme de dérivées de L par rapport aux qi et
•
qi . Dans le formalisme d’Hamilton, on introduit la quantité de
#
&
•
% "L (
mouvement généralisée pi = %
. L’Hamiltonien est défini par H = " p j qj # L , et les
• (
i
%
(
!
$ " qi '
à leurs dérivées
équations d’Hamilton, toujours invariantes par rapport au système de coordonnées,
s’écrivent cette fois en fonction des qi et des p i. Le point crucial est alors que
!
l’Hamiltonien est égal à l’énergie totale du système, comme
indiqué dans la relation
IV.1.2. D’où son!utilité pour construire la fonction de partition sur des bases classiques.
Considérons, en guise d’application, un cas simple, celui d’une masse ponctuelle soumise
à un potentiel harmonique à une dimension x (oscillateur harmonique classique).
L’Hamiltonien de la particule s’écrit simplement
H = K+ U =
px2
1
+ kx 2
2m 2
… IV.1.5
L’état complet du système peut-être représenté à un instant t par un point de
coordonnées (x,px) dans un espace à deux dimensions appelé espace des phases du
système. La trajectoire
du système dans son espace des phases est ici une simple ellipse.
!
Dans un système dynamique comprenant s degrés de liberté, l’espace des phases
possède 2s dimensions. Cette notion d’espace des phases est très utilisée dans l’étude
des systèmes dynamiques complexes en chimie, physique et biologie (réactions
oscillantes, structures spatio-temporelles issues du chaos déterministe, …).
IV.2. Théorème d’équipartition de l’énergie
Considérons un système physico-chimique pour lequel l’Hamiltonien classique s’écrit
(
)
( )
(
)
H = H q1,...qs;p1,...ps = Hi pi + H" q1,...qs;p1,...pi#1,pi+1,...ps … IV.2.1
avec Hi=api2 (un terme quadratique d’une quantité de mouvement).
! La moyenne de Hi dans l’ensemble canonique s’écrira
Hi =
"# H
$ ... $ (dq ...dp ) e
$ ... $ (dq ...dp ) e
s
1
1
s
Hi
"# H
=
"# Hi
$ dp H e $ ... $ (dq ...dp dp
$ dp e $ ... $ (dq ...dp dp
i
i
i
1
"# Hi
1
i"1
i"1
i+1
i+1
...dps e"# H%
)
...dps e"# H%
)
… IV.2.2
!
23
ce qui se simplifie en
'+%
*
#ln) & dpie"$ Hi ,
)("%
,+ 1
Hi = "
= kT
#$
2
…. IV.2.3
C’est le théorème d’équipartition de l’énergie : pour un système à l’équilibre
thermodynamique
à température T, chaque terme quadratique indépendant de
!
l’hamiltonien classique contribue pour 1/2kT à l’énergie moyenne du système.
Quelques exemples :
- Une particule de gaz parfait : H = 1/2m (px2+ py2+ pz2) ; <H> = 3 . (1/2) kT
- L’oscillateur harmonique à une dimension : H = px2/2m + ½ kx2 ; <H>=2 . 1/2kT
- Le mouvement Brownien : considérons une particule en suspension dans un fluide. Son
hamiltonien classique peut s’écrire comme la somme de son énergie cinétique de
translation et d’un terme supplémentaire qui comprend toutes les autres contributions
(notamment son interaction avec le milieu ambiant)
H=
1
px2 + py2 + pz2 + H" … IV.2.4
2m
(
)
chaque terme quadratique contribue pour ½ kT à l’énergie moyenne. Dans une direction
de l’espace quelconque x, on trouve
!
px2
1
1
=
mvx2 = kT … IV.2.5
2m
2
2
et donc
vx2 = kT/m …. IV.2.6
!
La dispersion de la vitesse dans la direction x, autour de la moyenne <Vx> s’écrit
2
la vitesse moyenne de la particule est nulle (moyenne sur
"v2x = vx2 # vx et comme
!
un temps long), on trouve
!
1/ 2
(" )
2
vx
=
1/ 2
(v )
2
x
# kT &1 / 2
=% (
$m'
… IV.2.7
La vitesse instantanée de la particule en suspension est donc différente de zéro. Elle
fluctue constamment autour de <Vx>=0. Sa valeur dépend de sa masse et de la
température du
! système. C’est la démonstration de l’origine physique du mouvement
brownien. Cette démonstration constitue le début d’un célèbre article d’Einstein, publié
en 1905 dans Ann. Phys. Et qui se conclut par les formules permettant de calculer le
24
coefficient d’autodiffusion d’une particule dans un fluide en fonction de son déplacement
carré moyen
D = lim
t "#
2
1
r(t) $ r(0)
6t
… IV.2.8
IV.3. Théorie des
! fluides moléculaires : le modèle de van der Waals
Nous abordons dans ce chapitre la question de la prise en compte des interactions entre
les particules composant un système physico-chimique donné. Il s’agit d’évaluer la
capacité de la thermodynamique statistique analytique, telle qu’on l’a développée ici, de
rendre compte du comportement de systèmes réalistes, au-delà du cas d’école du gaz
parfait.
On considère un fluide monoatomique constitué de N particules identiques. Son
hamiltonien classique s’écrit
1 #N 2
%%" pxi + pyi2 + pzi2
H=
2m $ i=1
(
)
&
(( + U x1 ....zN …. IV.3.1
'
(
)
où U est l’énergie potentielle totale d’interaction des particules entre elles.
La fonction
!de partition dans l’ensemble canonique s’écrit
Q=
1
N!"3 N
Z
… IV.3.2
avec
! Z=
" ... " (dx ...dz
1
N
)e
# U/kT
… IV.3.3
Z est appelée intégrale de configuration. Le problème central est évidemment le calcul de
Z. Il faut pour cela se donner un modèle pour l’interaction entre les particules. On
considérera que
! celles-ci interagissent selon un potentiel additif de paires
U=
1
# # u2 rij
2 i j"i
( )
… IV.3.4
u2(rij) est l’énergie potentielle d’interaction entre une paire quelconque de particules
situées à une distance rij. Dans le modèle de van der Waals, la forme de ce potentiel de
paire est celle des «sphères
dures attractives »
!
25
6
#r &
= " u0 %% 0 (( ; rij > r0
… IV.3.5
$ rij '
( )
u (r ) = ) ; r
u2 rij
ij
2
ij
< r0
ce potentiel de paire est schématisé ci-dessous
!
u2(rij)
r0
rij
-u0
Le calcul de U se fera à l’aide de l’hypothèse de champ moyen. On considère que chaque
particule se déplace dans un champ uniforme créé par les N-1 autres particules
U=
1 N
" u xi, yi, zi … IV.3.6
2 i=1
(
)
On peut alors factoriser Z
!
Z=
[ # dxdydz e
"u/ 2 kT
]
N
… IV.3.7
En raison du « volume exclu » que représente l’existence d’une sphère dure impénétrable
pour rij<r0, on écrit Z sous la forme
!
#
Z = % Vdisponible
$
(
)
N
"u / 2 kT
e
&N
(' … IV.3.8
Le volume disponible est égal au volume total du récipient moins le volume exclu. La
présence d’une !
particule i écrante en effet, pour le centre de masse des autres
particules, un volume de 4/3πr03. On trouve
# N" 1& 4) r 3
2) r03
0
Vdisp = V" %
* V" N(
) = V" Nb
(
3
$ 2 ' 3
… IV.3.9
!
26
La fonction de partition s’écrit alors
Q=
1
3N
N!"
(V# Nb)
N
e# N u / 2 kT
… IV.3.10
On peut calculer le potentiel moyen dans l’hypothèse d’une densité de fluide uniforme
!
u=
"
%r (
N
N
u
r
dN
r
=
$
#
# dr u0' r0 * 4+ r 2 V = $2 a V
& 6)
r0
r0
"
() ()
… IV.3.11
avec a = 2/3 πr03u0 = b u0
On!trouve enfin
Q=
1
N!"3 N
(V# Nb)
N
eaN /VkT
2
… IV.3.12
qui est la fonction de partition du fluide de van der Waals. On vérifie en effet, par le
calcul des grandeurs macroscopiques, que ce modèle correspond bien à celui du gaz réel
de van der Waals
! tel qu’on l’a vu en thermodynamique classique.
La conclusion que l’on peut tirer de ce calcul est qu’il est effectivement possible d’obtenir
une solution analytique pour la fonction de partition d’un système de particules en
interaction. Le prix à payer est toutefois assez lourd. On n’obtient ce type de résultat
qu’au moyen d’hypothèses fortes. Le réalisme de la description du système, surtout du
point de vue quantitatif, est alors fortement compromis. Une alternative existe
aujourd’hui à l’approche analytique. Il s’agit de l’approche numérique. Nous la
présentons très brièvement ci-dessous.
27
V. Retour aux ensembles statistiques : introduction aux méthodes de
simulation moléculaire
V.1. La thermodynamique statistique numérique
On se souvient que le premier but de la thermodynamique statistique est de calculer des
moyennes d’ensemble, que l’on identifie à des grandeurs macroscopiques. Cela ne résout
pas tous les problèmes puisqu’il n’existe pas d’équivalent microscopique de l’entropie par
exemple. Mais le calcul des moyennes d’ensemble est une étape incontournable. Pour ce
faire, on est passé par la notion de probabilité (de trouver un système dans l’état j avec
l’énergie Ej), laquelle contient la notion clé de fonction de partition. La fonction de
partition est la grandeur qu’il faut calculer, ou estimer, pour obtenir une description
analytique d’un système physico-chimique. On vient de commenter ci-dessus les limites
de cette méthode.
L’alternative qui a été proposée il y a quelques dizaines d’années seulement consiste à
effectuer les calculs de thermodynamique statistique par la voie numérique, plutôt
qu’analytique. Il s’agit d’effectuer des moyennes directes de grandeurs mécaniques
microscopiques sur un échantillon de l’ensemble statistique. Cet échantillon est engendré
numériquement à l’aide d’algorithmes spécifiques.
Imaginons un système physico-chimique (par exemple un liquide simple), composé de N
molécules à l’équilibre thermodynamique. On peut, à l’aide d’un ordinateur, engendrer
une représentation numérique de ce système en attribuant aux molécules du fluide des
coordonnées de position (et d’orientation le cas échéant), de telle sorte que la
configuration ainsi créée soit représentative, à l’échelle microscopique, du fluide en
question. Il existe plusieurs critères pour construire une telle configuration.
À partir de cette configuration initiale, on peut ensuite engendrer, toujours
numériquement, une suite de configurations du même système. Si ces configurations
sont toutes représentatives du système à l’équilibre, et si le nombre A’ de configurations
engendrées est suffisamment important, on obtient alors un échantillon représentatif de
l’ensemble statistique. Il suffit ensuite de calculer la valeur de la grandeur mécanique u
qui nous intéresse, et d’effectuer une moyenne directe sur les A’ configurations
u
1 A
# ui
A" i=1
"
A"
=
… V.1.1
On obtient ainsi une estimation de la moyenne d’ensemble qui sera d’autant meilleure
que A’ sera grand, pourvu bien sûr que l’échantillon soit représentatif de l’ensemble
statistique. On a ainsi!contourné le problème du calcul de la fonction de partition.
Les deux méthodes principales de thermodynamique statistique numérique, appelées
plus couramment simulations moléculaires, sont décrites ci-dessous.
V.2. Les méthodes de Dynamique Moléculaire et de Monte Carlo
Ces deux méthodes se distinguent par la façon dont l’échantillon de configurations est
engendré. Dans la méthode de Dynamique Moléculaire (DM) on calcul pour chaque
configuration la trajectoire des molécules par intégration numérique des équations du
mouvement, et l’on propage, pendant un intervalle de temps δt les coordonnées de
28
celles-ci le long des trajectoires calculées. Le calcul est recommencé au pas suivant. On
engendre ainsi B’ configurations.
δt
δt
δt
δt
B’
Dynamique Moléculaire
Monte Carlo
A’
Voici en quelques mots comment fonctionne l’algorithme de Dynamique Moléculaire. À la
limite classique, la connaissance de l’énergie potentielle d’interaction entre les molécules
(qui est une donnée du modèle microscopique), permet de calculer la force qui agit sur
une molécule dans une configuration fixe donnée du système, par l’intermédiaire de
l’équation de Newton
••
mi r i = "
#
% U rij = Fi
#ri i$j
( )
… V.2.1
Il existe plusieurs algorithmes pour effectuer l’intégration numérique de ces équations.
Le plus simple (et le premier proposé historiquement, et toujours largement utilisé) est
celui de Verlet. Il !
consiste à écrire les développements limités suivants
•
••
1
s t+ " t = s t + " t s t + " t2 s t + ...
2
•
••
1
s t# " t = s t # " t s t + " t2 s t + ...
2
(
)
()
(
)
()
()
()
()
… V.2.2
()
!
29
Où s(t) est une coordonnées moléculaire quelconque. Puis à effectuer la somme de ces
deux équations, à partir de laquelle on obtient
(
)
() (
)
••
()
()
s t+ " t = 2 s t # s t# " t + " t2 s t + ...$ 4
… V.2.3
Ce propagateur est exact à l’ordre 4 près. Il permet de calculer s(t+δt) en connaissant
seulement
les coordonnées à t et t-δt, ainsi que la composante de l’accélération qui est
!
donnée par l’équation V.2.1.
La méthode de Monte Carlo consiste quant à elle, à engendrer les A’ configurations
successives du même système de façon aléatoire par un simple déplacement d’une ou
plusieurs particules dans le système. Cette méthode est plus efficace que la Dynamique
Moléculaire, car elle ne nécessite pas le calcul des forces, ni l’intégration des équations
du mouvement. Les informations dynamiques sont en revanche perdues.
Le problème central de la méthode de Monte Carlo est celui de l’algorithme de création
d’une configuration n+1 à partir d’une configuration n. Un simple déplacement aléatoire
d’une particule peut en effet engendrer une configuration physiquement très improbable
(en dynamique moléculaire, c’est la « dynamique naturelle » qui garantit la
représentativité des configurations successives). L’objectif est de faire en sorte que
chaque configuration apparaisse dans l’échantillon engendré avec une probabilité
correspondant à celle de l’ensemble statistique considéré (« probabilité de Boltzmann »).
Pour cela, on impose un critère d’acceptation de la configuration n+1 de telle sorte que
sur un nombre suffisamment important de configurations, l’échantillon engendré soit
représentatif de l’ensemble statistique. Ceci conduit concrètement à accepter toute
nouvelle configuration dont l’énergie potentielle totale d’interaction est inférieure à celle
de la configuration n, et lorsque celle-ci est supérieure à l’accepter avec une probabilité
P=exp[-(Un+1-Un)/kT].
Les méthodes de simulation moléculaire sont devenues très populaires aujourd’hui dans
la communauté scientifique, aussi bien académique qu’industrielle (voir exemple
http://www.fomms.org/). L’augmentation spectaculaire de la puissance des ordinateurs,
alliée au perfectionnement continuel des algorithmes, font de ces méthodes des
compléments souvent indispensables des expériences ainsi que des approches théoriques
analytiques. Une présentation plus détaillée de ces méthodes sera proposée dans l’option
« modélisation moléculaire » de 2A.
30
Téléchargement