École nationale supérieure de chimie de Paris Éléments de Thermodynamique Statistique Alain Fuchs Septembre 2008 1 Ces choses-là sont rudes, il faut pour les comprendre avoir fait ses études Victor Hugo Plan du cours I. Introduction II. Les Ensembles Statistiques II.1. La notion d’ensemble statistique II.2. L’ensemble canonique II.3. Température et entropie en thermodynamique statistique II.4. Autres ensembles statistiques II.5. Fluctuations et condition d’équivalence entre les ensembles III. Application aux systèmes « dilués » III.1. Statistiques de Boltzmann, Fermi-Dirac et Bose-Einstein III.2. Gaz parfait IV. L’approximation classique IV.1. Formalisme de Lagrange-Hamilton et fonction de partition classique IV.2. Théorème d’équipartition de l’énergie et mouvement Brownien IV.3. Théorie des fluides moléculaires : le modèle de van der Waals V. Retour aux ensembles statistiques : introduction aux méthodes de simulation moléculaire Bibliographie - D.A. McQuarrie, Statistical Mechanics, Univ. Science Books, Sausalito, 2000 D.A. McQuarrie et J.D. Simon, Chimie Physique : Approche Moléculaire, Dunod, Paris, 2000 B. Diu, C. Guthman, D. Lederer, B. Roulet, Eléments de Physique Statistique, Hermann, Paris, 1996 D. Chandler, Introduction to Modern Statistical Mechanics, Oxford Univ. Press, 1987 B. Widom, Statistical Mechanics : a Concise Introduction for Chemists, Cambridge Univ. Press, 2002 2 I. Introduction Expliquer du visible compliqué par de l’invisible simple Jean Perrin Dans la deuxième moitié du XIXe siècle, la communauté scientifique internationale (majoritairement européenne à cette époque) adopte progressivement l’idée selon laquelle la matière est faite d’atomes et de molécules. Un double défi est alors à relever. Il s’agit d’une part de développer des modèles de la matière à l’échelle microscopique (ce qui conduira au développement de la mécanique quantique), et d’autre part de faire ensuite le lien entre l’échelle atomique et l’échelle macroscopique, ce qui conduira à la thermodynamique statistique. Au premier de ces défis sont associés les noms de Bohr, Schrödinger, Heisenberg, de Broglie, … Au second, on associe les noms de Maxwell, Boltzmann et Gibbs. Einstein quant à lui a contribué a ces deux fronts de la connaissance (en plus de la théorie de la relativité !). Au moment où se produisent ces grandes évolutions scientifiques (au début du XXe), le rêve est d’aboutir à une explication complète du monde basée sur la description atomique. C’est ce que traduit la phrase de Jean Perrin citée en exergue. Aujourd’hui, on est plus circonspect sur le fait de savoir ce qui est « simple » et ce qui est « compliqué ». Il semble bien qu’une certaine forme de « complexité » se retrouve à toutes les échelles. Il reste toutefois que l’interprétation des phénomènes macroscopiques à l’aide de mécanismes microscopiques est une des aventures intellectuelles les plus fascinantes qui soit. Pour cela, la thermodynamique statistique, par la voie traditionnelle analytique, ou plus récemment par la voie numérique (les simulations moléculaires) est un outil d’une grande utilité dans beaucoup de problématiques scientifiques et technologiques contemporaines. Les notes qui suivent ne constituent pas un ouvrage Dans l’esprit de la réforme du cursus ingénieur, il s’agit détails des développements formels et d’insister sur la résultats importants sont présentés ici de façon aussi notes ne dispense pas de la présence en cours. complet de thermodynamique statistique. de passer moins de temps en cours sur les compréhension des concepts de base. Les succincte que possible. L’existence de ces 3 II. Les ensembles statistiques II.1. La notion d’ ensemble statistique Les premiers développements de thermodynamique statistique sont dus à L. Boltzmann, qui envisageait simplement l’étude statistique de N particules classiques (il n’y avait pas de mécanique quantique en 1880) indépendantes dans un système physico-chimique macroscopique. C’est plus tard, en 1902, que J.W. Gibbs (dont le portrait est reproduit ci-dessous), proposa une version plus élaborée de la mécanique statistique, en y introduisant la notion d’ensemble statistique (dans Elementary Principles of Statistical Mechanics) Le concept d’ensemble statistique peut-être simplement compris comme la réalisation d’une expérience de pensée d’une mesure physico-chimique. Une observable physicochimique s’effectue sur un temps « long » devant les temps caractéristiques moléculaires. On laissera de côté ici pour l’instant les expériences contemporaines qui se font aux temps « ultra-courts », et on se référera simplement par exemple à une mesure de pression d’un gaz à l’équilibre dans un récipient fermé, effectué à l’aide d’un manomètre. Le chiffre donné par l’appareil de mesure résulte de toute évidence d’une moyenne effectuée au cours du temps sur un grand nombre d’états microscopiques du même système. t t t t … C’est cette idée qui est reprise dans la notion d’ensemble statistique. Un ensemble statistique est un ensemble de A systèmes identiques (avec A " # ). L’ensemble est fermé, isolé (voir ci-dessous). Pour des raisons pratiques, on ne définit pas l’ensemble statistique comme dans le schéma ci-dessus, à partir d’une suite temporelle d’états du même système. Ces deux notions sont toutefois équivalentes. ! À l’équilibre thermodynamique, une moyenne effectuée sur une suite d’états du même système est équivalente à la moyenne effectuée sur une suite de systèmes différents mais identiques. Cette propriété est reliée à la notion d’ergodicité dans la théorie des systèmes dynamiques. 4 1 2 Ensemble statistique 3 . . . A t t t t t ... B <u>A = <u>B = observable macroscopique Ergodicité . . . Hypothèse fondamentale de la thermodynamique statistique A 5 Soit u une grandeur (ou variable) mécanique caractéristique du système, et qui peut prendre l’une des r valeurs discrètes u1, u2, u3,…. ur avec les probabilités associées P1, P2, P3,…. Pr. u prendra la valeur ui dans A systèmes, avec Ai = Pi A Considérons A systèmes, avec A"# La valeur moyenne de la grandeur u, prise sur l’ensemble statistique sera donc: ! u A = A1u1 + A2u2 + ...Ar ur A … II.1.1 r "Au i ! = u ! i=1 i … II.1.2 A r A = "P u i … II.1.3 i i=1 On parle couramment de « moyenne d’ensemble ». Ainsi, par exemple, la moyenne d’ensemble de l’énergie, prise sur toutes les valeurs Ej accessibles au système s’écrira: ! E A = "P E j .. II.1.4 j j Cette moyenne d’ensemble à la signification physique de l’énergie interne thermodynamique U. D’une manière générale, on associera chacune des moyennes d’ensemble de grandeurs mécaniques microscopiques à une observable macroscopique. ! Par exemple : E p A A = "P E j j =U j = " P j pj = P … II.1.5 j où P est la pression, telle qu’elle est définie en thermodynamique. On définira plus loin un « équivalent microscopique » de la pression pj. ! Le problème fondamental de la thermodynamique statistique est donc celui de calculer la probabilité (Pj) de trouver un système dans l’état j. Les variables dites « mécaniques » (Ej, pj) sont fournies par la mécanique quantique ou classique. Les équations II.1.3 à II.1.5 indiquent comment la combinaison de ces données permet d’obtenir les moyennes d’ensemble que l’on identifie à des observables macroscopiques. 6 II.2. L’ensemble canonique There is essentially one problem in statistical thermodynamics : the distribution of a given amount of energy E over N identical systems. Or perhaps better : to determine the distribution of an assembly of N identical systems over the possible states in which the assembly can find itself, given that the energy of the assembly is a constant E Erwin Schrödinger Statistical Thermodynamics Cambridge Univ. Press, 1946 L’ensemble appelé canonique est un ensemble de A systèmes identiques, fermés, non isolés, plongés dans un bain thermique à température constante. Le nombre de particules N et le volume V de chaque système est constant. On parle d’un système à (N,V,T) constants. L’ensemble est isolé, son énergie totale, E est constante. Chaque système se trouve dans un des états quantiques accessibles j, avec une énergie Ej. Cette énergie peut, a priori, varier d’un système à un autre. Il faut donc examiner la façon dont l’énergie totale E se répartit entre les A systèmes. On appelle distribution une répartition d’énergie dans laquelle a1 systèmes se trouvent dans l’état 1 avec l’énergie E1, a2 dans l’état 2, a3 dans l’état 3, … aj dans l’état j. On notera une telle distribution a Il existe a priori plusieurs distributions possibles. Chaque distribution ! aux contraintes suivantes : "a j j =A "aE j j j a doit satisfaire … II.2.1 ! =E … II.2.2 ! Il existe, pour chaque distribution a un nombre W( a ) de façons de la réaliser (les systèmes macroscopiques étant discernables) : ! ! ( ) "A!a ! ! Wa = j … II.2.3 j Dans une distribution particulière a , il existe (aj /A) systèmes dans l’état j avec l’énergie Ej. Cette fraction d’états dans l’état j change évidemment d’une distribution à une autre. ! La probabilité Pj de trouver un système dans l’état j dans l’ensemble canonique s’obtient en moyennant cette fraction ! sur toutes les distributions possibles : 7 aj Pj = A = a 1 A " () () " W(a) a W a aj a … II.2.4 a La résolution ! de l’équation II.2.4. s’effectue à l’aide de la méthode de la distribution la plus probable. On utilise ici une propriété du coefficient multinomial W( a ) qui se comporte sensiblement comme une gaussienne, centrée sur la distribution la plus probable. Cette dernière devient de plus en plus probable (l’écart type de la gaussienne diminue) au fur et à mesure que A augmente. À la limite A " # la distribution la plus a * est infiniment plus probable que toutes les !autres distributions (techniquement W( a ) devient une fonction généralisée de Dirac " a # a * . Dans les ! la distribution la plus probable est sommes qui figurent dans l’équation II.2.4., seule maintenant prise en compte. ! ! ! probable, notée ( Pj = ( ) ( ) ( ) ) ( ) aj a * 1 W a * aj a * = … II.2.5 A A W a* que l’on écrira simplement ! Pj = aj * … II.2.6 A aj* est la valeur de aj (le nombre de systèmes qui se trouvent dans l’état j dans ! l’ensemble canonique), dans la distribution la plus probable a * . Cette distribution est celle pour laquelle on observe le maximum de W( a ) en présence des contraintes II.2.1 et II.2.2. ! : il faut exprimer la condition Le problème se simplifie donc de la manière suivante ! d’extremum de la fonction W( a ) en présence de deux contraintes sur les coefficients aj. Nous utiliserons la méthode très pratique et générale des multiplicateurs indéterminés de Lagrange. Dans ce cadre, on recherchera l’extremum de ln W( a ) pour des raisons pratiques (cela nous permettra d’utiliser plus loin la formule de Sterling pour les factorielles : lnN ! = ! N ln N - N). Ces conditions s’écrivent ! " ln W a # $& ai # %& aiEi = 0 ; " j i i " aj [ ] () … II.2.7 α et β sont deux multiplicateurs indéterminés de Lagrange (un pour chaque contrainte). ! ! 8 Le développement de l’équation II.2.7 conduit à l’expression suivante " ln a#j + ln A " $ " % E j = 0 … II.2.8 ou ! #& E j a"j = e# %$e … II.2.9 avec α’=α-ln A ! II.2.6, en se souvenant que On revient alors à l’équation A= # $' E j j a"j = e$ &% # e j Et alors Pj = "# E j e "# E j $e ! … II.2.10 j L’équation II.2.10 est !la formule de base de l’ensemble canonique. Elle donne la probabilité de trouver un système dans l’état j avec l’énergie Ej. Avec ce résultat, on a donc quasiment résolu la question fondamentale de la thermodynamique statistique. Il reste que Pj est fonction du multiplicateur indéterminé β. Nous allons maintenant démontrer que β vaut 1/kT. II.3. Température et entropie en thermodynamique statistique Une théorie est d'autant plus influente qu'elle donne plus de simplicité à ses prémisses, qu'elle associe un grand nombre de types d'objets distincts, et que son domaine d'application est étendu. C'est de là que découle l'impression profonde qu'exerça sur moi la thermodynamique classique. C'est la seule théorie physique d'une portée universelle dont je sois convaincu que, dans le domaine d'application défini par ses concepts fondamentaux, elle ne sera jamais remise en question. Albert Einstein Afin de déterminer la valeur du multiplicateur de Lagrange β, nous allons écrire quelques équations, sur la base des relations II.1.3 à II.1.5, et identifier la relation finale avec la relation de thermodynamique macroscopique suivante : # "U & # "P & % ( = T% ( )P $ " V 'T $ " T 'V ! … II.3.1 9 Commençons par définir l’équivalent microscopique de la pression pj. En raisonnant sur deux ensembles canoniques, dont les systèmes sont à (N,V,T) et (N,V+dV,T) respectivement, on montre que : $ #E ' p j = "&& j )) % # V (N … II.3.2 La pression macroscopique s’écrira donc : ! p = % $E ( ' j ** P p = # P "j j j j' & $ V )N … II.3.3 Dans un système fermé (N = const.), on trouve ! " p dV = # j Pj dE j = dWrev …II.3.4 Cette relation sera utilisée plus loin pour le calcul de l’entropie dans l’ensemble canonique. ! On écrira séparément les grandeurs <E>, <p>, <Ep> et <E><p>, en utilisant le formalisme des équations II.1.3 à II.1.5. On montre alors que : #" E & % ( = * p + ) Ep * ) E p % "V ( $ 'N,) #" p & % ( = E p * Ep % "V ( $ 'N,V … II.3.5 Ensemble, ces deux relations conduisent à : ! #" E % % "V $ ou #" E % % "V $ ! & #" p ( + )% ( % ") 'N,) $ & ( =*p ( 'N,V … II.3.6 & #"p & ( ( * 1/)% =*p ( % "1 / ) ( 'N,1 / ) $ 'N,V 10 En identifiant cette relation à l’équation II.3.1, on trouve β=const./T On pose "= 1 kT … II.3.7 avec k : constante de Boltzmann k = 1.38 10-23 J. K-1 ! On connaît donc maintenant l’expression complète de la probabilité dans l’ensemble canonique : " Pj = e Ej " kT " #e Ej = kT Ej e … II.3.8 Q kT j "Ej avec ! Q= #e kT j la fonction de partition du système. ! Remarque sur la notion de température en thermodynamique statistique : Les énergies Ej, qui sont les valeurs propres de l’hamiltonien quantique total du système, sont fonctions de la masse de la (ou des) particule(s) composant le système, du nombre de particules et du volume. Dans l’exemple standard de la particule dans un puits de potentiel infini aux bornes et nul au centre, on trouve (voir le cours de mécanique quantique): Enx ,ny ,nz = h2 2 (n + n + n ) 2 x 2 y 2 z … II.3.9 8mV 3 Les Ej ne dépendent que des variables « mécaniques » du système. Elles sont en effet issues d’un calcul de mécanique (quantique ou plus loin dans le cours, classique). La température n’apparaît que lorsque l’on procède au calcul de la moyenne d’ensemble de ! l’énergie E = " P E , à travers l’expression de la probabilité. La température, variable j j j thermodynamique, est un concept statistique. Il n’existe pas d’équivalent microscopique de la température, ni d’ailleurs de l’entropie, comme on va le voir ci-dessous. ! L’entropie dans l’ensemble canonique est calculée de la façon suivante. Considérons la fonction f=ln Q 11 $ "f ' $"f' )) dE j df = & ) d# + * && j "E % "# (E j % j (# … II.3.10 En explicitant les dérivées partielles, on trouve ! df = " E d# " #$ Pj dE j j et …II.3.11 ( d f+ # E ) = #(d E ) " $ PjdEj = # dQrev j et donc ! S = k lnQ+ E T + constante … II.3.12 On peut montrer (voir bibliographie), que la constante d’intégration vaut zéro. ! Résumé : les relations fondamentales dans l’ensemble canonique. La fonction clé de l’ensemble canonique est la fonction de partition Q. On peut exprimer plusieurs grandeurs macroscopiques en fonction de Q : # "lnQ & E = kT 2 % ( $ " T 'N,V # "lnQ & p = kT% ( $ " V 'N,T … II.3.13 F = U) TS = ) kT lnQ Signalons enfin que Q peut s’écrire de la façon suivante : ! Q= $ E(N,V) /kT # " (N, V,E) e … II.3.14 E où Ω(N,V,E) est le nombre de microétats quantiques d’énergie E (dégénérescence du niveau d’énergie E). ! 12 II.4. Autres ensembles statistiques On peut, sur le même principe que ce qui a été développé ci-dessus, construire d’autres ensembles statistiques que l’ensemble canonique. Ceux-ci varieront par les conditions imposées à chaque système dans l’ensemble statistique. Si l’ensemble canonique est tel que chaque système est à (N,V,T) constants, d’autres ensembles seront tels que : µ,V,T constants : c’est l’ensemble dit « grand canonique » N,V,E constants : ensemble « microcanonique » N,p,T constants : ensemble isobare-isotherme … etc On peut, selon les conditions thermodynamiques qui nous intéressent pour un problème particulier, inventer un nouvel ensemble statistique et effectuer le travail de détermination de la probabilité de trouver le système dans l’état j, en définissant au passage la fonction de partition spécifique à cet ensemble. A titre d’exemple, l’ensemble grand canonique est tel que chaque système est ouvert (N variable), mais à l’équilibre avec tous les autres systèmes identiques (µ constant). L’ensemble reste fermé (N constant) isolé (E constant), et les contraintes auxquelles les répartitions d’énergie doivent satisfaire s’écrivent ici " "a " "a " "a N j N,j N j N,j N j N,j = A EN,j = E … II.4.1 N=N À ces trois contraintes seront associés trois multiplicateurs indéterminés de Lagrange, au moment d’écrire les conditions d’extremum du facteur multinômial ! ( ) " "A! a Wa = N N,j j … II.4.2 ! On montre alors que la fonction de partition vaut ! ( #$ EN, j ) % %e " V, T,µ = N j e#& N … II.4.3 et que la probabilité dans l’ensemble grand canonique s’écrit ! PN,j = "# EN, j e e"$ N % … II.4.4 ! 13 avec : β=1/kT et γ=-µ/kT Les grandeurs macroscopiques accessibles au moyen de cet ensemble (c’est à dire par le calcul de la fonction de partition Θ) sont, entre autres : $ "ln # ' ln # p = kT& ) = kT V % " V (µ,T $ "ln # ' N = kT& ) % "µ ( V,T $ "ln # ' S = k ln # + kT& ) % " T ( V,µ … II.4.5 On trouvera dans la bibliographie, par exemple dans l’ouvrage de D. McQuarrie, une liste des principaux ! ensembles et des équations correspondantes. Signalons que dans l’ensemble microcanonique (chaque système est isolé), la fonction de partition n’est autre que Ω(N,V,E), le nombre de microétats quantiques du système. Dans l’ensemble microcanonique, l’entropie s’écrit S=k lnΩ. La question se pose, à ce stade, de savoir s’il est absolument nécessaire, pour un problème physico-chimique donné, de se référer à l’ensemble statistique correspondant aux conditions thermodynamiques du problème. La réponse est (heureusement) non, dans le cas général de systèmes macroscopiques, c’est à dire pour lesquels N " # (on appelle cela la « limite thermodynamique »). On va le voir ci-dessous. II.5. Fluctuations et condition d’équivalence entre les ensembles ! statistiques Examinons les fluctuations d’énergie dans l’ensemble canonique, c’est à dire la façon dont l’énergie d’un système donné diffère de l’énergie moyenne <E>. "E2 = ( E# E ) 2 = E2 # E 2 = $P E # j j 2 j E 2 … II.5.1 en développant la somme dans le membre de droite on trouve ! $# E " = kT & & #T % 2 E 2 ' ) = kT 2 C V ) (N,V … II.5.2 la dispersion relative de l’énergie vaut ! 14 "E E 1/ 2 (kT C ) = 2 V E … II.5.3 On peut estimer l’ordre de grandeur de cette dispersion, en considérant le cas du gaz parfait (Cv = 3/2 Nk et <E>=3/2 NkT). On trouve alors que ! "E E # N$1 / 2 … II.5.4 pour un système à la limite thermodynamique (N~1023), la dispersion relative est de l’ordre de 10-12. Ainsi la probabilité de trouver un système avec une énergie E est une fonction très étroite centrée sur <E>. Tout se passe comme si chaque système se ! trouvait à une énergie identique, <E>, alors qu’il ne s’agissait pas là d’une contrainte spécifique de l’ensemble canonique. En conséquence, pour N grand ( ) # "(E) e $ E/kT Q N, V, T = ( ) $ E /kT =" E e E … II.5.5 et en utilisant l’expression de F dans l’ensemble canonique, on trouve () S = k ln " E … II.5.6 ! qui est justement l’expression de l’entropie dans l’ensemble microcanonique. À l’équilibre thermodynamique, et pour N " # , l’ensemble canonique est équivalent à l’ensemble microcanonique : chaque!système se trouve à une énergie <E> identique. Ce résultat est général. On peut montrer que tous les ensembles sont équivalents lorsque N " # . Dans l’ensemble grand canonique, par exemple, la fluctuation du ! nombre de particules dans chaque système varie également comme 1/N1/2. À la limite thermodynamique, l’ensemble grand canonique est équivalent à l’ensemble canonique. Ce résultat est important. Il a pour conséquence que le physico-chimiste peut calculer la !fonction de partition qui lui convient le mieux, en fonction des données disponibles, en vue d’accéder à une grandeur macroscopique. Mais ceci n’est vrai qu’à la limite thermodynamique ( N " # ). Pour des systèmes de taille finie, avec N suffisamment petit (dans toutes les applications « nano » par exemple), les résultats issus d’ensembles statistiques différents ne seront pas comparables. Il faudra dans ce cas effectuer les calculs dans l’ensemble correspondant strictement aux conditions de l’expérience. ! 15 III. Application aux systèmes « dilués » III.1. Statistiques de Boltzmann, Fermi-Dirac et Bose-Einstein À ce stade de l’exposé des éléments de thermodynamique statistique, on peut résumer le problème de la façon suivante : il suffit de savoir calculer la fonction de partition du système physico-chimique qui nous intéresse (à partir de données de mécanique quantique ou classique), pour accéder complètement à la thermodynamique de ce système. Le problème semble ainsi « résolu », et il ne reste plus qu’à passer aux applications. C’est formellement vrai, mais pas encore praticable aisément dans des problèmes concrets. En effet, la fonction de partition dont il a été question jusqu’à maintenant est la fonction de partition du système dans sa totalité (N particules dans un volume V à la température T, pour l’exemple de l’ensemble canonique). Le calcul de Q dans un tel système nécessite la connaissance des toutes les énergies Ej pour le système complet de N particules, ce qui n’est pas accessible aujourd’hui. Face à cette difficulté, plusieurs hypothèses peuvent être effectuées pour simplifier le problème. La première est celle de l’hypothèse mono-particulaire. On sépare l’hamiltonien quantique total du système en une somme d’hamiltoniens correspondants aux particules séparées. À l’intérieur d’une même particule (molécule) il est raisonnable de séparer l’hamiltonien total en une somme d’hamiltoniens partiels correspondants aux processus translationnel, rotationnel, vibrationnel, électronique, … On parle dans ce cas de l’hypothèse mono-quasi-particulaire. Dans ce cas, l’énergie totale sera la somme des énergies des particules, ou des quasi-particules. Mais le problème du calcul de la fonction de partition n’est pas pour autant encore résolu. En effet, si l’on écrit simplement la fonction de partition dans l’ensemble canonique de la manière suivante Q= % $a + $b + $c + ...( j k ' i * … III.1.1 ...exp" #i#j#k ' * kT & ) où ειa correspond à l’énergie de la particule a dans l’état i. Si particules étaient discernables on pourrait alors écrire ! Q = qaqbqc ... = "q i … III.1.2 i et dans le cas de N particules identiques ! Q = qNparticule … III.1.3 Mais, dans le cas général, les particules qui nous intéressent sont indiscernables. La somme dans l’équation ! III.1.1 est donc soumise à des restrictions, qui ne sont pas les mêmes si les particules sont des bosons ou des fermions. On rappelle en effet que deux bosons peuvent occuper la même case quantique, alors que ce n’est pas le cas pour les fermions. La somme dans III.1.1 est impossible à calculer dans le cas général des bosons 16 ou des fermions. On montre (voir bibliographie) qu’il faut passer par le calcul de la fonction de partition dans l’ensemble grand canonique. Il existe toutefois un cas limite pour lequel le calcul de Q est possible, c’est celui pour lequel la probabilité d’observer deux particules dans le même état quantique est négligeable. Cela se produit lorsque le nombre d’états accessibles est très grand devant le nombre de particules (on parle de système « dilué »). Dans ce cas, l’immense majorité des termes de la somme dans III.1.1 se trouvent sous la forme (εi+εj+εk+εl+εm+...), avec i≠j≠k≠l≠m. Il existe alors N ! termes identiques pour chaque combinaison i,j,k,l,m,… Les particules étant indiscernables, il suffit d’effectuer la somme III.1.1 sans restriction, et de diviser chacun des termes obtenus par N ! Q= qNpart N! … III.1.3 où qpart est la fonction de partition de la particule isolée. L’équation III.1.3 correspond à la statistique de Bolzmann ! (où de Maxwell-Boltzmann) pour N particules identiques. Examinons la condition de validité de l’hypothèse de « dilution » (nombre d’états accessibles >>N). Considérons le cas simple de la particule dans le puits de potentiel infini. Le nombre d’états dont l’énergie est ≤E est donné par () "E = # 6 h3 (8mE) 3/2 V … III.1.4 Pour un gaz moléculaire (m=10-25kg), dilué, à la température de 300 K, dans une boîte cubique de 0.1 m de côté, on trouve une valeur de Φ de l’ordre de 1030. ! La condition Φ(E)>>N s’écrit 3/2 6 N #12mkT & << 1 % ( " V $ h2 ' … III.1.5 le membre de gauche de l’inégalité III.1.5 prend les valeurs suivantes pour différents systèmes simples!: Helium liquide à la température de 4 K : 1,6 He gazeux à 4 K : 0,11 He gazeux à 100 K : 3,5 10-5 He liquide à 86 K : 1.6 10-5 Electron de conduction dans un métal (Na) à 300 K : 1465 La condition d’applicabilité de la statistique de Boltzmann est d’avoir des particules de masse « élevées » (des atomes ou molécules, et pas des électrons), et une température « suffisamment élevée » également (pas voisine du zéro absolu). C’est une excellente approximation pour des systèmes atomiques ou moléculaires à température ambiante. 17 Application : « la formule de Boltzmann » en spectroscopie. Dans le cadre de la statistique de Boltzmann, on peut écrire ( ) # "lnQ & )j exp *)j /kT E = kT 2 % = N+ =N) ( j qpart $ " T 'N,V … III.1.6 où q est la fonction de partition de la particule isolée (notée qpart plus haut). Les εj sont les ! énergies des états accessibles à cette particule. On peut alors écrire, pour la particule isolée, des équations de thermodynamique statistique semblables à celle que l’on a développées pour un système complet de N particules #$ /kT n e j "j = = j qpart N … III.1.7 où πj est la probabilité de trouver la particule dans l’état j, et nj le nombre de particules du système qui se trouvent dans l’état j. ! Considérons deux niveaux d’énergie i et j de la particule isolée, séparés de ΔE=(εj-ει)=hν. On peut écrire ni = exp "j # "i /kT nj [( ) ] … III.1.8 ce qui n’est autre que la « formule de Boltzmann » utilisée couramment en spectroscopie pour évaluer les ! rapports des populations de différents états fondamentaux et/ou excités par exemple. III.2. Le gaz parfait Le gaz parfait constitue l’application standard de la thermodynamique statistique. On la trouve (détaillée) dans tous les ouvrages en langue française notamment. Nous ne reprendrons ici que les résultats principaux et le lecteur se référera à la bibliographie pour les détails des calculs. Une partie de ces résultats est utile, en spectroscopie par exemple, et c’est la raison pour laquelle nous y passerons un peu de temps. Toutefois, l’intérêt majeur de la thermodynamique statistique aujourd’hui, est d’aborder les systèmes composés de particules en interaction ! Nous insisterons donc plutôt sur ce dernier aspect dans les chapitres suivants consacrés à l’approximation classique puis à ses applications aux fluides moléculaires réels. 18 Le modèle microscopique du gaz parfait est un ensemble de particules indépendantes, chacune se comportant comme la « particule dans une boîte », c’est-à-dire dans un puits de potentiel infini aux bornes et nul au centre. Au vu de ce qui a été développé en III.1., on peut donc écrire N Htot = "H part i=1 N Etot = Q= "# …III.2.1 i i=1 N part q N! De plus, l’hamiltonien de chaque particule, Hpart peut lui même être exprimé en fonction d’hamitoniens partiels ! Hpart = Htranslation + Hélectronique + Hnucléaire + Hvibration + Hrotation … III.2.2 et ainsi ! Q= qtransqelecqnuclqvibqrot N! III.2.3 On montre (voir bibliographie) que ! qtrans # 2" mkT & 3 / 2 =% ( V 2 $ h ' III.2.4 Les fonctions de partition électroniques et nucléaires ne contribuent, pour un grand nombre de processus physico-chimiques, qu’à une constante à qtotal : la degré de dégénérescence de ! l’état fondamental. Le premier état excité étant trop éloigné en énergie pour les processus thermiquement activés. Dans le cas de processus photochimiques par exemple, il faudra tenir compte explicitement des états peuplés au cours du processus qelec = #" $ ei e %i kT III.2.5 i Le modèle microscopique standard pour la vibration moléculaire est l’oscillateur harmonique quantique![εn=(n+1/2)hν ; n=0, 1, 2, …]. On montre que 19 qvib = e"# h $ / 2 1 " e"# h $ III.2.6 On définit une température caractéristique de vibration Θv=hν/k (pour la majorité des molécules Θv >>Tambiante). À suffisamment haute température qvib=T/Θr. ! Le modèle microscopique standard pour la rotation moléculaire est le rotateur rigide [εj=BJ(J+1) ; J=0, 1, 2.. ; B=h/8π2Ic ; I=µre2]. On définit une température caractéristique rotationnelle Θr=hB/k (pour la majorité des molécules Θr <<Tambiante). On trouve alors : qrot = 8" 2 IkT h2 = T ; #r << T #r … III.2.7 Ce dernier résultat est valable pour une molécule diatomique héteronucléaire. Des considérations subtiles de couplage spin-orbite conduisent, pour une molécule héteronucléaire, ! à écrire qrot=T/2Θr. Le lecteur intéressé consultera la bibliographie. 20 IV. L’approximation classique L’équation III.2.4. ci-dessus, pour la fonction de partition translationnelle d’une particule de gaz parfait peut-s’écrire qtrans = V "3 … IV.1 où Λ a les dimensions d’une longueur. On l’appelle « longueur d’onde thermique de de Broglie », pour les raisons suivantes. L’énergie moyenne d’une telle particule vaut <ε>=3/2 kT. En mécanique ! classique, on écrit l’énergie translationnelle d’une particule sous la forme p2/2m (où p est la quantité de mouvement). En combinant ces deux relations on trouve ( p = 3mkT 1/ 2 ) … IV.2 or la longueur d’onde de de Broglie associée à une particule de quantité de mouvement p vaut : λ=h/p. On en déduit que ! # h2 &1 / 2 " = %% (( $ 3mkT ' … IV.3 ce qui, à une constante près (voisine de l’unité), est équivalent à Λ. La condition d’applicabilité de la statistique de Boltzmann (équation III.1.5) peut alors ! s’écrire N V "3 << 1 … IV.4 or, (V/N) est le volume occupé en moyenne par une particule dans un système homogène à l’équilibre. L’équation IV.4 s’écrit donc ! "3 vparticule << 1 … IV.5 La traduction de cette relation est la suivante : la statistique de Boltzmann s’applique lorsque Λ est petite devant la dimension de l’espace occupée en moyenne par une particule du système. Dans ! ces conditions, les effets quantiques deviennent négligeables. La particule peut-être considérée en très bonne approximation comme « localisée ». On se situe à la limite classique de la mécanique quantique. 21 IV.1. La fonction de partition classique On va chercher à construire une expression de la fonction de partition (dans l’ensemble canonique) sur les bases de la mécanique classique. L’objectif n’est pas de faire du formalisme par plaisir. On verra que l’on ne peut démontrer quelques relations importantes pour la chimie (comme le théorème d’équipartition de l’énergie) que dans le cadre de l’approximation classique. L’idée est assez simple. Il s’agit d’écrire une relation de ce type qclassique " # H(q1 ,...qs ;p1 ....ps ) /kT $ ... $ e dq1 ....dps … IV.1.1 L’énergie n’étant plus quantifiée, on transforme la somme en intégrales. Il faut alors trouver l’équivalent classique de l’énergie Ej. Plusieurs possibilités sont ouvertes pour cela. La ! plus efficace consiste à utiliser l’Hamiltonien classique H. La fonction H de Hamilton s’écrit, pour une particule : ( ) ( ) ( H q1, q2 ,...qs;p1,p 2 ,...ps = K p1,p 2 ,...ps + U q1, q2 ,...qs ) … IV.1.2 où K est l’énergie cinétique de la particule. Elle ne dépend, en mécanique classique non relativiste, que des quantités de mouvement pi. ! U est l’énergie potentielle qui ne dépend que des coordonnées qi. Dans cette expression, s est le nombre de degrés de liberté nécessaire pour définir l’état du système. Par exemple, dans le cas d’une masse ponctuelle trois coordonnées sont nécessaires (en coordonnées cartésiennes : q1=x, q2=y, q3=z), auxquelles on associe trois quantités de mouvements (dites-conjuguées) : p1=px=mvx2, p2=py=mvy2, p3=pz=mvz2. Le dernier point à considérer pour construire la fonction de partition classique est la nécessité d’une équivalence stricte avec la fonction de partition que l’on a définie plus haut dans le cadre général quantique. Un simple examen de la relation IV.1.1 montre que le membre de droite n’est pas sans dimension, comme devrait l’être la fonction de partition. On montre en effet qu’il faut corriger cette expression de la façon suivante pour obtenir une « vraie » fonction de partition # s & % qcl = s * ... * %" dqidpi (( e) H(q1 ,...qs ;p1 ....ps ) /kT h $ i=1 ' 1 … IV.1.3 On généralise cette expression à un système formé de N particules atomiques ! 1 1 Qcl = N! h3 N # 3N & % * ... * %" dqidpi (( e) H(q1 ,...q 3N ;p1 ....p 3N ) /kT $ i=1 ' … IV.1.4 Dans le formalisme présenté ici, on a introduit des coordonnées notées qi et des quantités de mouvement conjuguées, notées pi. On dit que ces coordonnées et ces ! 22 quantités de mouvements sont généralisées. En effet, on peut montrer, dans le cadre général de la mécanique de Lagrange-Hamilton, que les équations du mouvement y sont indépendantes du système de coordonnées (cartésiennes, polaires, …). Ce n’est pas le cas dans le formalisme de Newton (voir McQuarrie, Statistical Mechanics). Lagrange a introduit pour cela une fonction L=K-U et a développé un formalisme dans lequel les équations du mouvement s’écrivent sous la forme de dérivées de L par rapport aux qi et • qi . Dans le formalisme d’Hamilton, on introduit la quantité de # & • % "L ( mouvement généralisée pi = % . L’Hamiltonien est défini par H = " p j qj # L , et les • ( i % ( ! $ " qi ' à leurs dérivées équations d’Hamilton, toujours invariantes par rapport au système de coordonnées, s’écrivent cette fois en fonction des qi et des p i. Le point crucial est alors que ! l’Hamiltonien est égal à l’énergie totale du système, comme indiqué dans la relation IV.1.2. D’où son!utilité pour construire la fonction de partition sur des bases classiques. Considérons, en guise d’application, un cas simple, celui d’une masse ponctuelle soumise à un potentiel harmonique à une dimension x (oscillateur harmonique classique). L’Hamiltonien de la particule s’écrit simplement H = K+ U = px2 1 + kx 2 2m 2 … IV.1.5 L’état complet du système peut-être représenté à un instant t par un point de coordonnées (x,px) dans un espace à deux dimensions appelé espace des phases du système. La trajectoire du système dans son espace des phases est ici une simple ellipse. ! Dans un système dynamique comprenant s degrés de liberté, l’espace des phases possède 2s dimensions. Cette notion d’espace des phases est très utilisée dans l’étude des systèmes dynamiques complexes en chimie, physique et biologie (réactions oscillantes, structures spatio-temporelles issues du chaos déterministe, …). IV.2. Théorème d’équipartition de l’énergie Considérons un système physico-chimique pour lequel l’Hamiltonien classique s’écrit ( ) ( ) ( ) H = H q1,...qs;p1,...ps = Hi pi + H" q1,...qs;p1,...pi#1,pi+1,...ps … IV.2.1 avec Hi=api2 (un terme quadratique d’une quantité de mouvement). ! La moyenne de Hi dans l’ensemble canonique s’écrira Hi = "# H $ ... $ (dq ...dp ) e $ ... $ (dq ...dp ) e s 1 1 s Hi "# H = "# Hi $ dp H e $ ... $ (dq ...dp dp $ dp e $ ... $ (dq ...dp dp i i i 1 "# Hi 1 i"1 i"1 i+1 i+1 ...dps e"# H% ) ...dps e"# H% ) … IV.2.2 ! 23 ce qui se simplifie en '+% * #ln) & dpie"$ Hi , )("% ,+ 1 Hi = " = kT #$ 2 …. IV.2.3 C’est le théorème d’équipartition de l’énergie : pour un système à l’équilibre thermodynamique à température T, chaque terme quadratique indépendant de ! l’hamiltonien classique contribue pour 1/2kT à l’énergie moyenne du système. Quelques exemples : - Une particule de gaz parfait : H = 1/2m (px2+ py2+ pz2) ; <H> = 3 . (1/2) kT - L’oscillateur harmonique à une dimension : H = px2/2m + ½ kx2 ; <H>=2 . 1/2kT - Le mouvement Brownien : considérons une particule en suspension dans un fluide. Son hamiltonien classique peut s’écrire comme la somme de son énergie cinétique de translation et d’un terme supplémentaire qui comprend toutes les autres contributions (notamment son interaction avec le milieu ambiant) H= 1 px2 + py2 + pz2 + H" … IV.2.4 2m ( ) chaque terme quadratique contribue pour ½ kT à l’énergie moyenne. Dans une direction de l’espace quelconque x, on trouve ! px2 1 1 = mvx2 = kT … IV.2.5 2m 2 2 et donc vx2 = kT/m …. IV.2.6 ! La dispersion de la vitesse dans la direction x, autour de la moyenne <Vx> s’écrit 2 la vitesse moyenne de la particule est nulle (moyenne sur "v2x = vx2 # vx et comme ! un temps long), on trouve ! 1/ 2 (" ) 2 vx = 1/ 2 (v ) 2 x # kT &1 / 2 =% ( $m' … IV.2.7 La vitesse instantanée de la particule en suspension est donc différente de zéro. Elle fluctue constamment autour de <Vx>=0. Sa valeur dépend de sa masse et de la température du ! système. C’est la démonstration de l’origine physique du mouvement brownien. Cette démonstration constitue le début d’un célèbre article d’Einstein, publié en 1905 dans Ann. Phys. Et qui se conclut par les formules permettant de calculer le 24 coefficient d’autodiffusion d’une particule dans un fluide en fonction de son déplacement carré moyen D = lim t "# 2 1 r(t) $ r(0) 6t … IV.2.8 IV.3. Théorie des ! fluides moléculaires : le modèle de van der Waals Nous abordons dans ce chapitre la question de la prise en compte des interactions entre les particules composant un système physico-chimique donné. Il s’agit d’évaluer la capacité de la thermodynamique statistique analytique, telle qu’on l’a développée ici, de rendre compte du comportement de systèmes réalistes, au-delà du cas d’école du gaz parfait. On considère un fluide monoatomique constitué de N particules identiques. Son hamiltonien classique s’écrit 1 #N 2 %%" pxi + pyi2 + pzi2 H= 2m $ i=1 ( ) & (( + U x1 ....zN …. IV.3.1 ' ( ) où U est l’énergie potentielle totale d’interaction des particules entre elles. La fonction !de partition dans l’ensemble canonique s’écrit Q= 1 N!"3 N Z … IV.3.2 avec ! Z= " ... " (dx ...dz 1 N )e # U/kT … IV.3.3 Z est appelée intégrale de configuration. Le problème central est évidemment le calcul de Z. Il faut pour cela se donner un modèle pour l’interaction entre les particules. On considérera que ! celles-ci interagissent selon un potentiel additif de paires U= 1 # # u2 rij 2 i j"i ( ) … IV.3.4 u2(rij) est l’énergie potentielle d’interaction entre une paire quelconque de particules situées à une distance rij. Dans le modèle de van der Waals, la forme de ce potentiel de paire est celle des «sphères dures attractives » ! 25 6 #r & = " u0 %% 0 (( ; rij > r0 … IV.3.5 $ rij ' ( ) u (r ) = ) ; r u2 rij ij 2 ij < r0 ce potentiel de paire est schématisé ci-dessous ! u2(rij) r0 rij -u0 Le calcul de U se fera à l’aide de l’hypothèse de champ moyen. On considère que chaque particule se déplace dans un champ uniforme créé par les N-1 autres particules U= 1 N " u xi, yi, zi … IV.3.6 2 i=1 ( ) On peut alors factoriser Z ! Z= [ # dxdydz e "u/ 2 kT ] N … IV.3.7 En raison du « volume exclu » que représente l’existence d’une sphère dure impénétrable pour rij<r0, on écrit Z sous la forme ! # Z = % Vdisponible $ ( ) N "u / 2 kT e &N (' … IV.3.8 Le volume disponible est égal au volume total du récipient moins le volume exclu. La présence d’une ! particule i écrante en effet, pour le centre de masse des autres particules, un volume de 4/3πr03. On trouve # N" 1& 4) r 3 2) r03 0 Vdisp = V" % * V" N( ) = V" Nb ( 3 $ 2 ' 3 … IV.3.9 ! 26 La fonction de partition s’écrit alors Q= 1 3N N!" (V# Nb) N e# N u / 2 kT … IV.3.10 On peut calculer le potentiel moyen dans l’hypothèse d’une densité de fluide uniforme ! u= " %r ( N N u r dN r = $ # # dr u0' r0 * 4+ r 2 V = $2 a V & 6) r0 r0 " () () … IV.3.11 avec a = 2/3 πr03u0 = b u0 On!trouve enfin Q= 1 N!"3 N (V# Nb) N eaN /VkT 2 … IV.3.12 qui est la fonction de partition du fluide de van der Waals. On vérifie en effet, par le calcul des grandeurs macroscopiques, que ce modèle correspond bien à celui du gaz réel de van der Waals ! tel qu’on l’a vu en thermodynamique classique. La conclusion que l’on peut tirer de ce calcul est qu’il est effectivement possible d’obtenir une solution analytique pour la fonction de partition d’un système de particules en interaction. Le prix à payer est toutefois assez lourd. On n’obtient ce type de résultat qu’au moyen d’hypothèses fortes. Le réalisme de la description du système, surtout du point de vue quantitatif, est alors fortement compromis. Une alternative existe aujourd’hui à l’approche analytique. Il s’agit de l’approche numérique. Nous la présentons très brièvement ci-dessous. 27 V. Retour aux ensembles statistiques : introduction aux méthodes de simulation moléculaire V.1. La thermodynamique statistique numérique On se souvient que le premier but de la thermodynamique statistique est de calculer des moyennes d’ensemble, que l’on identifie à des grandeurs macroscopiques. Cela ne résout pas tous les problèmes puisqu’il n’existe pas d’équivalent microscopique de l’entropie par exemple. Mais le calcul des moyennes d’ensemble est une étape incontournable. Pour ce faire, on est passé par la notion de probabilité (de trouver un système dans l’état j avec l’énergie Ej), laquelle contient la notion clé de fonction de partition. La fonction de partition est la grandeur qu’il faut calculer, ou estimer, pour obtenir une description analytique d’un système physico-chimique. On vient de commenter ci-dessus les limites de cette méthode. L’alternative qui a été proposée il y a quelques dizaines d’années seulement consiste à effectuer les calculs de thermodynamique statistique par la voie numérique, plutôt qu’analytique. Il s’agit d’effectuer des moyennes directes de grandeurs mécaniques microscopiques sur un échantillon de l’ensemble statistique. Cet échantillon est engendré numériquement à l’aide d’algorithmes spécifiques. Imaginons un système physico-chimique (par exemple un liquide simple), composé de N molécules à l’équilibre thermodynamique. On peut, à l’aide d’un ordinateur, engendrer une représentation numérique de ce système en attribuant aux molécules du fluide des coordonnées de position (et d’orientation le cas échéant), de telle sorte que la configuration ainsi créée soit représentative, à l’échelle microscopique, du fluide en question. Il existe plusieurs critères pour construire une telle configuration. À partir de cette configuration initiale, on peut ensuite engendrer, toujours numériquement, une suite de configurations du même système. Si ces configurations sont toutes représentatives du système à l’équilibre, et si le nombre A’ de configurations engendrées est suffisamment important, on obtient alors un échantillon représentatif de l’ensemble statistique. Il suffit ensuite de calculer la valeur de la grandeur mécanique u qui nous intéresse, et d’effectuer une moyenne directe sur les A’ configurations u 1 A # ui A" i=1 " A" = … V.1.1 On obtient ainsi une estimation de la moyenne d’ensemble qui sera d’autant meilleure que A’ sera grand, pourvu bien sûr que l’échantillon soit représentatif de l’ensemble statistique. On a ainsi!contourné le problème du calcul de la fonction de partition. Les deux méthodes principales de thermodynamique statistique numérique, appelées plus couramment simulations moléculaires, sont décrites ci-dessous. V.2. Les méthodes de Dynamique Moléculaire et de Monte Carlo Ces deux méthodes se distinguent par la façon dont l’échantillon de configurations est engendré. Dans la méthode de Dynamique Moléculaire (DM) on calcul pour chaque configuration la trajectoire des molécules par intégration numérique des équations du mouvement, et l’on propage, pendant un intervalle de temps δt les coordonnées de 28 celles-ci le long des trajectoires calculées. Le calcul est recommencé au pas suivant. On engendre ainsi B’ configurations. δt δt δt δt B’ Dynamique Moléculaire Monte Carlo A’ Voici en quelques mots comment fonctionne l’algorithme de Dynamique Moléculaire. À la limite classique, la connaissance de l’énergie potentielle d’interaction entre les molécules (qui est une donnée du modèle microscopique), permet de calculer la force qui agit sur une molécule dans une configuration fixe donnée du système, par l’intermédiaire de l’équation de Newton •• mi r i = " # % U rij = Fi #ri i$j ( ) … V.2.1 Il existe plusieurs algorithmes pour effectuer l’intégration numérique de ces équations. Le plus simple (et le premier proposé historiquement, et toujours largement utilisé) est celui de Verlet. Il ! consiste à écrire les développements limités suivants • •• 1 s t+ " t = s t + " t s t + " t2 s t + ... 2 • •• 1 s t# " t = s t # " t s t + " t2 s t + ... 2 ( ) () ( ) () () () () … V.2.2 () ! 29 Où s(t) est une coordonnées moléculaire quelconque. Puis à effectuer la somme de ces deux équations, à partir de laquelle on obtient ( ) () ( ) •• () () s t+ " t = 2 s t # s t# " t + " t2 s t + ...$ 4 … V.2.3 Ce propagateur est exact à l’ordre 4 près. Il permet de calculer s(t+δt) en connaissant seulement les coordonnées à t et t-δt, ainsi que la composante de l’accélération qui est ! donnée par l’équation V.2.1. La méthode de Monte Carlo consiste quant à elle, à engendrer les A’ configurations successives du même système de façon aléatoire par un simple déplacement d’une ou plusieurs particules dans le système. Cette méthode est plus efficace que la Dynamique Moléculaire, car elle ne nécessite pas le calcul des forces, ni l’intégration des équations du mouvement. Les informations dynamiques sont en revanche perdues. Le problème central de la méthode de Monte Carlo est celui de l’algorithme de création d’une configuration n+1 à partir d’une configuration n. Un simple déplacement aléatoire d’une particule peut en effet engendrer une configuration physiquement très improbable (en dynamique moléculaire, c’est la « dynamique naturelle » qui garantit la représentativité des configurations successives). L’objectif est de faire en sorte que chaque configuration apparaisse dans l’échantillon engendré avec une probabilité correspondant à celle de l’ensemble statistique considéré (« probabilité de Boltzmann »). Pour cela, on impose un critère d’acceptation de la configuration n+1 de telle sorte que sur un nombre suffisamment important de configurations, l’échantillon engendré soit représentatif de l’ensemble statistique. Ceci conduit concrètement à accepter toute nouvelle configuration dont l’énergie potentielle totale d’interaction est inférieure à celle de la configuration n, et lorsque celle-ci est supérieure à l’accepter avec une probabilité P=exp[-(Un+1-Un)/kT]. Les méthodes de simulation moléculaire sont devenues très populaires aujourd’hui dans la communauté scientifique, aussi bien académique qu’industrielle (voir exemple http://www.fomms.org/). L’augmentation spectaculaire de la puissance des ordinateurs, alliée au perfectionnement continuel des algorithmes, font de ces méthodes des compléments souvent indispensables des expériences ainsi que des approches théoriques analytiques. Une présentation plus détaillée de ces méthodes sera proposée dans l’option « modélisation moléculaire » de 2A. 30