LP 18 Notion d'état microscopique Interprétation statistique de l'entropie Exemples (1er CU) Intro: dans le cadre de la thermodynamique statistique, il faut, via une étude probabiliste, étudier les comportements microscopiques d'un système pour en déduire ses propriétés macroscopiques, seules vraiment exploitables. Nous allons donc ici introduire des notions, ainsi que le postulat fondamental de la mécanique statistique, qui nous permettrons de définir l'entropie statistique, qui en fait est la même que la fonction S déjà vu en thermodynamique et qui caractérisait l'irréversibilité d'une transformation. A) Notion d'état accessibles: 1) Paramètres extérieurs et variables internes: Si l'on veut étudier le comportement d'un système, on utilise des grandeurs telles que V , E, T , , N , p . Certaines d'entre elles sont fixées par des contraintes extérieures imposées au système. Par exemple, si on considère un gaz dans une enceinte fermée, indéformable et adiabatique, alors N , V , E sont fixées. Par contre, pour un système en contact avec un thermostat, ce sont N , V , T qui sont fixées alors que E varie par échange de chaleur. De telles grandeurs seront appelées paramètres extérieurs. Par opposition à ces paramètres, d'autres grandeurs sont libres de fluctuer au gré de l'agitation des particules. Ce sont par exemple pour le 1er cas T et P, pour le 2ème cas E. Ces grandeurs seront appelées variables internes. Th Ext:V,N,E Int:T,P Ext:V,N,T Int:E,P Ext:P,N,E Int:T,V 2) Paramètres extérieurs et états accessibles: Considérons un système isolé que nous supposerons également à l'équilibre macroscopique. Son état macroscopique est alors déterminé par les valeurs d'un certain nombre de paramètres extérieurs, qui comprennent toujours E et N1 , N 2 ,... et souvent V. Il est clair qu'il existe un grand nombre d'états microscopiques vérifiant les contraintes extérieures. Il existe bien sûr un nombre encore plus grand d'états qui sont incompatibles avec les contraintes, et donc exclus. Par définition, on appelle état accessible d'un système tout état microscopique compatible avec les valeurs macroscopiques des paramètres extérieurs. 3) Postulat fondamental de la mécanique statistique: Pour un système isolé à l'équilibre macroscopique, tous les états microscopiques accessibles ont même probabilité. Pour préciser la signification de ce postulat, appelons E la valeur fixée de l'énergie du système et E celle de l'incertitude macroscopique qui lui est associée. Idem avec… Si on appelle le nombre d'états accessibles, alors la probabilité Pl d'un état l d'énergie E l vaut: 1 si E El E E Pl 0 autrement B) Entropie statistique: 1) Définition générale: Par définition, l'entropie d'un système vaut: S C Pl ln Pl , où C IR* et où Pl est la probabilité correspondant à l'état l. l Cette grandeur est utilisée en théorie de l'information comme caractéristique du manque d'information 2) Entropie statistique: En mécanique statistique on pose C k B , et on a S k B Pl ln Pl l Si on utilise le postulat fondamental de la mécanique statistique, on obtient alors: S k B ln 3) Propriétés de la fonction entropie: S est une fonction extensive. Conditions d'évolution d'un système: Considérons un système de paramètres extérieurs E, x avec une variable interne y. Par exemple: V1 Les paramètres extérieurs sont E,V , N ,V1 La variable interne est n1 dans V1 Pour y donné il y a E, x, y états accessibles avec E, x, y E, x Et E , x, y E , x y La probabilité pour le système d'être dans l'état E, x, y vaut E , x, y Py E , x Soit y max la valeur de y telle que Py soit maximum. y 1 1 ym N L'état d'équilibre du système est donc donné par E , x, y max ce qui correspond au maximum de et donc de S. On en tire donc que: S est une fonction d'état ne dépendant que des paramètres extérieurs. l'état d'équilibre est atteint est celui correspondant à S max pour les variables internes On retrouve alors de 2nd principe de la thermodynamique. On peut montrer que y y m et que C) Exemples: 1) Le cristal paramagnétique parfait On considère N spins B 1 dans B // O z 2 B B On a E n n B et N n n 1 E n N 2 B Ce qui implique que: n 1 N E 2 B On a donc une unique variable interne, par exemple n . Le nombre d'états accessibles vaut donc: N! N! C Nn et donc S k ln n !N n ! N E /( B) N E /( B) ! ! 2 2 Or ln N! N ln N N E E E E N N N N B B B B D'où S k N ln N ln ln 2 2 2 2 On a S max pour E 0 et B 0 et vaut S max kN ln 2 . S Nk ln 2 Interprétation: l'entropie est maximale pour E=0 : répartition aléatoire Elle est minimale pour E=NB, c'est-àdire tous les spins alignés dans le même sens: information maximale. 1 -1 E N B 1 2) Le gaz parfait. Détente de Joule. Pour un système classique, on introduit une grandeur E , densité d'état, telle que: E,V , N dE E El E dE,V , N Par ailleurs, pour un gaz parfait classique, on peut montrer que: 3N m E 2 2 2 3N 2 VN E 3N 2 3N 1 2 negl S s'écrit donc S k ln E dE k ln E k ln dE 3N 3N m S k ln ln E N ln V 2 23N 2 2 3 Or d'après la thermodynamique on sait que 1 S 3 Nk T E V , N 2 E et que P S Nk T V E , N V On retrouve alors l'expression de l'énergie interne d'un gaz parfait monoatomique ainsi que l'équation d'état: 3 E kT 2 PV NkT Par ailleurs si on effectue une détente de Joule sur un tel gaz, on a: S i Nk ln V ... S f Nk ln 2V ... On a donc S Nk ln 2 0 On retrouve bien les résultats et ceci corrobore bien le fait que l'entropie statistique puisse être assimilée à l'entropie thermodynamique (d'ailleurs la constante de Boltzmann a été choisie dans cette perspective, ce n'est donc pas un vrai miracle…)