LP 18 Notion d`état microscopique

publicité
LP 18 Notion d'état microscopique
Interprétation statistique de l'entropie
Exemples (1er CU)
Intro: dans le cadre de la thermodynamique statistique, il faut, via une étude probabiliste,
étudier les comportements microscopiques d'un système pour en déduire ses propriétés
macroscopiques, seules vraiment exploitables.
Nous allons donc ici introduire des notions, ainsi que le postulat fondamental de la
mécanique statistique, qui nous permettrons de définir l'entropie statistique, qui en fait est la
même que la fonction S déjà vu en thermodynamique et qui caractérisait l'irréversibilité d'une
transformation.
A) Notion d'état accessibles:
1) Paramètres extérieurs et variables internes:
Si l'on veut étudier le comportement d'un système, on utilise des grandeurs telles que
V , E, T ,  , N , p .
Certaines d'entre elles sont fixées par des contraintes extérieures imposées au système.
Par exemple, si on considère un gaz dans une enceinte fermée, indéformable et
adiabatique, alors N , V , E sont fixées. Par contre, pour un système en contact avec un
thermostat, ce sont N , V , T qui sont fixées alors que E varie par échange de chaleur.
De telles grandeurs seront appelées paramètres extérieurs.
Par opposition à ces paramètres, d'autres grandeurs sont libres de fluctuer au gré de
l'agitation des particules. Ce sont par exemple pour le 1er cas T et P, pour le 2ème cas E.
Ces grandeurs seront appelées variables internes.
Th
Ext:V,N,E
Int:T,P
Ext:V,N,T
Int:E,P
Ext:P,N,E
Int:T,V
2) Paramètres extérieurs et états accessibles:
Considérons un système isolé que nous supposerons également à l'équilibre
macroscopique.
Son état macroscopique est alors déterminé par les valeurs d'un certain nombre de
paramètres extérieurs, qui comprennent toujours E et N1 , N 2 ,... et souvent V.
Il est clair qu'il existe un grand nombre d'états microscopiques vérifiant les contraintes
extérieures. Il existe bien sûr un nombre encore plus grand d'états qui sont incompatibles avec
les contraintes, et donc exclus.
Par définition, on appelle état accessible d'un système tout état microscopique compatible
avec les valeurs macroscopiques des paramètres extérieurs.
3) Postulat fondamental de la mécanique statistique:
Pour un système isolé à l'équilibre macroscopique, tous les états microscopiques
accessibles ont même probabilité.
Pour préciser la signification de ce postulat, appelons E la valeur fixée de l'énergie du
système et E celle de l'incertitude macroscopique qui lui est associée.
Idem avec…
Si on appelle  le nombre d'états accessibles, alors la probabilité Pl d'un état l
d'énergie E l vaut:
1
 si E  El  E  E
Pl   
0 autrement
B) Entropie statistique:
1) Définition générale:
Par définition, l'entropie d'un système vaut:
S  C  Pl ln Pl , où C  IR* et où Pl est la probabilité correspondant à l'état l.
l
Cette grandeur est utilisée en théorie de l'information comme caractéristique du manque
d'information
2) Entropie statistique:
En mécanique statistique on pose C  k B , et on a S  k B  Pl ln Pl
l
Si on utilise le postulat fondamental de la mécanique statistique, on obtient alors:
S  k B ln 
3) Propriétés de la fonction entropie:
 S est une fonction extensive.
Conditions d'évolution d'un système:
Considérons un système de paramètres extérieurs E, x avec une variable interne y.
Par exemple:
V1
Les paramètres extérieurs sont E,V , N ,V1
La variable interne est n1 dans V1
Pour y donné il y a E, x, y  états accessibles avec E, x, y   E, x
Et  E , x, y   E , x 
y
La probabilité pour le système d'être dans l'état E, x, y vaut
 E , x, y 
Py 
 E , x 
Soit y max la valeur de y telle que Py soit maximum.
y
1

 1
ym
N
L'état d'équilibre du système est donc donné par E , x, y max ce qui correspond au maximum
de  et donc de S.
On en tire donc que:
S est une fonction d'état ne dépendant que des paramètres extérieurs.
l'état d'équilibre est atteint est celui correspondant à S max pour les variables internes
On retrouve alors de 2nd principe de la thermodynamique.
On peut montrer que y  y m et que
C) Exemples:
1) Le cristal paramagnétique parfait
On considère N spins

B

1
dans B // O z
2
   B
   B
On a E  n  n B et N  n  n

1
E 

n    N 
2
B 

Ce qui implique que: 
n  1  N  E 
  2 
B 

On a donc une unique variable interne, par exemple n  . Le nombre d'états accessibles vaut
donc:
N!
N!
  C Nn 
et donc S  k ln
n !N  n !
 N  E /( B)   N  E /( B) 

!
!
2
2



Or ln N! N ln N  N

E 
E 
E 
E 
N
N
 N
N


B 
B 
B 
B 

D'où S  k  N ln N 
ln

ln




2
2
2
2










On a S max pour E  0 et B  0 et vaut S max  kN ln 2 .
S
Nk ln 2
Interprétation: l'entropie est maximale pour
E=0 : répartition aléatoire
Elle est minimale pour E=NB, c'est-àdire tous les spins alignés dans le même sens:
information maximale.
1
-1
E
N B
1
2) Le gaz parfait. Détente de Joule.
Pour un système classique, on introduit une grandeur  E  , densité d'état, telle que:
 E,V , N dE  E  El  E  dE,V , N 
Par ailleurs, pour un gaz parfait classique, on peut montrer que:
3N  m 
 E  


2  2 2 
3N
2
VN
E
3N 2
3N
1
2
negl
S s'écrit donc
S  k ln  E dE  k ln  E   k ln dE
  3N

 3N  m

 
S  k ln 
ln 
E   N ln V 
2

  23N 2  2  3

Or
d'après
la
thermodynamique
on
sait
que
1  S 
3 Nk
 

T  E V , N 2 E
et
que
P  S 
Nk



T  V  E , N
V
On retrouve alors l'expression de l'énergie interne d'un gaz parfait monoatomique ainsi que
l'équation d'état:
3
E  kT
2
PV  NkT
Par ailleurs si on effectue une détente de Joule sur un tel gaz, on a:
S i  Nk ln V  ...
S f  Nk ln 2V  ...
On a donc S  Nk ln 2  0
On retrouve bien les résultats et ceci corrobore bien le fait que l'entropie statistique puisse
être assimilée à l'entropie thermodynamique (d'ailleurs la constante de Boltzmann a été
choisie dans cette perspective, ce n'est donc pas un vrai miracle…)
Téléchargement