Physique Statistique (M1) ph402 – Notes de cours —I—

publicité
Physique Statistique (M1)
ph402 – Notes de cours
—I—
Jean-Baptiste Fournier
Université Paris 7 – Denis Diderot
2004-2005
2
Chapitre 1
Statistique microcanonique
1.1
Rappels de probabilités
1.1.1
Probabilités discrètes
Soient des évènements aléatoires A, B, . . ., résultats d’évènements élémentaires sous-jacents équiprobables. Appelons Γ l’ensemble de ces évènements
et Ω son cardinal. Soit X un évènement quelconque. Soit Ω(X) le cardinal
de l’ensemble des évènements élémentaires correspondant à X. Par définition
P (X) = Ω(X)/Ω est la probabilité de l’évènement X.
Ex. : lancer un dé.
C
1
2
3
4
5
6
A
Γ
Ω(A)
3
1
= = .
Ω
6
2
Ω(B)
1
B : mult. de 3 — P (B) =
= .
Ω
3
Ω(C)
1
C : jet ≤ 3 — P (C) =
= .
Ω
2
A : jet pair — P (A) =
B
Propriétés
• 0 < P (X) < 1
(1 : évènement certain)
• Probabilité de A et B (pair & mult. de 3)
P (AB) =
Ω(A ∩ B)
1
= .
Ω
6
1
(1.1)
2
Université Paris VII – Jean-Baptiste Fournier
• Probabilité de A ou B
P (A + B) =
Ω(A) + Ω(B) − Ω(A ∩ B)
Ω(A ∪ B)
=
.
Ω
Ω
(1.2)
ainsi
P (A + B) = P (A) + P (B) − P (AB).
(1.3)
Si les évènements sont exclusifs : P (AB) = 0, ainsi
P (A + B) = P (A) + P (B) (évènements exclusifs).
ici P (A + B) =
4
6
(1.4)
= 23 .
• Probabilité de A sachant B
P (A | B) =
Ω(A ∩ B)
P (AB)
=
.
Ω(B)
P (B)
(1.5)
Indépendance statistique
A et B sont stat. indép. ⇐⇒ savoir B n’a pas d’incidence sur l’issue de A
(et vice versa), i.e. P (A | B) = P (A) ; ainsi
P (AB) = P (A)P (B) (stat. indép.).
A
1
P
I
3
2
Γ1
Γ2
P1
Γ
B
I1
P2
P3
I2
I3
A et B
(1.6)
Physique statistique (M1) – I. Statistique microcanonique
3
On comprend mieux cette indépendance grâce à la notion d’espace–produit
(voir schéma ci-contre). Lancer un dé c’est comme faire deux tirages indépendants : (i) la parité (P ou I), (ii) le rang pour une parité donnée (1, 2 ou 3).
Ainsi I1 correspond à 1, P 1 à 2, I2 à 3, P 2 à 4, etc. L’espace Γ est l’“espace–
produit” des deux espaces Γ1 et Γ2 ; la propriété A n’étant déterminée que par
le premier tirage et la propriété B que par le second, il vient naturellement :
P (AB) =
1.1.2
Ω1 (A)Ω2 (B)
= P (A)P (B).
Ω1 Ω 2
(1.7)
Dénombrements
Permutations
Il y a N ! façons de permuter N objets.
1
2
3
4
5
6
7
o
o
1
o
o
2
o
Il y a N façons de placer le 1er , multipliées par N − 1 façons de placer le 2e ,
etc. (Imaginer une arborescence de toutes les possibilités.)
• Formule de Stirling
√
N ! ' N N e−N 2πN .
(1.8)
Pour N de l’ordre du nombre d’Avogadro (' 6.02 × 1023 ) :
ln N ! ≈ N ln N − N
(N ≈ 1023 ).
(1.9)
Ici on a negligé des termes O(log N ) ≈ 23 tandis que les termes retenus sont
de l’ordre de 1023 .
• Fonction Gamma d’Euler
Γ(x) =
Z
∞
dt tx−1 e−t .
(1.10)
0
Il est facile de voir que Γ(1) = 1 (notons aussi que Γ( 12 ) =
part
Z ∞
d
Γ(x + 1) = −
dt tx e−t = x Γ(x)
dt
0
√
π) et que d’autre
(1.11)
4
Université Paris VII – Jean-Baptiste Fournier
(intégrer par parties). Ainsi,
Γ(x) = (x − 1)! (x ∈
N)
(1.12)
Leonhard EULER (1707 - 1783),
mathématicien suisse. Parmi ses nombreux travaux,
on lui doit la notation
√
i pour −1, les notations sin, cos,
etc. des fonction trigonométriques. Il
inventa les exposants complexes et la
fonction Γ prolongeant la factorielle. Il
étudia aussi la mécanique des solides et
des fluides.
Combinaisons
Combien y a-t-il de façons CNn de choisir n objets parmi N ?
1
2
3
4
5
6
7
On fait N (N −1) . . . (N −n+1) listes ordonnées de n objets N , puis on élimine
les redondance en divisant par le nombre de permutations.
CNn =
N!
N (N − 1) . . . (N − n + 1)
=
n!
n! (N − n)!
(1.13)
• Répartir n objets identiques dans B boı̂tes
La solution est illustrée sur la figure : il faut choisir les positions de B − 1
“barres” parmi n + B − 1 sites (ou bien de n boules parmi ces sites).
n=6, B=4
n+B−1 sites
n
Ω = Cn+B−1
=
(n + B − 1)!
.
n! (B − 1)!
(1.14)
Physique statistique (M1) – I. Statistique microcanonique
1.1.3
5
Distribution binomiale, gaussienne, loi de Poisson
Distribution binomiale
Considérons N sous-systèmes indépendants (15 ci-dessous), chacun fluctuant
entre deux états : ↑ et ↓. Soit p la probabilité d’un sous-système d’être ↑ et
q = 1 − p sa probabilité d’être ↓.
Quelle est la probabilité P (n) qu’il y ait n sous-système ↑ ?
Avec les notations prédédentes, la probabilité de la configuration particulière
ci-dessus est
P (↓↑↑↓↑↑↓↑↓↓↑↑↑↑↓) = qppqppqpqqppppq = pn q N −n .
(1.15)
En effet les évènements sont indépendants donc on utilise la règle du produit.
D’autre part comme il y a un nombre CNn total de façons d’avoir n soussystème ↑ il faut sommer les probabilités correspondantes (cf. la probabilité de
A ou B pour des évènemenes exclusifs) ; ainsi
P (n) = CNn pn (1 − p)N −n
(distribution binomiale).
(1.16)
NB. On a bien une probabilité normalisée car
N
X
PN (n) =
N
X
CNn pn q N −n = (p + q)N = 1.
(1.17)
n=0
n=0
Limite gaussienne
P(n)
Le plus probable c’est d’avoir pN
flêches vers le haut. La distribution sera
donc piquée autour de pN . Regardons
le voisinage du maximum en supposant
n 1 et N − n 1.
∆m
pN
N
n
6
Université Paris VII – Jean-Baptiste Fournier
En utilisant la formule de Stirling on peut mettre PN (n) sous la forme
1
PN (n) ' √
2πN pq
n
Np
!−(n+ 1 )
2
N −n
Nq
!−(N −n+ 1 )
2
.
(1.18)
En posant alors n = pN +m où m/pN = 1 et en effectuant un développement
limité à l’ordre 2 , tout en ne gardant que les termes dominants pour N 1,
on obtient
PN (m) ' √
1
2πN pq
m2
e 2N p(1 − p)
−
(distribution gaussienne).
(1.19)
La largeur de la gaussienne, écart
q au-delà duquel la probabilité devient exponentiellement faible, est ∆m = N p(1 − p).
Carl Friedrich GAUSS (1777 - 1855),
mathématicien et physicien allemand.
Il fit d’importantes recherches en astronomie, en arithmétique, en statistiques,
et fonda notamment la géométrie
différentielle.
• Limite “thermodynamique”
Supposons avec N ' 1023 que l’on mesure la variable x = n/N (unité macroscopique).
Il vient P (x) = C exp(−(x − p)2 /[2N −1 p(1 − p)]) dont la largeur est
q
p(1 − p)/N ' 10−12 .
P(x)
epaisseur du trait
−12
10 cm
Macroscopiquement, le résultat est une
certitude, malgré le caractère aléatoire
des sous-systèmes élémentaires.
p
1
x
Physique statistique (M1) – I. Statistique microcanonique
7
Cette propriété est à la base de la thermodynamique statistique.
Limite Poisson
On se place maintenant dans la limite N 1 mais avec p 1 de sorte que la
valeur la plus probable pN =a
ˆ soit finie, de l’ordre de quelques unités.
p <<1
Ex. Des gouttes d’une pluie très éparse
tombent sur une plaque gigantesque.
Combien d’impacts sur la plaque pendant un temps ∆t ?
On suppose que chaque élément de la plaque a une probabilité p 1 de
recevoir une goute pendant ∆t. Si N 1, n N avec pN de l’ordre de l’unité,
on approxime N !/(N −n)! ≈ N n et (1−p)N −n ≈ (1−p)N = (1−a/N )N ' e−a .
Ainsi,
P (n) '
1.1.4
an e−a
n!
(distribution de Poisson).
(1.20)
Variables continues, densité de probabilité
Nous allons maintenant nous intéresser à la distribution de probabilité d’une
variable continue. Considérons le tirage au sort dans l’intervalle [a, b] d’une
variable aléatoire notée X. Nous supposons que les différentes valeurs possibles
ne sont pas équiprobables. Soit P (x, ) la probabilité de l’évènement : « le
résultat tombe dans [x, x + ] ». Pour x fixé, cette probabilité est une fonction
φ(). Si la fonction φ est suffisament régulière pour admettre un développement
limité en = 0, nous pouvons écrire
φ() = φ0 + φ1 + . . .
(1.21)
Si φ0 6= 0 cela signifie qu’il y a une probabilité φ0 que X tombe exactement sur
la valeur x, laquelle est par conséquent privilégiée parmi l’infinité des autres
valeurs possibles. Laissons de côté ce cas pour l’instant.
Dans le cas contraire, nous avons φ() ' φ1 , pour suffisament petit : la
probabilité est proportionnelle à la taille de l’intervalle (c.-à-d. d’autant plus
faible que l’intervalle est étroit). Comme φ1 est une fonction de x, nous l’appelons p(x). La fonction p(x) ainsi définie s’appelle la « densité de probabilité
8
Université Paris VII – Jean-Baptiste Fournier
de la variable X » ou bien « la fonction de distribution de X ». Ainsi, par
définition, pour une variable continue (notant dx la quantité → 0) :
p(x) dx est la probabilité que X ∈ [x, x + dx].
(1.22)
Notons que si l’on a p(x) = α δ(x − x0 ) + p0 (x), où p0 (x) n’est infinie nulle
part et δ(x) est la distribution de Dirac,
alors la probabilité que X tombe
R
exactement sur la valeur x0 est α, car p(x)dx → α lorsque l’on intègre dans
un intervalle infiniment petit centré en x0 . On inclue donc ainsi le cas φ0 6= 0
écarté précédemment.
Changement de variable
A partir de maintenant nous confonderons X et x comme il est usuel. Soit x
une variable aléatoire de distribution p(x). Soit y une variable dépendante de
x donnée par y = f (x). Quelle est la distribution p̂(y) de y ?
f(x)
p̂(y) dy = p(x) dx, d’où
y+dy
y
dx
,
dy
avec x(y) = f −1 (y).
p̂(y) = p (x(y))
x x+dx
C’est parfois plus compliqué comme l’illustre la figure ci-dessous.
f(x)
p̂(y) dy = p(x1 ) dx1 + p(x2 − dx2 )|dx2 |,
y+dy
y
dx1
p̂(y) = p(x1 (y))
+ p(x2 (y))
dy
dx 2
dy avec x1 (y) = f1−1 (y) et x2 (y) = f2−1 (y).
x1 x+dx
1
1
x−dx
x2
2
2
Physique statistique (M1) – I. Statistique microcanonique
1.1.5
9
Moyenne, variance, moments, cumulants
• Normalisation
Z
dx p(x) = 1
(cf. probabilité de la somme d’évènements exclusifs).
• Moyenne d’une variable aléatoire
p(x)
x=
Z
dx x p(x)
f (x) =
xm x
Z
dx f (x) p(x)
x
La moyenne est en général décalée par rapport à la valeur la plus probable xm .
• Moments
Le nième moment de p(x) est
xn
=
Z
dx xn p(x) (nième moment).
(1.23)
• Variance σ 2 , écart type σ
Bien sûr on a x − x = 0, donc on caractérise l’écart statistique à la moyenne
par
2
Z
dx (x − x)2 p(x).
(1.24)
(x − x)2 = x2 − 2xx + x2 = x2 − x2 .
(1.25)
σ = (x −
x)2
=
Notez bien,
10
Université Paris VII – Jean-Baptiste Fournier
• Exemple
Prenons l’exemple de la distribution gaussienne. Il est bon de connaı̂tre par
coeur les relations qui suivent
Z
+∞
2
dx e−ax =
r
−∞
Z
π
,
a
(1.26)
s
+∞
− 12 ax2 +xy
dx e
=
−∞
2π + 1 1 y2
e 2a .
a
(1.27)
La distribution gaussienne est
−
1
p(x) = √
e
2πσ 2
(x − x)2
2σ 2 .
(1.28)
On a alors
Z
dx p(x) = A
Z
Z
√
y2
dy e− 2σ2 = A 2πσ 2 = 1.
Z
Z
dx x p(x) = A
dx (x − x)2 p(x) = A
= Aσ
y2
dy (x + y) e− 2σ2 = x
y2
Z
dy y 2 e− 2σ2 = −Aσ 2
2
Z
(1.29)
Z
dy y
y2
dy e− 2σ2 = σ 2 .
(1.30)
d − y22
e 2σ
dy
(1.31)
La variance étant obtenue ici par une intégration par parties.
• Fonction caractéristique (génératrice des moments)
A p(x) on associe sa fonction caractéristique (qui n’est autre que sa transformée
de Fourier) :
p(x)
→
p̃(k) = eikx = dx eikx p(x),
R
(1.32)
|p̃(k)| < 1 pour k 6= 0.
(1.33)
Elle a comme propriétés évidentes :
p̃(0) = 1,
Physique statistique (M1) – I. Statistique microcanonique
11
D’autre part, comme exp(ikx) = 1 + ikx − 12 k 2 x2 + . . ., on a
1
(ik)n n
p̃(k) = 1 + ik x − k 2 x2 + . . . +
x + ...
2
n!
(1.34)
Ainsi :
Le développement limité de p̃(k) génère tous les moments de la distribution.
Par exemple, pour la distribution gaussienne, on a
x2
p(x) = A e− 2σ2 ,
(1.35)
x2
1 2 2
1 1 2 2
dx e− 2σ2 +ikx = A e+ 2 σ (ik) = e− 2 k σ .
(1.36)
A
on reconnaı̂t que la transformée de Fourier d’une gaussienne est une gaussienne
de largeur inverse.
p̃(k) = A
Z
• Cumulants
On pose
p̃(k) = eikx =
ˆ eq̃(k) ,
(1.37)
Le développement limité de q̃(k) donne, par définition, les cumulants de la
distribution
q̃(k) = ln[p̃(k)] = ln(1 + ikx −
k2 2
k2
x + . . .) = ikx − (x2 − x2 ) + O(k 3 ). (1.38)
2
2
Les cumulants sont c1 = x, c.-à-d. la moyenne, c2 = (x − x)2 , c.-à-d. la variance, c3 = (x − x)3 , c4 = (x − x)4 − 3c22 , etc.
Notons que la distribution gaussienne donne q̃(k) = − 21 k 2 σ 2 ; ainsi tous les
cumulants d’ordre trois ou plus sont nuls. On peut donc voir les cumulants
supérieurs à deux comme caractérisant l’écart de la distribution à sa meilleure
approximation gaussienne.
1.1.6
Statistique de plusieurs variables
On définit la distribution jointe p(x, y) de deux variables aléatoires en désignant
par p(x0 , y0 )dx dy la probabilité simultanée que x ∈ [x0 , x0 + dx] et que y ∈
[y0 , y0 + dy]. On a alors
12
Université Paris VII – Jean-Baptiste Fournier
Z
x=
Z
dx dy p(x, y) = 1,
dx dy x p(x, y) et y =
Z
dx dy y p(x, y).
(1.39)
(1.40)
Ainsi, il est immédiat que
x + y = x + y.
(1.41)
La valeur moyenne de xy est
xy =
Z
dx dy xy p(x, y)
(1.42)
et
x y 6= x y
en général.
(1.43)
• Indépendance statistique
D’après la section 1.1.1, la condition d’indépendance statistique est p(x, y) =
f (x)g(y), avec f et g séparément normalisées. On a alors
xy =
Z
dx dy xy f (x)g(y) = x y.
(1.44)
Ainsi,
indép. stat.
=⇒
x y = x y,
(1.45)
Attention, la réciproque n’est pas vraie (voir le paragraphe suivant).
• Corrélation entre deux variables
Pour quantifier combien l’écart à la moyenne de x influe sur l’écart à la moyenne
de y on définit la corrélation
Cxy = (x − x)(y − y) = x y − x y.
(1.46)
Deux variables sont dites décorrélées si Cxy = 0.
Par exemple, dans un aimant, deux moments magnétiques auront tendance à
fluctuer à l’unisson (autour de leur moyenne commune) lorsqu’ils sont proches,
tandis que leurs fluctuations seront indépendantes lorsque leur séparation r est
suffisamment grande ; ainsi on aura C(r) 6= 0 pour r ξ et C(r) ' 0 pour
r ξ, ce qui définit la longueur de corrélation ξ.
Physique statistique (M1) – I. Statistique microcanonique
13
NB. Deux variables peuvent être accidentellement décorrélées sans être indépendantes.
• Variance de la somme ?
Il est immédiat que
(x + y)2 = x2 + y 2 + 2 x y,
x + y 2 = x2 + y 2 + 2 x y.
(1.47)
(1.48)
Ainsi, alors que la moyenne de la somme est toujours la somme des moyennes,
il est nécessaire que les variables soient décorrélées pour que la variance de la
somme soit la somme des variances :
2
= σx2 + σy2
σx+y
(décorrélées).
(1.49)
(Il est donc bien sûr suffisant qu’elles soient indépendantes.)
• Fonction caractéristique de la distribution de la somme de deux variables
indépendantes
Soit s=x+y,
ˆ
où x est distribué selon f (x) et y selon g(y). Quelle est la fonction
caractéristique de la distribution de s ?
Il est facile de voir que la distribution de s est donnée par
h(s) =
Z
dx dy δ(x + y − s) p(x, y),
(1.50)
où δ est la distribution de Dirac. En effet, en utilisant la définition de δ on a
Z
s2
ds h(s) =
s1
Z
dx dy p(x, y)
(1.51)
[[s1 ,s2 ]]
où la notation [[s1 , s2 ]] désigne le domaine du plan (x, y) correspondant à des
valeurs de s dans l’intervalle [s1 , s2 ] ; ainsi le membre de gauche est bien la
probabilité de trouver s dans l’intervalle [s1 , s2 ] quel qu’il soit.
Si les variables sont indépendantes, i.e., si p(x, y) = f (x)g(y), alors
h̃(k) =
=
Z
ds dx dy δ(x + y − s) f (x)g(y)eiks
Z
dx dy f (x)g(y)eik(x+y) = f˜(k)g̃(k).
(1.52)
h̃(k) = f˜(k) g̃(k) (x et y indép.).
(1.53)
Ainsi
s=x+y
=⇒
On reconnaı̂t simplement que la transformée de Fourier d’une convolution, telle
(1.50) pour p(x, y) = f (x)g(y), est le produit des transformées de Fourier.
14
Université Paris VII – Jean-Baptiste Fournier
1.1.7
Théorème de la limite centrale (TCL)
Soient x1 , . . . , xN une collection de N 1 variables aléatoires indépendantes,
a priori différentes, mais de variances σi finies. Soient pi (xi ) leurs distributions.
Sans perte de généralité on suppose que xi = 0 (sinon on pose yi = xi − xi et
on raisonne sur yi au lieu de xi ).
On pose
Σ
1
ˆ
(1.54)
X = (x1 + . . . + xN ) =
N
N
Vers quoi tend la distribution φ(X) de X dans la limite N → ∞ ?
D’après le paragraphe précédent, Σ a pour fonction caractéristique le produit des p̃i (k). Un simple changement de variable montre que X a alors pour
fonction caractéristique le produit des p̃i (k/N ). On a donc, en vertu de (1.34),

σ2
φ̃(k) = 1 − 1
2
k
N
!2
!

2
σN
k3  
1
−
+O
.
.
.
N3
2
k
N
!2
!
k3 
+O
(1.55)
N3
Ainsi,
σ2 k2
1
+O
,
ln φ̃(k) = −
2 N
N2
(1.56)
où
σ2 =
ˆ
2
σ12 + . . . + σN
,
N
(1.57)
est la moyenne des variances. Donc
σ2 k2
lim φ̃(k) = e N 2
−
N →∞
(1.58)
qui est la fonction caractéristique d’une gaussienne. Il s’ensuit que la distribution de X est gaussienne (unicité de la transformée de Fourier).
Pour mieux se souvenir du “TCL” il est préférable de considérer la somme Σ
des variables, qui est gaussienne aussi (simple changement de variable). Ainsi
TCL : La distribution de la somme d’un très grand nombre de
variables aléatoires indépendantes, de variances finies, tend vers une
gaussienne. Cette gaussienne étant caractérisée par sa moyenne et
sa variance, elle est déterminée sans ambiguı̈té, car la moyenne de
la somme est la somme des moyennes, et la variance de la somme
est la somme des variances (si variables indép.).
Physique statistique (M1) – I. Statistique microcanonique
15
Distribution de la somme Σ
de variables aleatoires indep .
de variances finies
Comme pour N 1 variables identiques (ou similaires), la somme des
moyennes est proportionnelle à N et la
racine de la somme
√ des variance est proportionnelle à N N , on retrouve la
“certitude” du résultat macroscopique
correspondant à la somme d’un grand
nombre d’évènements aléatoires.
somme des
variances
somme des
moyennes
Σ
NB. Le théorème de la limite centrale s’applique aussi si les variables ne sont
pas indépendantes mais corrélées “à courte portée”, c’est-à-dire si chacune des
xi n’est significativement corrélée qu’à un nombre fini de ses voisines.
16
1.2
1.2.1
Université Paris VII – Jean-Baptiste Fournier
Ensemble microcanonique
Errance microscopique d’un système “isolé”
On s’intéresse à la connexion entre la description macroscopique d’un système
à l’équilibre thermodynamique, traduite par les variables bien connues E, N ,
V , P , T , S, F , µ, . . . et sa réalité microscopique sous-jacente, décrite par un
nombre gigantesque de variables, de l’ordre du nombre d’Avogadro ' 1023 :
positions, impulsions, spins, . . ..
Soit Σ un système « isolé » de l’extérieur. Cela peut être par exemple un gaz
de N particules enfermé dans une enceinte de volume V qui ne lui permet pas
d’échanger des particules ou de l’énergie avec l’extérieur. Par contre, cela ne
peut pas être un caillou dans un bac d’eau (il échange de l’énergie sous forme
de chaleur avec l’eau) ; cela ne peut pas non plus être un liquide qui serait en
équilibre avec de la vapeur (il échange des particules avec la vapeur).
Amedeo AVOGADRO (1776 - 1856),
physicien et chimiste italien. Son analyse des travaux de Gay-Lussac et de
Dalton sur le volume des gaz l’on
conduit à postuler que les “atomes”
étaient regroupés en molécules. Le
nombre d’Avogadro ' 6.02 × 1023
représente l’immensité macroscopique.
Notre système est “isolé” au sens thermodynamique, c’est-à-dire qu’il n’échange ni travail mécanique, ni énergie sous forme de chaleur avec l’extérieur. Cependant il n’est pas réellement isolé au sens de la mécanique : il est en général
enfermé dans un récipient isolant avec les parois duquel il échange des forces
(sa quantité de mouvement n’est donc pas constante).
Plus important, son énergie n’est pas non plus rigoureusement constante.
Elle nous semble constante à l’échelle macroscopique, mais elle fluctue microscopiquement dans un intervalle [E, E + δE]. Cette fluctuation est inévitable.
Son origine peut-être attribuée à l’imperfection des parois, qui échangent un
travail infime avec le système. Elle est aussi d’origine quantique ! La réalité
microscopique est quantique, et notre système ne doit certainement pas être
considéré comme quantiquement isolé (si c’était le cas, il resterait éternellement
dans un unique état propre de l’Hamiltonien). En fait, ne serait-ce qu’à cause
du couplage avec les fluctuations du vide et à cause des champs infimes résiduels,
et parce que ses niveaux d’énergie sont tellement proches les uns des autres (car
Physique statistique (M1) – I. Statistique microcanonique
17
il est macroscopique), notre système erre éternellement de niveau d’énergie en
niveau d’énergie dans l’intervalle [E, E +δE]. C’est l’image microscopique qu’il
convient d’avoir d’un système thermodynamique “isolé”.
"vide"
parois
champs ext.
E+δE
E
Le système macroscopique Σ que nous considérons a donc les contraintes
suivantes :
– V fixé : volume accessible au système
– N fixé : nombre de particules enfermées (sauf photons).
– E “fixé” : dans l’intervalle [E, E + δE], où δE est très petit devant E mais
très grand devant la séparation entre les niveaux d’énergie.
• Espace des micro-états, espace des phases
Dans le cadre d’une description quantique, Γ représente (schématiquement)
l’ensemble discret de tous les états propres possibles du Hamiltonien pour
toutes les valeurs possibles des paramètres macroscopiques. Le système erre
d’état en état (superpositions d’états propres) dans la coquille Γ∗ correspondant aux états accessibles compatibles avec les contraintes macroscopiques.
Γ
Γ : espace (multidimensionnel) des microétats possibles du système.
Γ∗ : espace des microétats accessibles.
Γ*
18
Université Paris VII – Jean-Baptiste Fournier
Dans le cadre d’une description classique, pour un fluide, Γ, qu’on appelle
alors l’espace des phases, est l’espace à 6N dimensions dont les axes sont toutes
les composantes des positions et des impulsions de toutes les particules. La
coquille Γ∗ correspond aux états microscopiques compris dans le volume V et
dont l’énergie se trouve entre E et E + δE.
1.2.2
Distribution microcanonique
L’hypothèse fondamentale de la mécanique statistique (qu’on ne sait pas
démontrer dans le cas général) est qu’un système “isolé” (au sens précédemment
expliqué) explore tous ses microétats accessibles avec la même probabilité. Ceci
est raisonnable, étant donné le caractère aléatoire des sollicitations causant
l’errance microscopique du système.
Soit un microétat ` ∈ Γ :
` ∈ Γ∗
`∈
/ Γ∗
→
→
P` = constante,
P` = 0.
Définissons maintenant Ω = Ω(E, δE, V, N ) le nombre de microétats accessibles au système. On a alors, pour tous les états accessibles :
P` =
1
Ω(E, δE, V, N )
(distribution microcanonique).
(1.59)
• Systèmes modèles quantiques
Dans les exercices (voir TD), on omet en général le δE, en prenant pour Ω
le nombre de microétats d’énergie strictement égale à E (ce qui est possible à
cause de la quantification). Cela revient à prendre δE inférieur à l’espacement
des niveaux. Ce choix simplifié de δE est sans incidence sur la thermodynamique, comme nous le verrons par la suite.
1.2.3
Equilibre thermodynamique, moyenne d’ensemble
Un grand nombre de systèmes, une fois laissés au repos, atteignent l’équilibre
thermodynamique après un certain temps de relaxation. Il y a des contreexemples : les systèmes vitreux ou pâteux—qui “vieillissent” physiquement,
les systèmes constamment soumis à un apport d’énergie extérieur, etc.
Par définition :
Physique statistique (M1) – I. Statistique microcanonique
Equilibre thermodynamique
19
Exploration uniforme et équiprobable
⇐⇒ (ergodique) de l’ensemble des microétats accessibles.
Une fois l’équilibre atteint, le système est dans un état stationnaire macroscopiquement. Soit A une quantité macroscopique mesurable ; on peut définir
et calculer sa valeur moyenne Ā aussi bien par une moyenne temporelle (T très
grand devant le temps de relaxation du système) :
1ZT
dt A(t),
T 0
que par une moyenne dite d’ensemble :
Ā =
Ā =
X
A` P ` .
(1.60)
(1.61)
`∈Γ∗
Nous verrons que si le système est macroscopique, la valeur moyenne Ā coı̈ncide
très exactement avec la valeur que l’on peut mesurer macroscopiquement.
• Ensembles de Gibbs
La notion d’ensemble statistique (moyenne d’ensemble) est attribuée à Gibbs.
On imagine préparer N copies identiques du système (N etant un nombre
faramineusement grand). La probabilité P` correspond au nombre de systèmes
dans le microétat ` divisé par N . Faire une moyenne d’ensemble c’est moyenner
une quantité sur tous les systèmes et cela correspond à la formule (1.61). C’est
pour cela qu’on parle d’ensemble microcanonique (on introduira l’ensemble
canonique dans le chapitre suivant).
Josiah GIBBS (1839-1903), physicien
américain. Il contribua à la description
statistique de la thermodynamique, introduisant notamment les notions d’ensembles statistiques, et développant les
concepts d’enthalpie libre, de potentiel
chimique, et d’équilibre entre phases.
1.2.4
Entropie
De la façon la plus générale, pour un système qui visite ses états accessibles
` avec une probabilité P` , on définit l’entropie statistique par
20
Université Paris VII – Jean-Baptiste Fournier
S=
ˆ − kB
X
P` ln P` ,
(1.62)
`
où kB ' 1.38×10−23 J/K est la constante de Boltzmann (kB T est une énergie).
C’est pour l’instant une définition ; nous verrons plus loin que cette appelation
permet de faire le lien avec la thermodynamique.
Entropie microcanonique
Pour la distribution microcanonique (système isolé), on a P` = 1/Ω, où
Ω(E, δE, V, N ) est une constante. Ainsi,
S = kB ln Ω (microcanonique).
(1.63)
Donc S est le logarithme du nombre d’états accessibles. A priori, c’est une
fonction S(E, δE, V, N ).
Ludwig BOLTZMANN (1844 - 1906),
physicien autrichien. Il établit la relation entre l’entropie (notion empirique introduite par Clausius) et l’analyse statistique des degrés de liberté atomiques. Il contribua aussi à la naissance de la mécanique quantique. Ses
travaux furent méconnus et critiqués de
son vivant. La formule (1.63) est gravée
sur sa tombe.
• Justification ?
Considérons un gaz enfermé dans un compartiment de volume V d’une enceinte
de volume V 0 > V . Tout d’un coup, on enlève la paroi interne et le gaz se
répand dans tout le volume V 0 de l’enceinte. Un grand nombre de micro-états
deviennent accessibles, et le nouvel état d’équilibre correspond au maximum
d’états accessibles, tout comme l’entropie en thermodynamique. Donc, Ω, ou
n’importe quelle fonction monotone croissante de Ω semble un bon candidat
pour l’entropie. Le bon choix est ln Ω, car on veut que l’entropie soit extensive :
Pour 2 systèmes indépendants Ω = Ω1 Ω2 et on a bien S = S1 + S2 .
Physique statistique (M1) – I. Statistique microcanonique
21
Densité d’états et rôle de δE dans l’entropie
Comme Ω(E, δE, V, N ) ∝ δE pour δE faible, on définit la densité d’états
ρ(E, V, N ) selon
Ω(E, δE, V, N ) = ρ(E, V, N ) δE.
(1.64)
• Entropie
Alors que Ω dépend fortement de δE, il se trouve, comme on va le voir, que
l’entropie est quasiment indépendante de δE pour un système macroscopique.
On peut donc poser
S(E, V, N ) = kB ln Ω(E, δE, V, N )
(1.65)
En effet, il se trouve qu’en général ρ(E, V, N ) ∼ E O(N ) [où O(N ) désigne une
quantité d’ordre N ]. En conséquence, on peut écrire, par exemple (afin d’avoir
des logarithmes de quantités sans dimension),
δE
1
S(E, V, N ) = ln [ρ(E, V, N ) E] + ln
.
kB
E
(1.66)
On voit alors que le second terme qui est O(1) est parfaitement négligeable
devant le premier qui est O(N ). En effet, même si δE ' 10−50 E, cela contribue un terme d’ordre 50, complètement négligeable devant N ' 1023 . Le δE
“disparaı̂t” donc en pratique quand on prend le logarithme pour passer de Ω
à S.
• Autre définition équivalente de S
En pratique, on utilise tout aussi bien la définition
S(E, V, N ) = kB ln∗ ρ(E, V, N ).
(1.67)
La notation ln∗ indique ici que le résultat dépend du choix de l’unité d’énergie
dans ρ(E). En effet, en choisissant E0 comme unité d’énergie, on peut écrire
ρ(E)
δE
+ ln
1/E0
E0
δE
= ln∗ ρ(E) + ln
.
E0
ln [ρ(E)δE] = ln
(1.68)
Comme précédemment, le premier terme est O(N ), alors que le second est
O(ln N ) O(N ), c’est-à-dire qu’il est parfaitement négligeable. Quant au
22
Université Paris VII – Jean-Baptiste Fournier
choix de l’unité E0 , il est aussi sans incidence car il produit une erreur de
l’ordre de celle faite en négligeant le second terme : en effet, un changement
d’unité produit au pire E0 → E0 × 1030 , ce qui contribue un terme d’ordre 30
négligeable devant le nombre d’Avogadro.
• Encore une autre définition
S(E, V, N ) = kB ln Ω̃(E, V, N ),
(1.69)
où Ω̃(E, V, N ) désigne le nombre d’états d’énergie inférieure à E. En effet,
pour un système macroscopique on a tout aussi Ω̃(E) ∼ E O(N ) ; comme ρ(E) =
dΩ̃(E)/dE, on a Ω̃(E) ≈ ρ(E) E à un facteur O(N ) près dont le logarithme
est négligeable par rapport à celui de ρ(E).
1.2.5
Forces généralisées conjuguées aux paramètres extensifs
En principe, on n’a besoin que de la distribution des probabilités P` pour
calculer la valeur moyenne—observable macroscopique, de n’importe quelle
quantité. Cependant, comme nous allons le voir, la fonction S(E, V, N ) s’avère
d’une grande utilité pratique ; de plus, nous verrons qu’elle coı̈ncide avec l’entropie avec laquelle nous sommes familiers en thermodynamique.
En fixant V et N , on peut inverser (au moins localement) la fonction S(E),
ce qui donne
E(S, V, N ).
(1.70)
On définit alors
∂E ,
∂S V,N
T
=
ˆ
P
∂E =
ˆ −
,
∂V S,N
µ
=
ˆ
∂E .
∂N E,V
(1.71)
Pour l’instant, ce sont des définitions ; nous montrerons plus tard que ces quantités correspondent bien à la température, à la pression, et au potentiel chimique.
Physique statistique (M1) – I. Statistique microcanonique
23
Tandis que S, V , N et E sont des paramètres extensifs (ils s’avèrent être
proportionnels à la taille N du système), les paramètres T , P et µ sont intensifs : ils sont O(1) par rapport à N . Ils resteront constant si l’on réunit deux
systèmes identiques à l’équilibre.
• Différentielle dS
En inversant
dE = T dS − P dV + µ dN,
(1.72)
on obtient
dS =
1
P
µ
dE + dV − dN.
T
T
T
(1.73)
Ainsi, les paramètres intensifs s’obtiennent à partir de l’entropie S(E, V, N )
par dérivées partielles :
1
∂S =
,
∂E V,N
T
∂S P
=
,
∂V E,N
T
∂S ∂N E,V
µ
= − .
T
(1.74)
Exemple
Considérons un modèle ultra-simplifié de cristal à la température T , dont
les atomes, placés aux noeuds d’un réseau régulier, peuvent être soit dans leur
état fondamental (atomes indiqués en blanc sur la figure), soit dans un état
excité (en noir sur la figure). Le cristal possède N atomes au total. Appelons
n le nombre d’atomes excités.
24
Université Paris VII – Jean-Baptiste Fournier
Soit 0 l’énergie d’un atome dans l’état fondamental et 0 + ? l´énergie d’un
atome dans l´etat excité (? > 0). L’énergie totale est
E = N 0 + n ? .
(1.75)
Comme nous raisonnons sur un système isolé, E est fixée et donc n aussi. Le
nombre de micro-états possibles est alors donné par
Ω=
N!
.
n! (N − n)!
(1.76)
Ainsi, l’entropie est1
S = kB ln Ω ' kB [N ln N − n ln n − (N − n) ln (N − n)] .
(1.77)
En calculant 1/T = ∂S/∂E = (1/? ) ∂S/∂n, on obtient 1/T = (kB /? ) ln[(N −
n)/n]. En pratique on connait T et on veut déterminer n, ainsi en inversant la
relation précédente, on trouve
n=
N
.
1 + e? /kB T
(1.78)
Pour T = 0, on obtient n = 0 : tous les atomes sont dans l’état fondamental et le système a l’énergie minimale. Pour T ? /kB , on obtient n '
N exp(−? /kB T ) : le nombre d’atomes excités est exponentiellement faible.
A très haute température on obtient n ' N/2, c’est le désordre le plus total.
1.2.6
Distribution d’une variable interne — Entropie
partielle
Soient E, V , N les paramètres extensifs fixés de l’extérieur. Considérons une
variable macroscopique y interne (libre de fluctuer). Par exemple, y peut être
le nombre M instantané de particules dans un cube correspondant à 1/1000e
du volume d’un gaz.
y=M
1
E, V, N
A la limite N, n → ∞ (système macroscopique) on utilise l’approximation de Stirling.
Physique statistique (M1) – I. Statistique microcanonique
25
On fixe δy une fois pour toutes et on regarde P (y, δy) la probabilité de trouver
y dans [y, y + δy] :
P (y, δy) =
ω(E, δE, V, N, y)
,
Ω(E, δE, V, N )
(1.79)
où ω(E, δE, V, N, y) désigne le nombre de microétats correspondants.
Sans aucun calcul, il est immédiat que la valeur la plus probable y ? de y est
celle qui maximise ω(E, δE, V, N, y). Pour un système macroscopique, nous
allons voir que la valeur y ? domine tellement les autres valeurs de y qu’elle est
“certaine”.
On introduit l’entropie partielle
S(y) = kB ln ω(E, δE, V, N, y).
(1.80)
1
S(y)
P (y, δy) = P0 e kB
.
(1.81)
On a donc
NB. On peut réécrire cette expression comme
F (y)
−
P (y, δy) ∝ e kB T
(1.82)
où F (y) = E − T S(y) est une énergie libre partielle. Nous verrons plus tard
la généralité de cette écriture.
Maximiser ω(E, δE, V, N, y) revient à maximiser l’entropie partielle par
rapport à y. Au voisinage du maximum y ? , on a
S(y) ' S(y ? ) +
1
(y − y ? )2 S 00 (y ? ) + . . .
2
(1.83)
Comme y = O(N ) pour une variable macroscopique et S(y) = O(N ), il s’en?
suit que S 00 (y) = O(1/N ). Ainsi, autour
√ de y , la loi de probabilité de y est
une gaussienne de largeur relative 1/ N , c.-à-d. une gaussienne extrêmement
piquée :
26
Université Paris VII – Jean-Baptiste Fournier
P(y)
gaussienne piquee
1
− (y − y ? )2 |S 00 (y ? )|
P (y, y + δy) ' P0 e 2
y
y*
Ainsi, on retrouve bien une propriété de l’entropie thermodynamique traditionnelle :
Valeur d’équilibre d’une
“contrainte” interne y
Valeur qui maximise l’entropie partielle S(E, V, N, y).
=
Pression thermodynamique
A partir de dE = T dS − P dV + µ dN , est-il évident que P soit la pression ? Non, car P n’est défini ici que par P = T ∂S/∂V , c’est-à-dire que P
dépend de notre définition de l’entropie. La quantité P s’interprète comme la
force extérieure par unité de surface Pext qu’il faut appliquer au système pour
changer son volume sans varier son entropie ; en effet, le travail élémentaire est
alors −Pext dV = dE = T dS − P dV . Là encore, tout dépend de notre choix
pour S.
Nous allons montrer que P correspond bien à la pression mécanique qu’il faut
exercer sur le système pour le maintenir à l’équilibre vis-à-vis des variations de
son volume. Considérons l’ensemble isolé ci-dessous constitué de notre système
Σ couplé à un ressort mécanique. Nous traitons ce dernier comme un soussystème purement mécanique ne possèdant pas d’entropie. La paroi séparant
Σ du ressort peut coulisser sans frottement.
Σ
0
L
x
Physique statistique (M1) – I. Statistique microcanonique
27
La variable L est reliée au volume par V = AL, où A est l’aire de la paroi
mobile. C’est une variable interne pour le système total isolé Σ plus ressort.
Déterminons la valeur la plus probable de L (c’est-à-dire sa valeur d’équilibre
puisque Σ est macroscopique) en maximisant l’entropie totale par rapport à
L (cf. paragraphe précédent). L’entropie totale coı̈ncidant avec l’entropie du
système S(E, V, N ), la valeur d’équilibre de L est donnée par
∂S ∂E
∂S ∂V
1 ∂Eressort
∂S
dS
=0=
+
=−
+A
,
dL
∂E ∂L ∂V ∂L
T ∂L
∂V
(1.84)
puisque 1/T = ∂S/∂E et E + Eressort est une constante car le système total
est isolé. Il vient
1 ∂Eressort
Pressort
∂S =
A
=
.
(1.85)
∂V E,N
T
∂L
T
Donc P = T ∂S/∂V est bien la pression qu’il faut exercer de l’extérieur pour
maintenir le système à l’équilibre ; c’est donc bien aussi la pression que le
système exerce sur l’extérieur.
Equilibre thermique — température
Montrons que T a bien les propriétés d’une température. Considérons deux
systèmes en contact thermique : ils peuvent échanger de l’énergie sous forme
de chaleur mais pas de travail ni de particules. L’ensemble est isolé, de sorte
que E = E1 + E2 est constant.
E1 V1 N1
ener
E 2 V2 N2
gie
Comme le nombre total de microétats est Ω1 (E1 , V1 , N1 ) × Ω2 (E2 , V2 , N2 ),
l’entropie partielle par rapport à E1 est
S(E1 ; E, V1 , V2 , N1 , N2 ) = S1 (E1 , V1 , N1 ) + S2 (E2 , V2 , N2 ).
(1.86)
La valeur d’équilibre E1? est donnée par ∂S/∂E1 = 0, soit, comme E2 = E −E1 ,
∂S1
∂S2 ∂E2
∂S1
∂S2
+
=
−
= 0,
∂E1 ∂E2 ∂E1
∂E1 ∂E2
(1.87)
T1 = T2 .
(1.88)
c.-à-d.
28
Université Paris VII – Jean-Baptiste Fournier
Donc l’équilibre thermique correspond à l’équilibre des températures.
• Flux de chaleur
Si maintenant on part d’une situation initiale telle que T1 6= T2 , la dérive de
E1 vers la valeur d’équilibre E1? va se faire avec une augmentation de S(E1 ).
Donc
∂S1
∂S2
dS =
dE1 −
dE1 > 0,
(1.89)
∂E1
∂E2
1
1
−
T1 T2
dE1 > 0.
(1.90)
Le signe de l’évolution dE1 est donc assujetti au signe de T1 − T2 de telle sorte
que l’énergie s’écoule du corps le plus chaud vers le corps le plus froid.
On retrouve bien toutes les propriétés thermodynamiques connue de la
température.
Equilibre des pressions et des potentiels chimiques
Considérons les deux systèmes du paragraphe (1.2.6) et laissons-les échanger du
volume en plus de l’énergie (il est impossible qu’ils échangent du volume sans
échanger aussi de l’énergie sous forme de travail). En maximisant l’entropie
partielle par rapport à E1 et V1 , on obtient T1 = T2 comme précédemment, et
P1 /T1 = P2 /T2 (car ∂S/∂V = P/T ). Ainsi, l’équilibre requiert
P1 = P2 .
(1.91)
De même, si les systèmes échangent de l’énergie et des particules, on aura à
l’équilibre T1 = T2 et −µ1 /T1 = −µ2 /T2 , soit
µ 1 = µ2 .
(1.92)
“Forces” généralisées ; potentiel chimique
On peut interpréter ce qui précède en énonçant que
– La température est la “force” avec laquelle un système tend à donner de
l’énergie sous forme de chaleur à son entourage (dS = (1/T ) dE : pour avoir
dS globalement positif, le système ayant le plus grand 1/T va subir dE > 0).
– La pression est la “force” avec laquelle un système tend à prendre du volume
à son entourage (dS = (P/T ) dV : à l’équilibre thermique, pour avoir dS
globalement positif, le système ayant le plus grand P va faire dV > 0).
Physique statistique (M1) – I. Statistique microcanonique
29
On interpretera donc le potentiel chimique—appellation intuitive—comme
la “force” avec laquelle le système tend à donner des particules à son entourage
(dS = −(µ/T ) dN : à l’équilibre thermique, pour avoir dS globalement positif,
le système ayant le plus grand µ va faire dN < 0).
1.2.7
Descriptions microscopiques, microétats
Une particule classique
Soit une particule dans une boı̂te de volume V . Son espace des phases est
6
= {(x, y, z, px , py , pz )}. Soit l’énergie de la particule.
R
p
z
δR
=
py
1 2
px + p2y + p2z
2m
√
R = 2m
p
x
Le volume d’espace des phases accessible δΓ (que nous notions Γ∗ précédemment)
est défini par V et l’intervalle d’énergie [, + δ]
δΓ =
Z
V
dx dy dz
Z
dpx dpy dpz
[,+δ]
= V 4πR2 dR
= 2πV (2m)3/2 1/2 d
(1.93)
Nous nous intéressons en fait à Ω(, δ, V ) : le nombre de microétats accessibles. Pour les compter, il est nécessaire de diviser l’espace Γ en cellules
élémentaires de volume h3 où h est une constante minuscule qui a la dimension
d’une action ([x][p]). Nous verrons que dans la limite classique, les résultats
physiques ne dépendent pas du choix exact de cette constante. Quantiquement,
il y a derrière ce choix le principe d’incertitude de Heisenberg, qui interdit de
spécifier x et px simultanément de manière exacte. Nous allons voir dans la
suite qu’on fait le lien avec la description quantique en choisissant pour h la
constante de Planck h, telle que h̄ = h/2π ' 1.05 × 10−34 J s.
30
Université Paris VII – Jean-Baptiste Fournier
Ω(, δ, V ) =
δΓ
δΓ
=
ˆ
h3 (2πh̄)3
(1.94)
Il s’ensuit que la densité d’états est
ρ() =
Ω(, δ, V )
V
=
δ
(2π)2
2m
h̄2
3/2
1/2 .
(1.95)
Une particule quantique
Soit une particule quantique, libre, dans une boı̂te de volume V = Lx Ly Lz .
Pour compter les microétats accessibles, on dénombre les états propres du
Hamiltonien : Ĥ|ψi = |ψi. Ici, Ĥ = p̂2 /2m et donc, en représentation de
Schrödinger, on a
2m ψ(r).
(1.96)
h̄2
Par séparation des variables, on montre aisément que ψ(r) est un produit de
fonctions cos(ki xi ) ou sin(ki xi ), où xi dénote x, y ou z. Les ki sont tels que
k 2 = kx2 + ky2 + kz2 avec
h̄2 k 2
.
(1.97)
=
2m
La particule étant confinée dans une boı̂te, les conditions aux limites sont
ψ(r) = 0 aux bords (puits de potentiel infini) : x = 0 et x = Lx , etc. Cela
impose de ne garder que les sinus avec
− ∂x2 + ∂y2 + ∂y2 ψ(r) =
ki Li = ni π,
ni ∈
N.
(1.98)
• Conditions aux limites périodiques
En fait les conditions aux limites réelles sont inconnues et dépendent intimement de la nature des bords. D’autre part, ces conditions de bord n’influent
pas sur les propriétés thermodynamiques (car elles sont extensives), et l’on
peut montrer aussi que la forme de la boı̂te n’a pas d’importance dans la limite des grandes boı̂tes. On a alors l’habitude de choisir des conditions aux
limites périodiques, de période cubique L, dans un espace infini, même si elles
sont peu réalistes physiquement :
ψ(x + L, y, z) = ψ(x, y, z),
ψ(x, y + L, z) = ψ(x, y, z),
ψ(x, y, z + L) = ψ(x, y, z).
Physique statistique (M1) – I. Statistique microcanonique
31
Comme la particule est libre maintenant (la boı̂te est virtuelle), sa fonction
propre est fonction propre à la fois de l’impulsion p̂ → −ih̄∇ et de p̂2 →
−h̄2 ∇2 ; sa fonction d’onde est donc du type ψ(r) ∝ exp(ik·r) et les conditions
aux limites se traduisent par :
ky
Z
2π
(nx , ny , xy ), nx , ny , xy ∈ .
L
2π 3 (2π)3
3
δ k=
=
(à 3D).
L
V
k=
kx
2
δk
(2D)
• Densité d’états
Comptons maintenant les états dont l’énergie est comprise entre et + δ.
Comme au paragraphe précédent, ce sont les états dont le vecteur d’onde (i.e.,
l’impulsion) est dans la coquille sphérique comprise entre k et k + δk, où,
d’après (1.97),
2m
k=
h̄2
1/2
√
.
(1.99)
Nous avons donc
dn
4πk 2 dk/δ 3 k
=
d
d
V
2m 3/2 1/2
=
.
(2π)2 h̄2
ρ() =
(1.100)
N.B. Cette expression coı̈ncide avec l’expression obtenue dans la description
classique, ce qui justifie le choix de h dans ce dernier cas.
Oscillateur harmonique
Dans de nombreuses situations physiques, ex. atome ou particule confinée
dans un minimum de potentiel, on se place dans l’approximation quadratique :
32
Université Paris VII – Jean-Baptiste Fournier
U(x )
Faibles excitations =⇒ approximation
quadratique
1
U (x) ' k x2 .
2
x
On a alors, en mécanique quantique, en posant k = mω 2 :
p̂2
1
Ĥ =
+ mω 2 x̂2 .
2m 2
(1.101)
La procédure usuelle, que l’on rappelle ici, est de construire â et ↠, combinaisons linéaires de x̂ et p̂, tels que Ĥ = h̄ω(↠â + 1/2) avec [â, ↠] = 1. Il s’en
suit le spectre discret (↠â)|ni = n|ni où n ∈ . Donc les niveaux d’énergie
sont
N
En = h̄ω n +
1
2
.
(1.102)
Paramagnétisme
Le paramagnétisme désigne l’orientation par un champ magnétique de moments magnétiques pré-existants, donnant lieu à une aimantation moyenne
non nulle. (Le diamagnétisme correspond à des moments magnétiques induits
par le champ ; le ferromagnétisme désigne l’apparition d’une aimantation spontanée sans champ externe, due aux couplages entre les moments magnétiques
pré-existants.)
Dans un atome, ion, cristal, . . ., ce sont principalement les électrons (charge
−e, masse m) qui donnent lieu au paramagnétisme (l’effet des protons est
négligeable car la contribution est inversement proportionnelle à la masse, et
mp m).
En général, si B = B ez désigne un champ magnétique dirigé le long de l’axe
z, il y a une corrections aux niveaux d’énergie donnée par
∆E = −µ B = − (−g µB mJ ) × B,
(1.103)
où µB = eh̄/2m est le “magnéton de Bohr”, mJ la valeur propre de Jˆz /h̄
(Jˆz commute avec Ĥ, ainsi les états propres de l’énergie sont aussi des états
Physique statistique (M1) – I. Statistique microcanonique
33
propres de Jˆz ), et g, de l’ordre de l’unité, est le facteur de Landé (il dépend
des nombres quantiques L, S et J de l’état considéré).
D’où cela provient-il ? Chaque électron contribue dans Ĥ un terme
2
1 p̂ + e  ,
2m
(1.104)
Qui donne la force de Lorenz dans les équations du mouvement. Pour B = B ez ,
on peut prendre comme potentiel vecteur  = 12 B(x̂ ey − ŷ ex ). Le terme
linéaire en B est alors
∆Ĥ =
e
L̂z
(x̂ p̂y − ŷ p̂x ) B = µB
B.
2m
h̄
(1.105)
En réalité, par un effet purement quantique, l’électron contribue par un moment cinétique intrinsèque de spin (doté d’un facteur 2). Ainsi
∆Ĥ = µB
1
L̂z + 2Ŝz B.
h̄
(1.106)
– Pour un électron de moment orbital nul (L = 0 et S = 1/2), comme Ĵ =
L̂ + Ŝ, on retrouve la formule (1.103) avec g = 2 et mJ = mS = ±1/2. Il
vient
∆E = 2 µB B mS = ± µB B.
(1.107)
– Pour un état atomique avec L 6= 0 la situation est plus compliquée. A cause
du couplage entre les spins des électrons dans le Hamiltonien, les opérateurs
L̂z et Ŝz ne commutent pas avec Ĥ (alors que Jˆz , lui, commute toujours). On
n’a donc pas δE ∝ (mL +2ms ), car mL et mS ne sont pas définis pour un état
propre du Hamiltonien. Le calcul complet montre que hL̂z + 2Ŝz i = hJˆz + Ŝz i
avec bien sûr hJˆz i = h̄ mJ , mais aussi hŜz i = c h̄ mJ où c est une constante,
d’où le facteur non trivial de Landé.
1.2.8
Le gaz parfait dans l’approximation de Maxwell–
Boltzmann
Considérons N particules (atomes, molécules) sans interactions, enfermées
dans un volume V . Le système est isolé et son énergie est E (à δE près).
Dans la réalité, les électrons, les atomes et les molécules identiques sont indiscernables. C’est une propriété fondamentale due au caractère probabiliste
de la mécanique quantique et à l’impossibilité de définir des trajectoires. Nous
verrons que cela complique extrêmement le comptage des microétats, jusqu’à
34
Université Paris VII – Jean-Baptiste Fournier
rendre impossible la résolution du problème dans le formalisme microcanonique. L’approximation dite de Maxwell–Boltzmann, que nous allons utiliser
ici, sert à contourner cette difficulté. Les résultats obtenus seront corrects, excepté aux températures très basses, auxquelles les effets purement quantiques
se manifestent.
Traitement quantique
Le Hamiltonien du système est Ĥ = i p̂i 2 /2m. En choisissant, comme
au paragraphe (1.2.7), des conditions aux limites périodiques dans une boı̂te
cubique de longueur L, l’état quantique du système (état propre de l’énergie)
est donné par N vecteurs d’ondes de particules libres (i = 1 . . . N ) :
P


n
2π  i 
ki =
 mi  ,
L
`i
n i , m i , `i ∈
Z.
(1.108)
L’énergie totale est
E=
N
X
h̄2 ki 2
i=1
2m
.
(1.109)
Pour l’instant commençons par raisonner comme si les particules étaient discernables. Considèrons l’espace de dimension 3N dont les axes sont les composantes ki,α , où α = x, y, z. L’état du système peut être représenté par un
3N -vecteur K = ({ki,α }) sur un grillage 3N -dimensionnel dont l’espacement
est 2π/L sur chaque axe.
k4
k3
k 5,...
δR
k2
Représentation schématique du quadrillage des ki,α dans l’espace de dimension 3N des configurations (dans l’hypothèse où les particules sont discernables).
k1
On a alors
h̄2 2
K ,
(1.110)
2m
et tout se passe comme si on avait une seule particule dans un espace de
dimension 3N . Le nombre δn de points du grillage (donc de microétats du
E=
Physique statistique (M1) – I. Statistique microcanonique
35
gaz) dont l’énergie est comprise entre E et E + δE est le volume compris entre
les hyper-sphères de rayon
K=
2m
h̄2
1/2 √
E
(1.111)
et K +dK, divisé par le volume élémentaire (2π/L)3N . On montre (voir appendice en fin de chapitre) que la surface de la sphère de rayon unité en dimension
D est
2 π D/2
,
(1.112)
SD (1) =
Γ( D2 )
où Γ(x) =
R∞
0
dt tx−1 e−t = (x − 1)! est la fonction d’Euler. Il vient
3N
1
2π 2
3N −1
dK ×
δn =
3N K
(2π/L)3N
Γ( 2 )
=
m
2πh̄2
3N
2
3N
V N E 2 δE
.
) E
Γ( 3N
2
(1.113)
Si les particules sont indiscernables, on a surestimé par un facteur N ! chaque
configuration microscopique (permutations des N particules). Il faut donc diviser δn par N ! pour tenir compte de l’indiscernabilité. Ce raisonnement, qui
constitue l’approximation de Maxwell–Boltzmann, n’est cependant pas tout à
fait correct. En effet, en mécanique quantique, il est (éventuellement) possible
que plusieurs particules se trouvent exactement dans le même état (à cause de
la quantification) ; alors, diviser par N ! n’est plus la façon correcte de corriger δn (cf. Chap. IV). L’approximation de Maxwell–Boltzmann ne sera donc
valable qu’aux grandes énergies (haute température) pour lesquelles la grande
majorité des microétats correspond à des particules se trouvant toutes dans
des états différents (P` 1).
Dans l’approximation de Maxwell–Boltzmann on a donc
m
Ω(E, δE, V, N ) =
2πh̄2
3N
2
3N
V N E 2 δE
.
N ! Γ( 3N
) E
2
(1.114)
Comme nous l’avons déjà vu, quand on prend le logarithme de cette expression,
on peut négliger le facteur ln(δE/E), qui est O(1), devant le logarithme de
l’ensemble des autres termes, qui est O(N ). Donc l’entropie vaut


3N
3N
N
2
2
m
V E 
S = kB ln Ω ' kB ln 
.
2
3N
2πh̄
N! (
2
)!
(1.115)
36
Université Paris VII – Jean-Baptiste Fournier
Nous avons aussi remplacé Γ(3N/2) = (3N/2 − 1)! par (3N/2)!, ce qui fait
une erreur d’un facteur O(N ) dans le logarithme, soit une erreur négligeable
O(ln N ) N dans l’entropie. En utilisant la formule de Stirling : ln N ! '
(N/e)N on obtient finalement





3
32
2
m
V E  5
S = N kB ln 
,
+
2

N N
2
3πh̄
(1.116)
qui est la formule dite de Sackur–Tetrode.
NB. L’entropie du gaz parfait est bien une quantité extensive.
Traitement classique
Raisonnons maintenant en mécanique classique (mais toujours en supposant
les particules indiscernables). Pour un système de N particules, l’espace des
phases est l’espace de dimension 6N dont les points ont pour coordonnées
(r1 , p1 , . . . , rN , pN ), où ri est la position de la particule i et pi son impulsion.
L’énergie totale, fixée, est
N
X
pi
E=
.
(1.117)
i=1 2m
Comme il y a en fait 3N composantes d’impulsion, on peut écrire (en les
dénotants par un indice grec α) :
2mE =
3N
X
p2α ,
(1.118)
i=1
√
correspondant à l’hyper-sphère de rayon R = 2mR. Ainsi, dans le sous-espace
de dimension D = 3N formé par les composantes des impulsions, la région de
l’espace des phases accessible au système (dont l’énergie√est E à dE près) est
la couronne comprise entre les sphères de rayon R = 2mE et R + dR, ou
dR est l’incrément dû à dE. Le volume accessible dans l’espace des phases est
donc
dΓ =
Z
volume
3
3
d r1 . . . d rN
Z
couronne
d3 p1 . . . d3 pN = V N S3N (R) dR.
(1.119)
où, comme précédemment, SD (R) = SD (1)RD−1 est la surface de l’hypersphère de rayon R en dimension D (voir appendice). En utilisant l’expression
précédente de la surface d’une hyper sphère, nous obtenons
3N
dΓ = V
N
3N δE
(2πm) 2
E 2
.
3N
E
Γ( 2 )
(1.120)
Physique statistique (M1) – I. Statistique microcanonique
37
Nous souhaitons calculer l’entropie en prenant le logarithme du nombre
d’états accessibles. Le problème qui se pose à nous maintenant est que dΓ
est une quantité dimensionnée et non un nombre d’états. Nous n’avions pas
ce problème en mécanique quantique. Afin de définir un nombre d’états accessibles, nous allons artificiellement découper l’espace des phases en cellules
hyper-cubiques infinitésimales de volume h3N
0 où h0 est une action infinitésimale
(produit d’une longueur par une impulsion). Le choix de h0 échape à la mécanique classique. Dans ce contexte, il est arbitraire, et les résultats que nous
déduirons n’auront de sens que si ils ne dépendent pas de h0 . Ainsi, le « nombre
d’états accessibles » est
dΓ
,
(1.121)
Ω = 3N
h0 N !
où le facteur N ! a été introduit pour traiter l’indiscernabilité des particules,
selon la procédure de Maxwell-Boltzmann discutée précédemment. Ainsi

3N

3N δE
V N (2πm) 2
.
2
S = kB ln  3N
3N E
h0 N ! Γ( 2 )
E
(1.122)
En faisant les mêmes approximations que précédemment dans le cas quantique,
on obtient un résultat identique à (1.116), où à la place de h̄ figure h0 /(2π).
Ainsi, autant h̄ en quantique que h0 en classique ne font que contribuer une
constante additive à l’entropie par particule. Comme nous allons le voir dans
la suite, cette constante à peu d’incidence2 .
Température, pression et potentiel chimique du gaz parfait
Comme nous avons bien bien l’entropie (1.116) en fonction de ses variables
naturelles E, V , et N , on calcule les variables intensives par dérivées partielles :
i
∂S
∂ h
3 N kB
1
=
=
cst. + N kB ln E 3/2 =
.
T
∂E
∂E
2 E
La température du gaz parfait mesure donc l’énergie par particule :
kB T =
2E
.
3N
(1.123)
(1.124)
Par dérivation par rapport au volume, on obtient la pression :
P
∂S
∂
N kB
=
=
[cst. + N kB ln V ] =
.
T
∂V
∂V
V
2
(1.125)
En fait, il s’ensuit qu’en mécanique classique l’entropie est définie à une constante arbitraire près ; par contre en mécanique quantique on peut donner un sens à la valeur exacte
de l’entropie.
38
Université Paris VII – Jean-Baptiste Fournier
Ainsi on retrouve l’équation d’état des gaz parfaits :
P =
N kB T
,
V
(1.126)
ou bien, en remplaçant la température par son expression :
P =
2E
.
3V
(1.127)
En dérivant maintenant par rapport à N , on trouve pour le potentiel chimique :


3
32
2 V
m
E
.
µ = −kB T ln 
2
N
3πh̄
1.2.9
(1.128)
N
Appendice
Le calcul de la surface de l’hyper-sphère en dimension D s’effectue assez simplement en calculant une même intégrale gaussienne en coordonnées
cartésiennes et sphériques. Considérons l’intégrale suivante en dimension D :
I=
Z
1
2
2
dx1 . . . dxD e− 2 (x1 +...+xD ) = (2π)D/2 .
(1.129)
C’est un simple produit de D intégrales gaussiennes à une dimension. On passe
en coordonnées sphériques généralisées. Comme x21 + . . . + x2D = R2 où R est
la distance au centre du repère, on a
I=
Z
∞
0
1
2
SD (1) RD−1 dR e− 2 R .
(1.130)
L’élément de volume SD (1) RD−1 dR est l’équivalent en dimension D du 4πR2 dR
en dimension 3. Ainsi, SD (1) est la surface de l’hyper-sphère en dimension D.
Pour calculer l’intégrale précédente on pose t = 21 R2 et on arrive à une intégrale
ressemblant à la fonction Γ d’Euler :
I = SD (1)
Z
0
∞
dt 2
D−2
2
t
D−2
2
−t
e
= SD (1) 2
D
−1
2
D
Γ
.
2
(1.131)
En égalisant la première expression de I et la dernière, on obtient l’expression
de SD (1).
Téléchargement