Notion d’entropie statistique Jusqu’à maintenant en thermodynamique, nous avons utilisé le fait qu’il est possible de caractériser macroscopiquement un système en connaissant un nombre restreint de paramètres. La donnée des paramètres d’états caractérise ce qu’on appelle un macro-état (système macroscopique décrit par un volume, une pression, une température, …). Toutefois, si l’on regarde plus en détails, il est facile d’imaginer qu’à ce macro-état correspond un très grand nombre de micro-états (arrangement des molécules à un instant donné dans le système thermodynamique avec chacune une position, une vitesse, une énergie, … propres). Exemple On considère deux molécules discernables (carré, rond) pouvant avoir accès à seulement deux niveaux. Du point de vue macroscopique, on n’est pas capable de dire si telle ou telle molécule est sur tel ou tel niveau. Il n’existe donc qu’un seul macro-état : les deux molécules ayant accès aux deux niveaux. Par contre, en décrivant le système dans son détail (par une expérience de pensée), on peut définir 4 micro-états correspondant aux 4 configurations qui répartissent les deux molécules sur les deux niveaux (cf schéma ci-dessous). 1 macro-état Niveau 2 Niveau 1 4 micro-états Généralement on note Ω le nombre de micro-états (aussi appelés nombre de complexions du système). Dans l’hypothèse du chaos moléculaire, rien ne permet de distinguer les divers micro-états associés à un même macro-état. On dira donc que tous les micro-états sont équiprobables et on exprimera 1 naturellement la probabilité p d’accéder à un micro-état donné par 𝑝 = Ω (nombre d’occurrences de l’évènement que l’on décrit / nombre total d’occurrences, cf cours proba) Par ailleurs, un macro-état (équilibre macroscopique) est d’autant plus probable qu’il est associé à un grand nombre de micro-états. Ainsi l’état d’équilibre est celui qui maximise le nombre de complexions du système, autrement dit celui qui minimise l’information que l’on en a. L’état d’équilibre maximise donc le désordre du système. A travers sa contribution Sc (entropie crée (positive)), on peut voir l’entropie S thermodynamique comme une mesure de la méconnaissance (ou désinformation) que l’on a d’un système. C’est donc en quelque sorte une mesure de son désordre. On définit alors l’entropie statistique par : 𝑺 = 𝒌𝑩 𝐥𝐧(𝛀) Le choix de kB=1.38 10-23 J.K-1 permet de faire coïncider l’entropie statistique avec l’entropie thermodynamique vue en cours. 3ème principe de la thermodynamique Pour tous les corps purs : à T=0 K, S=0. L’interprétation en termes de désordre est aisée. A T=0 K, la structure d’un corps pur est cristalline, il n’y a plus d’agitation thermique (vibrations des atomes à cause de la température), l’état du système est donc parfaitement connu. L’information sur le système est totale donc S=0. Détente de Joule-Gay-Lussac Il s’agit de la détente d’un gaz initialement confiné dans un volume V0 vers un volume 2V0. Δ𝑆 = 𝑆𝑓 − 𝑆𝑖 = 𝑘𝐵 ln(Ω𝑓 ) − 𝑘𝐵 ln(Ω𝑖 ) = 𝑘𝐵 𝑙𝑛 ( Ω𝑓 ) Ω𝑖 A l’état final, si une choisit une molécule, la probabilité p1 pour qu’elle se trouve dans le compartiment de gauche (ou de droite) est bien entendu ½. La probabilité pour que les N particules indépendantes 1 𝑁 𝑁 soient toutes dans le compartiment de gauche (ou de droite) est 𝑝 = ∏𝑁 𝑖=1 𝑝1 = 𝑝1 = (2) . Ω Or par définition 𝑝 = Ω 𝑖 et on retrouve (résultat obtenu en TD) : 𝑓 𝚫𝑺 = 𝑵𝒌𝑩 𝐥𝐧(𝟐) = 𝒏𝑹 𝐥𝐧(𝟐) Transition de phase S est une mesure du désordre. Pour une transition de phase liquide → vapeur, on imagine intuitivement que le désordre associé à l‘état vapeur est plus grand que celui associé à l’état liquide (lui-même plus grand que celui associé à l’état solide). On verra effectivement dans les tables thermodynamiques (TD 26 exercice 4) que : sVapeur(T) > sliquide(T) > ssolide(T)