PCSI Lycée Brizeux Sébastien Gruat Activité
Activité : Interprétation de l’entropie
Le second principe, et la notion d'entropie qu'il introduit dans le champ de la physique, n'ont
pas été formulés en un jour. Plusieurs étapes majeures peuvent être distinguées.
En 1824, l'ingénieur polytechnicien Sadi Carnot publie Les Réflexions sur la puissance motrice
du feu et sur les machines propres à développer cette puissance, ouvrage dans lequel il met en
évidence la notion de cycle optimal d'un moteur thermique. La problématique fondamentale de
ce que nous avons appelé le second principe est posée.
Dans la seconde moitié du XIXe siècle, le physicien allemand Rudolf Clausius prolonge les
travaux de Carnot. Il parvient à formuler le second principe en introduisant la fonction entropie
au sein des Équations fondamentales de la théorie mécanique de la chaleur (1865).
En 1902, dans ses Leçons sur la théorie des gaz, le physicien autrichien Ludwig Boltzmann
propose une description statistique de l'entropie d'un système thermodynamique formé
d'atomes. Au prix de l'hypothèse atomiste qu'il adopte résolument, il relie le nombre des
configurations microscopiques que peut prendre le système, à son entropie selon
  
est une nouvelle constante fondamentale de la physique. L'augmentation de l'entropie
d'un système isolé résulte alors de propriétés des probabilités.
Le physicien normalien français Léon Brillouin mène une longue carrière qui le conduit à
balayer de très nombreux domaines. En 1956, dans La science et la théorie de l'information, il
rapproche la théorie de l'information de Claude Shannon (1948) de l'entropie statistique de
Boltzmann. L'entropie d'un système apparaît alors comme l'information manquante sur la réalité
de son état microscopique, lorsqu'on ne connaît que ses paramètres macroscopiques.
1. Information
Lecture d'un message binaire
On imagine un jeu simple, dans lequel un message portant la seule mention « Oui » ou « Non
», est placé dans une enveloppe. On suppose que l'une et l'autre éventualité ont la même
probabilité : c'est-à-dire qu'il y a équiprobabilité des résultats.
Quelle est la probabilité du résultat oui ou non ?
Tant que le destinataire n'a pas ouvert l'enveloppe, il ne sait pas ce qu'elle contient : il lui
manque une information. Dès qu'il prend connaissance du message, il acquiert une quantité
d'information que l'on peut évaluer à un bit (binary digit pour caractère binaire). En effet, on
peut coder ce résultat à l'aide d'un caractère 0 ou 1 : par exemple 0 pour Non. 1 pour Oui.
PCSI Lycée Brizeux Sébastien Gruat Activité
Alphabet à éléments
On augmente maintenant le nombre de messages, c'est-à-dire le nombre de résultats possibles.
Dans le cas où le contenu de l'enveloppe peut prendre 8 formes possibles, chaque résultat peut
apparaître avec une probabilité égale à , si l'on conserve l'équiprobabilité. Le code binaire
nécessaire pour distinguer les 8 résultats possibles comprend 3 bits : de 000 à 111.
Ouvrir l'enveloppe et découvrir le message permet alors d'acquérir combien de bits
d’information ?
Plus généralement, si le nombre de messages possibles contenus dans l'enveloppe est
  , l'information manquante avant ouverture de l'enveloppe est de combien de
bits ?
Or la probabilité d'apparition de chacun est
.
Relation entre et
Définir la quantité d'information apportée par l'ouverture d'une enveloppe dont le
contenu peut prendre formes équiprobables, étant exprimée en bits.
On peut vérifier sur les exemples précédents :
pour  , que vaut ?
pour   , que vaut  ?
Unité
L'intérêt de diviser  par  dans l'expression précédente permet d'aboutir à une
expression de en bits. Ceci est tout à fait adapté à la transmission de signaux, au codage de
données informatiques et à leur traitement, mais il ne s'agit là que d'un choix arbitraire d'unité.
Plus généralement, on peut différer le choix de l'unité de , en vue d'un examen ultérieur et
adopter l'expression  .
Rôle de l'équiprobabilité
Supposer les probabilités d'apparition des divers résultats d'égale valeur n'est pas indispensable
pour définir la quantité d'information obtenue lorsqu'on découvre le message. On montre
toutefois que cette situation d'équiprobabilité rend maximale la valeur moyenne de . On ne
détaille pas ce point ici, néanmoins la situation thermodynamique qui nous préoccupe
correspond précisément à une équiprobabilité.
PCSI Lycée Brizeux Sébastien Gruat Activité
2. Formule de Boltzmann
Système à deux niveaux
Soit un système () fermé constitué de molécules identiques mais discernables.
Chacune possède deux états possibles notés () ou (). Ce système peut représenter des petits
aimants microscopique (spin) qui sont orientés soit vers le haut (), soit vers le bas ()
Microétats et macroétats : la donnée de l’état () ou () pour chaque particule (ensemble des
couples { , () ou ()} définit complètement le système à l’échelle microscopique, c’est le
microétat du système () à l’instant : ensemble des paramètres microscopiques du système.
À l’échelle macroscopique, un observateur ne peut pas distinguer les différentes molécules dans
l’état (), il ne peut que mesurer une grandeur macroscopique comme    (ou
) le nombre total de molécules dans l’état ( ) (ou ( )). Cela représenterait
l’aimantation totale du matériau dans notre exemple des aimants microscopiques.
 caractérise un macroétat : ensemble des paramètres macroscopiques du système.
Pour un même macroétat, la permutation de molécules entre l’état l’état () et l’état ()
correspond à un microétat différent.
Exemples
Premier exemple : Prenons le cas simpliste où  
- Macroétat   
Les deux particules sont dans l’état (), l’état microscopique est parfaitement connu, il n’y a
pas d’information manquante pour l’observateur.
Le nombre de microétats possibles est 1 : {}
- Macroétat   
Cette fois, il y a 2 microétats possibles.
La connaissance du macroétat ( ) ne suffit pas à connaître la configuration microscopique
du système (microétat).
- Macroétat   
Un microétat pas d’information manquante
Deuxième exemple :  . Donner le nombre de macroétats et le détail des microétats.
PCSI Lycée Brizeux Sébastien Gruat Activité
Nombre de complexion : Nombre de microétats
correspondant à un seul macroétat.
Dans notre exemple, est le nombre de manières de choisir molécules parmi :
  
 
Tracer le diagramme en fonction du nombre pour   .
Les macroétats pour lesquels est maximum correspondent aux états pour lesquels le manque
d’information est maximum et le désordre maximum.
L’étude de cette fonction montre qu’elle est maximale pour  
(si est pair).
Démarche de Boltzmann
Hypothèse microcanonique : rien ne permet à l’observateur de distinguer différents microétats
qui correspondent à un même macroétat d’un système isolé à l’équilibre.
On fait l’hypothèse que tous les microétats de même énergie sont équiprobables.
Ainsi, si le nombre de complexion est , la probabilité d’un microétat est  
.
Macroétat le plus probable : un macroétat est d’autant plus probable que le nombre de
microétats associés est grand, c’est à dire qu’un système isolé va évoluer vers un état d’équilibre
macroscopique pour lequel est maximal, c’est à dire le manque d’information (ou le
« désordre ») sera le plus grand.
Nous savons que :
- quand un système isolé évolue vers un équilibre, son entropie ne peut que croître et croît
également donc est une fonction croissante de .
- l’entropie est une fonction extensive : la réunion des systèmes  et 
donne un système  tel que    et    puisque et
représentent des probabilités indépendantes.
- l’entropie s’exprime en 
Boltzmann a proposé la formule   
avec la constante de Boltzmann () qui permet de faire coïncider l’entropie
statistique avec l’entropie thermodynamique définie lors de l’énoncé du deuxième principe.
Interprétation physique de l’entropie : un système isolé évolue spontanément vers l’état
d’équilibre le plus probable, celui pour lequel est maximum maximale.
PCSI Lycée Brizeux Sébastien Gruat Activité
3. Entropie et « désordre » : paquet de cartes
Remarque : ici le « désordre » signifie le manque d’information.
Une conséquence immédiate de l'expression de l'entropie statistique est le lien entre l'entropie
d'un système et son « désordre ». On ne cherche pas ici à définir le « désordre » d'un système
autrement que par une analogie simple : un jeu de 32 cartes à 4 couleurs (trèfle, carreau...).
Lorsqu'il est classé par couleur et par ordre décroissant, le paquet n'a que peu d'états possibles
: on trouve en haut de la pile toutes les cartes d'une première couleur, rangées par ordre
décroissant, puis toutes celles d'une autre couleur etc.
Quelle est l’entropie du système ?
Après une partie qui a mélangé toutes les cartes, l'ordre est quelconque : la carte qui occupe le
haut de la pile peut être l'une quelconque des 32 cartes et ainsi de suite.
Quelle est l’entropie du système ?
Comparer les deux entropies. Que dire de la relation entre entropie et « désordre ».
4. Détente de Joule d'un gaz parfait
On reprend l'exemple de la détente de Joule Gay-Lussac, au cours de laquelle un gaz parfait se
détend dans une enceinte adiabatique, son volume passant de à . Dans l'état initial, les
particules de gaz sont toutes regroupées dans une demi-enceinte, tandis qu'elles sont réparties
pour moitié dans une demi-enceinte et pour moitié dans l'autre dans l'état final.
Que peut-on dire de l’évolution de l’information manquante ? Que dire de la variation
d’entropie ?
Quel est le nombre de microétats dans le macroétat initial et dans le macroétat final ?
On donne   et  .
Calculer la variation d’entropie à partir de la formule de Boltzmann.
1 / 6 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !