À la même époque, lʼaméricain Willard Gibbs généralise la thermodynamique au cas où
il y a des échanges de matière. Le français Pierre Duhem lʼétend au cas des réactions
chimiques. Pour cela, ils mettent la variation dʼénergie interne sous la forme:
dU = dF + T.dS + dG
où G est une fonction appelée depuis fonction de Gibbs. Dans le cas de nos aliments, la
fonction de Gibbs mesure leur valeur énergétique telle quʼelle est indiquée sur
lʼemballage.
Gibbs remarque que toute variation dʼénergie interne peut se mettre sous la forme du
produit dʼune grandeur intensive (mesurant une qualité) par la variation dʼune grandeur
extensive (mesurant une quantité), de sorte que toute variation de la fonction de Gibbs
peut se mettre sous la forme:
dG = Σμi.dni
où μi est le potentiel de Gibbs du constituant i et ni est le nombre dʼunités de cet élément.
En chimie, les potentiels de Gibbs portent le nom de potentiels chimiques.
Ces généralisations permettent dʼétudier les cycles naturels des machines thermiques
que sont les organismes vivants.
5. Entropie, information et démons de Maxwell
En 1877, Ludwig Boltzmann donne une expression statistique pour lʼentropie à
lʼéquilibre thermodynamique. Gibbs généralise cette expression au cas hors équilibre.
Mais ce nʼest quʼen 1948 que, cherchant à mesurer une quantité dʼinformation, Claude
Shannon trouve une expression en tout point identique à celle de Gibbs pour lʼentropie.
Lʼirréversibilité thermodynamique apparait alors comme due à une perte dʼinformation
sur lʼétat microscopique dʼun système. Initialement associée à un mouvement
macroscopique, commun à tout un ensemble de molécules, lʼénergie mécanique se
transforme en chaleur lorsque ce mouvement se disperse pour devenir un mouvement
désordonné, différent pour chacune des molécules du système. Il y a perte dʼinformation
sur le système. Lʼentropie thermodynamique apparait comme un cas particulier de
lʼexpression de Shannon.
Cʼest Ralph Landauer qui, en 1961, montre que toutes les fois quʼon efface une
mémoire, il y a production de chaleur. Entropie et information deviennent alors des
grandeurs physiques identiques (au signe près). Cette identification permet de résoudre
un certain nombre de paradoxes comme celui de Gibbs sur lʼentropie de mélange.
Mélanger deux gaz différents est généralement considéré comme une opération
irréversible. Il y a augmentation dʼentropie du système, aussi petite que soit la différence
entre les deux gaz. Mais si ces deux gaz sont identiques, alors lʼentropie du système ne
change pas.
Il est plus satisfaisant de dire que lʼentropie dʼun système dépend de lʼinformation quʼon
a sur ce système, mais beaucoup de physiciens refusent encore de donner à lʼentropie ce
caractère subjectif. Il me parait cependant nécessaire, si lʼon veut conserver le libre arbitre
et la possibilité de faire des choix éthiques. Bien que subjective au niveau individuel,
lʼentropie reste objective au niveau de la société. Elle est parfaitement mesurable de
manière statistique.
Cʼest Maxwell lui même qui eu lʼidée de considérer un démon capable de séparer les
molécules rapides des molécules lentes dʼun gaz. Il suppose que cette opération est
possible en faisant glisser une porte ne nécessitant aucun effort mécanique. Le démon
crée ainsi, sans dépense dʼénergie, une différence de température capable de faire
fonctionner un moteur thermique. La encore, la seule information apportée par le démon