La thermodynamique
des transitions économiques
Texte de la conférence
donnée par François Roddier
le 12 mars 2015
Résumé: Comme tout organisme vivant, une société humaine ne peut subsister que
grâce à un apport constant dʼénergie quʼelle dissipe. Lʼéconomie est lʼétude de son
métabolisme. Comme lui, elle suit les lois de la thermodynamique. De même quʼune
machine thermique ne peut fonctionner durablement sans effectuer des cycles de
transformations échangeant de la chaleur avec deux sources de températures
différentes, de même un organisme vivant effectue des cycles de réactions chimiques
grâce à des catalyseurs qui créent des “températures apparentes” différentes. De
même enfin, une économie ne peut fonctionner durablement sans effectuer des cycles
dʼéchanges avec des monnaies différentes. On montre que lʼutilisation dʼune monnaie
unique conduit inévitablement à"un effondrement. Thermodynamiquement, un
effondrement économique a les propriétés dʼune transition de phase abrupte.
1. Introduction
Les organismes vivants ne subsistent que sʼils sont constamment alimentés par un flux
dʼénergie quʼils dissipent. Lʼensemble des processus thermodynamiques suivant lesquels
ils utilisent cette énergie porte le nom de métabolisme.
Le physico-chimiste Ilya Prigogine, prix Nobel de Chimie (1977), a montré lʼanalogie
quʼil y a entre les organismes vivants et des structures non-vivantes comme les cyclones
qui eux-aussi ne subsistent quʼalimentés par un flux continu dʼénergie. Ils possèdent aussi
la propriété de sʼauto-organiser. Prigogine a donné le nom de structures dissipatives à
tous les objets qui possèdent ces propriétés. Un accord sʼétablit aujourdʼhui entre les
diverses disciplines pour dire quʼils tendent à maximiser le flux dʼénergie qui les traverse,
cʼest-à-dire la vitesse à laquelle ils dissipent lʼénergie1.
Il est clair que les sociétés humaines sont des structures dissipatives. Par analogie
avec lʼétude des organismes vivants, la science économique apparait comme lʼétude du
«"métabolisme"» des sociétés humaines. Il est ainsi naturel de considérer lʼéconomie
comme lʼétude des processus thermodynamiques suivant lesquels une société humaine
sʼauto-organise et dissipe lʼénergie.
2. Le second principe de la thermodynamique
Les lois de la physique (mécanique, électromagnétisme) sont indépendantes du sens
du temps. On dit quʼelles sont invariantes par changement de t en -t. Seule la dissipation
dʼénergie en chaleur est irréversible. Les lois de Newton nous apprennent que, lancée sur
une surface plane et horizontale, une boule de pétanque doit poursuivre sa trajectoire en
ligne droite à vitesse constante. On sait quʼelle finit par sʼarrêter. On attribue cela à un
phénomène parasite, souvent considéré comme secondaire, appelé frottement
mécanique. Le phénomène est irréversible car une boule de pétanque ne repart jamais
dʼelle-même. Cʼest un phénomène de dissipation dʼénergie.
(1) Voir: Bibliographie 3, section 2.2.
De même, les êtres vivants naissent, vieillissent et meurent de façon irréversible. On
sait aujourdʼhui quʼil en est de même des civilisations, comme il en est des montagnes ou
même des étoiles. Einstein pensait que lʼunivers était immuable jusquʼau jour où on a
découvert son expansion. On sait aujourdʼhui que lʼunivers observable est né dʼun
événement appelé le Big Bang et quʼil disparaitra dans des trous noirs ou au delà de
lʼhorizon cosmique. On en conclut que lʼévolution de lʼunivers lui-même est un processus
irréversible de dissipation dʼénergie.
Dissiper lʼénergie, cʼest transformer du travail mécanique en chaleur. Lʼinverse est-il
possible? On doit la réponse à un physicien français Sadi Carnot2. Elle forme ce quʼon
appelle le second principe de la thermodynamique (le premier principe étant la
conservation de lʼénergie). Jʼénoncerai ce principe sous la forme suivante: «"On ne peut
durablement produire du travail mécanique que par des cycles de transformations
extrayant de la chaleur dʼune source chaude pour en rendre une partie à une source
froide"».
Ainsi transformer de la chaleur en énergie mécanique est possible mais, lorsquʼon
revient au point de départ, la transformation ne peut être que partielle.
2. Le cycle de Carnot
En 1690 le français Denis Papin conçu la premiere machine avec cylindre et piston
permettant de convertir de la chaleur en travail mécanique, mais cʼest lʼanglais Newcomen
qui construisi la première machine utilisable industriellement (1712). Elle fut ensuite
perfectionnée par James Watt.
Soit Q1 la chaleur fournie par la source chaude. À lʼaller la vapeur pousse le piston qui
fourni un travail W1, mais pour ramener le piston au point de départ, il faut refroidir le
cylindre en cédant une partie Q2 de la chaleur à une source froide et fournir un travail W2.
Le rendement de lʼopération est:
r = (W1-W2)/W1= (Q1- Q2)/Q1
Pour des cycles réversibles, les quantités de chaleur Q1 et Q2 sont proportionelles aux
températures absolues T1 et T2 des deux sources:
Q1/T1 = Q2/T2 dʼoù le rendement maximum dit de Carnot: r = (T1 - T2)/T1
Ce rendement est limité parce quʼil faut rendre au retour une partie du travail mécanique
obtenu à lʼaller. Si lʼon ne rend pas assez dʼénergie mécanique, le moteur cale. Si lʼon en
rend trop, le moteur sʼemballe. Un moteur thermique est fondamentallement instable. Cʼest
James Watt qui résout le problème grâce à un régulateur à boules (1788). Nous allons voir
quʼune économie non régulée est instable exactement pour les mêmes raisons.
En 1865 Rudolf Clausius remarque que le rapport Q/T est le même en valeur absolue à
lʼaller et au retour. Il considère cette quantité comme la variation dʼune fonction dʼétat S
quʼil appelle entropie. Il en déduit que lʼentropie S dʼun système isolé ne varie pas sʼil subit
des transformations réversibles. Elle augmente sʼil subit des transformations irréversibles:
dQ/T = 0#pour tout cycle fermé réversible.
Lorsquʼun système reçoit une quantité de chaleur élémentaire dQ, son entropie augmente
dʼune quantité dS telle que dQ = T.dS.
La variation dU dʼénergie interne dʼun moteur thermique est donnée par:
dU = -P.dV + T.dS
(2) Voir: Bibliographie 1.
où P est la pression dans le cylindre et V son volume. Pour un cycle fermé,
dU = 0# dʼoù:#PdV = TdS
La première intégrale donne le travail W effectué par le moteur au cours du cycle. La
seconde donne la chaleur Q reçue par le moteur.
3. Les cycles naturels
En présence dʼun flux permanent dʼénergie, des structures dissipatives apparaissent.
Elles sʼauto-organisent en formant des cycles naturels. Ainsi :
• Les cycles atmosphériques apparaissent en présence de différences de température.
• Les cycles chimiques apparaissent en présence de différences de composition chimique.
• Les cycles économiques apparaissent en présence de différences de richesse.
Les cycles naturels ont des propriétés analogues à celles des cycles de Carnot quʼils
généralisent. Ainsi, le métabolisme des organismes vivants nʼest possible que grâce à des
cycles de réactions chimiques comme le cycle de Krebs. De façon générale, la vie sʼauto-
organise en cycles tels que le cycle diurne du sommeil ou les cycles de reproduction.
Il en est de même de lʼéconomie. Si lʼagriculture est associée au rythme des saisons,
toute entreprise est assujettie à des cycles de production. On peut diviser ceux-ci en
quatre phases:
• une phase de développement
• une phase de production
• une phase dʼobsolescence
• une phase de transition
Les transitions économiques sont des phases de transition. Elles correspondent
généralement à un déclin de ressources naturelles. Cʼest le cas, par exemple de la fin de
lʼâge de bronze, une transition abrupte que lʼon situe en 1177 avant Jésus-Christ3. On peut
sʼattendre à ce que le déclin de nos ressources pétrolières produisent un phénomène du
même type. Nous allons voir que, du point de vue thermodynamique, cela correspond à ce
que les physiciens appellent une transition de phase abrupte.
Pour étudier les cycles naturels, il faut généraliser un certain nombre de notions liées à
celle de cycle de Carnot.
4. Les machines thermiques généralisées
On doit à von Helmholtz la généralisation de la notion de travail mécanique en celle
dʼénergie libre. On appelle énergie libre F, toute forme dʼénergie intégralement convertible
en énergie mécanique. Cʼest le cas par exemple de lʼénergie électrique. Dans ce cas, la
variation dʼénergie libre est donnée par:
dF = V.dq
où V est le potentiel électrique et q la charge électrique. Dʼune façon générale la variation
dʼénergie interne dʼun système thermodynamique peut sʼécrire sous la forme:
dU = dF + T.dS
Ainsi, un couple thermo-électrique devient une machine thermique capable de produire de
lʼénergie électrique à partir de deux sources de chaleur de températures différentes.
(3) Voir: Bibliographie 11.
À la même époque, lʼaméricain Willard Gibbs généralise la thermodynamique au cas où
il y a des échanges de matière. Le français Pierre Duhem lʼétend au cas des réactions
chimiques. Pour cela, ils mettent la variation dʼénergie interne sous la forme:
dU = dF + T.dS + dG
G est une fonction appelée depuis fonction de Gibbs. Dans le cas de nos aliments, la
fonction de Gibbs mesure leur valeur énergétique telle quʼelle est indiquée sur
lʼemballage.
Gibbs remarque que toute variation dʼénergie interne peut se mettre sous la forme du
produit dʼune grandeur intensive (mesurant une qualité) par la variation dʼune grandeur
extensive (mesurant une quantité), de sorte que toute variation de la fonction de Gibbs
peut se mettre sous la forme:
dG = Σμi.dni
μi est le potentiel de Gibbs du constituant i et ni est le nombre dʼunités de cet élément.
En chimie, les potentiels de Gibbs portent le nom de potentiels chimiques.
Ces généralisations permettent dʼétudier les cycles naturels des machines thermiques
que sont les organismes vivants.
5. Entropie, information et démons de Maxwell
En 1877, Ludwig Boltzmann donne une expression statistique pour lʼentropie à
lʼéquilibre thermodynamique. Gibbs généralise cette expression au cas hors équilibre.
Mais ce nʼest quʼen 1948 que, cherchant à mesurer une quantité dʼinformation, Claude
Shannon trouve une expression en tout point identique à celle de Gibbs pour lʼentropie.
Lʼirréversibilité thermodynamique apparait alors comme due à une perte dʼinformation
sur lʼétat microscopique dʼun système. Initialement associée à un mouvement
macroscopique, commun à tout un ensemble de molécules, lʼénergie mécanique se
transforme en chaleur lorsque ce mouvement se disperse pour devenir un mouvement
désordonné, différent pour chacune des molécules du système. Il y a perte dʼinformation
sur le système. Lʼentropie thermodynamique apparait comme un cas particulier de
lʼexpression de Shannon.
Cʼest Ralph Landauer qui, en 1961, montre que toutes les fois quʼon efface une
mémoire, il y a production de chaleur. Entropie et information deviennent alors des
grandeurs physiques identiques (au signe près). Cette identification permet de résoudre
un certain nombre de paradoxes comme celui de Gibbs sur lʼentropie de mélange.
Mélanger deux gaz différents est généralement considéré comme une opération
irréversible. Il y a augmentation dʼentropie du système, aussi petite que soit la différence
entre les deux gaz. Mais si ces deux gaz sont identiques, alors lʼentropie du système ne
change pas.
Il est plus satisfaisant de dire que lʼentropie dʼun système dépend de lʼinformation quʼon
a sur ce système, mais beaucoup de physiciens refusent encore de donner à lʼentropie ce
caractère subjectif. Il me parait cependant nécessaire, si lʼon veut conserver le libre arbitre
et la possibilité de faire des choix éthiques. Bien que subjective au niveau individuel,
lʼentropie reste objective au niveau de la société. Elle est parfaitement mesurable de
manière statistique.
Cʼest Maxwell lui même qui eu lʼidée de considérer un démon capable de séparer les
molécules rapides des molécules lentes dʼun gaz. Il suppose que cette opération est
possible en faisant glisser une porte ne nécessitant aucun effort mécanique. Le démon
crée ainsi, sans dépense dʼénergie, une différence de température capable de faire
fonctionner un moteur thermique. La encore, la seule information apportée par le démon
permet de réduire lʼentropie du système et de convertir de la chaleur en énergie
mécanique.
6. Les catalyseurs ou enzymes
Les catalyseurs ou enzymes sont des corps capables dʼaccélérer considérablement la
vitesse des réactions chimiques. Nous allons voir que leurs propriétés sont formellement
les mêmes que celles dʼune entreprise industrielle ou commerciale.
Prenons par exemple un mélange stœchiométrique dʼoxygène et dʼhydrogène à lʼétat
gazeux. Rien ne se passe. Introduisez un morceau de platine, le mélange explose.
Pourquoi? Dans un mélange gazeux, les molécules se déplacent rapidement et ne se
rencontrent quʼoccasionellement. Lorsquʼelles se rencontrent, elles ont tendance à se
repousser. Elles nʼont pas assez dʼénergie pour franchir la barrière de potentiel qui les
séparent. Rien ne se passe.
Si, par contre, on introduit une surface de platine, friands dʼélectrons, les atomes
dʼoxygène viennent sʼy fixer. Il deviennent alors beaucoup plus facile à saisir. Lorsquʼune
molécule dʼhydrogène vient les heurter, elle repart aisément avec un atome dʼoxygène,
pour former une molécule dʼeau.
La grande barrière de potentiel qui empêchait la réaction de se produire a été
remplacée par trois barrières plus petites. Une première barrière pour fixer lʼoxygène sur le
platine, une seconde barrière pour lui associer une molécule dʼhydrogène et une dernière
barrière pour en détacher une molécule dʼeau (fig.1).
Figure 1: Potentiels chimiques. E: enzyme, S: substrat, P:"produit. En rouge, la réaction
non catalysée; en bleu, la réaction catalysée (dʼaprès Wikipedia).
On peut considérer la surface de platine comme un “gigantesque” hall dʼassemblage de
molécules dʼeau et dire quʼune réaction non catalysée est, par rapport à une réaction
catalysée, ce que lʼartisanat est par rapport à lʼindustrie. La différence est dans la vitesse à
laquelle la formation du produit final sʼeffectue.
La figure 1 montre que la barrière de potentiel centrale sépare deux puits de potentiels
de profondeurs inégales. La réaction ne se poursuit que si le niveau dʼénergie final est
inférieur au niveau initial, cʼest-à-dire si la réaction est exothermique. Celle-ci peut en effet
se produire dans les deux sens. Une molécule dʼeau peut tout aussi bien arriver sur la
surface de platine, y laisser fixé un atome dʼoxygène et repartir sous la forme dʼune
molécule dʼhydrogène. Cependant, la probabilité que cela se produise est beaucoup plus
faible que celle de lʼinverse, parce que le puits de potentiel final est plus grand que le puits
de potentiel initial.
On voit que le catalyseur se comporte comme un démon de Maxwell. Il est capable de
distinguer les molécules finales des molécules initiales, comme le démon de Maxwell
1 / 14 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !