Champs et particules : deux figures du continu et du

publicité
Intellectica, 2009/1, 51, pp.
Champs et particules : deux figures
du continu et du discret dans les théories physiques
Alain Comtet
RESUME : Le cadre théorique dans lequel s’est construit la physique moderne s’appuie
sur le concept de champ. Nous montrons comment ce concept, qui apparaît d’abord
comme un simple substitut à celui d’action à distance, s’est progressivement imposé
dans la construction des théories quantiques relativistes. L’élaboration de ce cadre
s’est accompagné d’un changement de signification des concepts de localité, causalité
et symétrie. Champs et particules apparaissent ainsi comme deux figures du continu et
du discret à travers lesquelles est posé le problème de l’antinomie continu discret.
Nous avançons l’idée qu’il n’y a pas un continu mais une multiplicité de continus
associés aux différentes strates de la réalité physique. Comment peut-on concilier
cette idée avec celle d’élémentarité ? Nous rappelons comment le problème se pose en
théorie des champs et la réponse qu’a apportée l’étude des phénomènes critiques.
Nous évoquons le conflit entre deux descriptions de l’univers physique : l’une fondée
sur une démarche réductionniste visant à rechercher les lois de l’élémentaire, l’autre
mettant l’accent sur la notion de comportement collectif et de propriétés émergentes.
Mots clés : Antinomie continu-discret, élémentarité, émergence, champs et particules.
ABSTRACT : Particles and fields, two figures of the discrete and the continuum in
physical theories. The theoretical framework within which modern physics has been
built relies on the concept of field. We show how this concept which, in the first
instance serves as a substitute for that of action at a distance, has gradually come to
play a central role in the construction of relativistic quantum theories. The
development of this framework has brought about a change in the meaning of the
concepts of locality, causality and symmetry. Particles and fields appear as two
aspects of the discrete and the continuum in terms of which the discrete versus
continuum question can be formulated. We put forward the view that there is not just
one continuum but rather a multiplicity of continua associated with the different
layers of physical reality. How can this view be reconciled with that of elementarity ?
We recall how this question arises in quantum field theory and how it is resolved in
terms of notions developed in the study of critical phenomena. We discuss the conflict
between two descriptions of the physical universe : one based on a reductionnist
approach with the aim of uncovering the laws of elementarity, the other emphasising
the notion of collective behaviour and that of emerging properties.
Key words : Continuum-discrete antinomy, elementarity, emergence, fields and
particles

Institut Henri Poincaré & LPTMS, Université Paris 11, [email protected]
© 2009 Association pour la Recherche Cognitive.
2
A. COMTET
1. INTRODUCTION
Dans une conférence donnée au colloque de Cerisy sur le thème « Logos et
catastrophes », Thom (Thom, 1989) reprend l’idée de Holton que toutes les
grandes disciplines sont construites sur certaines apories fondatrices. Par là il
veut signifier qu'elles sont traversées par des clivages fondamentaux et
irréductibles. Les oppositions continu-discret, élémentaire-complexe ou bien
déterminisme-indéterminisme que l’on rencontre dans les théories physiques
sont des exemples de tels clivages. Ce sont des apories car il ne semble pas
exister de voie de passage (de ποροσ) ni d’issue logique permettant de les
dénouer. L’objet de cet essai est d’illustrer l’antinomie continu-discret en
partant de la notion de champ et de particule.
Dans le langage commun, l’idée d’élémentarité renvoie à celle d’un objet
ponctuel et sans structure. La physique classique reprend pour partie cette idée,
mais elle lui donne un contenu plus précis. La « particule » ou le
« corpuscule » est une entité dotée de certains attributs permettant de
l’identifier : une masse, une charge électrique et aussi certaines propriétés de
localisation spatiale. En ce sens le corps rigide de la mécanique newtonienne
est un objet élémentaire au même titre que le point matériel. On peut en effet le
caractériser par un nombre fini de degrés de liberté, un ensemble de
coordonnées généralisées constitué des trois angles d’Euler et des trois
coordonnées du centre de masse. C’est donc essentiellement un point dans un
espace de configuration. C’est ainsi que s’exprime la notion de localité. Par
opposition, la notion de champ classique renvoie à celle d’un continuum
constitué d’un ensemble infini de variables dynamiques locales, telles que le
champ des vitesses
dans un fluide. Un champ classique est donc une
fonction sur l’espace de configuration. En physique classique, particules et
champs sont par conséquent des entités bien distinctes décrites par des objets
mathématiques très différents, d'une part des points et d'autre part des fonctions
sur un certain espace de configuration.
Dans une première partie, nous rappellerons l’origine des concepts de
champ et de particule et analyserons leur évolution dans une perspective
diachronique prenant en compte la dimension historique des différentes
théories qui se sont succédé. Nous évoquerons toutes les métamorphoses qu’a
connues la notion de particule, depuis celle de point matériel de la mécanique
newtonienne jusqu'à celle de particule définie comme représentation d’un
groupe de symétrie. Nous verrons comment les théories quantiques des champs
parviennent à unifier ces deux concepts. L’élaboration de ce cadre théorique
s’est faite au prix de changements de signification des concepts de localité,
causalité et symétrie sur lesquels il sera intéressant de se pencher. Nous
verrons comment les changements successifs, et souvent radicaux, de points de
vue qui sont intervenus n’ont pas été dictés par des a priori philosophiques
mais par des exigences de cohérence interne des théories physiques. La notion
même de continu n’acquiert un sens précis qu’à travers celle de localité ; et
celle d’élémentarité, fort éloignée de l’idée naïve d’objet sans structure, doit
Champs et particules : deux figures du continu et du discret dans les théories physiques
3
être formulée dans le cadre de la théorie des représentations. Ainsi, de façon
assez inattendue, à travers la question du continu se pose aussi celle de
l’élémentaire ce qui conduit à une confrontation intéressante entre les deux
apories continu-discret et élémentaire-complexe.
La deuxième partie sera une interrogation sur la recherche de l’élémentaire.
Nous évoquerons le conflit entre deux descriptions de l’univers physique :
l’une fondée sur une démarche réductionniste visant à sonder les lois de
l’infiniment petit, l’autre mettant l’accent sur les comportements collectifs et la
notion d’émergence. Il s’agit là d’un conflit très ancien qui a été ravivé par des
développements récents en physique de la matière condensée. Les acteurs les
plus influents qui ont participé à ce débat sont pour la plupart des théoriciens
éminents de ce domaine, citons en particulier P. Anderson, D. Pines et
R. Laughlin. Dans un ouvrage récemment traduit en français, Un univers
différent, Laughlin souligne le rôle des réalités émergentes dans les
phénomènes quantiques macroscopiques et se livre à une critique très sévère de
la démarche réductionniste. Selon lui, le débat n’est pas seulement de nature
méthodologique, mais il est de nature ontologique et touche à notre vision
même du monde.
« La précision de nos mesures nous permet de dire avec assurance que la
quête d’une vérité ultime est terminée mais aussi qu’elle a échoué, puisque
nous savons maintenant que la nature est une énorme tour de vérités
empilées dont chacune descend de sa vérité mère et la transcende, quand
l’échelle de mesure augmente. Comme Christophe Colomb ou Marco Polo,
nous étions partis explorer un nouveau pays et nous avons trouvé un
nouveau monde »
« Nous ne vivons pas la fin de la découverte mais la fin du
réductionnisme. La fausse idéologie qui promettait à l’humanité la maîtrise
de toute chose grâce au microscopique est balayée par les événements et la
raison. Non que la loi microscopique soit fausse ou vaine. Elle est
seulement rendue non pertinente dans de nombreux cas par ses filles, et les
filles de ses filles, à plus haut niveau : les lois organisationnelles de
l’univers » (Laughlin, 2005, p 263 et 276).
2. LA PARTICULE ET LE CHAMP, PERSPECTIVE HISTORIQUE
2.1. Théories classiques des champs
Historiquement, la notion de champ a d’abord été introduite comme un
substitut à celle d'action à distance. C’est dans le contexte de la théorie de
l’attraction universelle que le problème se pose pour la première fois. On sait
que cette théorie, élaborée par Newton dans le courant du XVIIème siècle, rend
parfaitement compte de la chute des corps et du mouvement des planètes. Elle
part du postulat qu’il existe, entre deux corps massifs quelconques, une force
de gravitation inversement proportionnelle au carré de la distance ; c’est l’idée
d’action à distance. Mais comment peut-il donc apparaître une telle action sans
qu’il n’y ait de support matériel permettant de la propager ? Cette idée sur
laquelle est fondée la théorie newtonienne est en conflit avec celle de localité
défendue par Leibniz. Dans une lettre adressée à Monsieur Arnauld, docteur en
4
A. COMTET
Sorbonne, Leibniz écrit « Il y a déjà quelque temps que j’ai publié dans les
actes de Leipzig un essai physique pour trouver les causes physiques du
mouvement des astres. Je pose pour fondement que tout mouvement d’un
solide dans un fluide qui se fait en ligne courbe ou dont la vélocité est
complètement difforme vient du mouvement du fluide même ». De fait, un
cadre conceptuel nouveau, incorporant le concept de localité revendiqué par
Leibniz, verra le jour un siècle et demi plus tard grâce aux intuitions de
Faraday. Selon Faraday, une particule massive crée en chaque point de l’espace
un champ de gravitation (ou un champ électrique s’il s’agit d’une particule
chargée) qui agit à son tour sur les autres particules ; ainsi il n’y a pas
d’interaction à distance et instantanée mais seulement une interaction transmise
par l’intermédiaire d’un champ. Les avantages d'une telle formulation sont
multiples. Sur le plan conceptuel, c’est une façon économique d’incorporer la
notion de localité – l’existence d’une interaction locale entre la particule et le
champ – et ainsi d’évacuer le problème de l’action à distance. Sur le plan
technique, cette formulation permet d’écrire les équations du mouvement en
partant d’un principe variationnel lequel permettra ultérieurement d’incorporer
de façon explicite les symétries (théorème de Noether).
Dans le courant du XIXème siècle, ce point de vue va progressivement
s'imposer. On assiste à l’évolution d'une physique fondée sur le discret – le
corpuscule et l’action à distance entre corpuscules – description dans la
continuité du projet newtonien incarné par Laplace – vers une physique du
continu représentée par Fourier (théorie de la chaleur) et Cauchy (premiers
travaux sur l'élasticité). En considérant les corps élastiques comme des milieux
continus, Cauchy isole de petits volumes élémentaires et écrit les forces et les
pressions s’exerçant sur les différentes faces. Les bases modernes de la théorie
des milieux continus sont élaborées dans son article de 1827 (DahanDalmedico, 1992). Notons qu'il reviendra par la suite au point de vue laplacien
dans ses travaux sur la lumière. Avec Maxwell, le concept de champ acquiert
une nouvelle signification. Dans son article de 1864, « A dynamical theory of
the electromagnetic field », Maxwell construit une théorie dynamique de
l’électromagnétisme qui prédit un phénomène entièrement nouveau : c’est celui
de la propagation des ondes électromagnétiques. Contrairement aux ondes
sonores, pour lesquelles il y a une mise en mouvement des molécules, dans le
cas de la lumière, il n’y a pas de support matériel. L’énergie électromagnétique
a son siège dans le champ électromagnétique qui est présent dans tout l'espace
comme l’illustre le phénomène du rayonnement électromagnétique. Ce
phénomène traduit le fait qu’une particule chargée accélérée est nécessairement
accompagnée d’un champ à longue distance qui transporte de l’énergie et de
l’impulsion. Il s’ensuit que le champ ne peut plus être considéré comme un
simple substitut, mais qu’il doit être traité comme une véritable variable
dynamique. Le champ devient une entité propre possédant les mêmes attributs
qu’une particule : énergie, impulsion et moment angulaire. Cependant la
dichotomie particule-champ subsiste puisque les équations du mouvement se
présentent comme un ensemble de quatre équations pour le champ, les
Champs et particules : deux figures du continu et du discret dans les théories physiques
5
équations de Maxwell, et d’une équation pour la matière, l’équation de
Lorentz.
Le couplage entre les deux entités, particules et champ, conduit à un effet
physique nouveau qui est celui de la réaction de rayonnement : une particule
chargée va nécessairement interagir avec son propre champ de rayonnement.
Un calcul perturbatif montre que cet effet se traduit par l’apparition d’une force
de freinage effective proportionnelle à la dérivée de l’accélération. La
dynamique des particules chargées conduit ainsi à un système d’équations
différentielles du troisième ordre. L’analyse mathématique montre que
certaines de ses solutions présentent des pathologies, elles impliquent
notamment des violations de causalité sur des échelles de temps d’ordre R/c où
R est le « rayon classique de l’électron » et c la vitesse de la lumière. Ces
questions furent beaucoup discutées dans la première moitié du XXème siècle,
notamment par Lorentz et Dirac, mais aucune de ces tentatives ne put
réellement aboutir. Il ne semble pas exister de théorie classique cohérente
capable de décrire des particules chargées en interaction avec leur propre
champ. Dans le même ordre d’idées, il faudrait aussi évoquer les travaux de
Lorentz et Poincaré sur l’électrodynamique des systèmes étendus. Leur objectif
principal était de retrouver la relation énergie-impulsion en partant d’une
théorie dynamique de l'électron considéré comme un objet étendu en
interaction avec son propre champ. Avec l’avènement de la relativité restreinte,
on s’est rapidement convaincu qu'une telle relation a en fait un contenu
purement cinématique et qu'il est par conséquent illusoire de vouloir la dériver
d'une théorie dynamique. Observons cependant que, plus d’un siècle après, on
ne dispose toujours pas d’explication satisfaisante de l’origine des masses.
L'avènement de la relativité générale marque une étape importante dans la
construction des théories classiques de champs. C’est d’une certaine façon un
couronnement de la théorie classique des champs et du principe de localité sur
lequel elle est fondée. Ce principe de localité, auquel Einstein était
profondément attaché, n’était en effet que partiellement mis en œuvre en
électrodynamique puisque dans cette théorie seuls les champs sont locaux. Il
subsiste une structure rigide d’espace-temps où les champs se propagent et sur
laquelle est définie la notion de causalité. La relativité générale se présente
comme une théorie non-linéaire dans laquelle l’espace-temps lui-même est une
variété différentiable munie d’une métrique qui est le champ de gravitation. Ce
dernier est couplé à la matière à travers le tenseur d’énergie-impulsion. Notons
que le problème de la localisation de l’énergie et de la séparation de l’énergie
totale en ses différentes composantes, celle d’origine gravitationnelle et celle
associée à la matière, devient tout à fait non trivial et continue à faire l’objet de
travaux de recherche actuels (Witten, 1981). Il y a eu par la suite plusieurs
tentatives désespérées pour résoudre la dichotomie champ-particules au sein de
la théorie classique des champs (Mie, Einstein). Au cours des dernières
décennies, ce sujet a connu un renouveau d’intérêt suscité par la découverte de
solutions exactes des équations de Yang-Mills couplées à des champs de
matière et au champ de gravitation. Dans ces théories non-linéaires, on peut
6
A. COMTET
exhiber des solutions classiques des équations de champ interprétables en
termes de particules. Elles ont une énergie finie, sont localisées spatialement, et
leur stabilité est souvent assurée par des considérations topologiques. Certaines
de ces solutions portent une charge magnétique et électrique ou bien un flux
magnétique. Pour autant, dans la mesure où il n’y a pas eu pour l’instant de
confirmation expérimentale, ces objets restent d’une certaine façon des
curiosités des théories classiques des champs.
2.2. De la mécanique quantique relativiste à la théorie quantique des
champs
La mécanique quantique fait intervenir un cadre conceptuel radicalement
nouveau dans lequel il va falloir reformuler différemment les concepts de
localité et causalité. Les variables dynamiques, telles que la position et
l’impulsion, deviennent des opérateurs agissant sur un espace de Hilbert H et
l’état physique d’un système est un vecteur de H. La structure d’espace
vectoriel permet donc de fabriquer des superpositions linéaires d’états. Cette
propriété, qui n’a pas d’équivalent classique, joue un rôle capital dans l’analyse
des symétries développée par Wigner. Avant de discuter ce point, commençons
par rappeler un des problèmes conceptuels majeurs auquel est confrontée toute
théorie intégrant la mécanique quantique et la relativité. Comment peut-on
généraliser sous une forme adéquate les concepts classiques de causalité et de
localité ? Discutons la notion de localisation relativiste. Les relations
d'incertitude, conséquence du caractère opératoriel des variables dynamiques,
impliquent que, pour localiser une particule sur une échelle de distance très
petite, il faut mettre en jeu des impulsions et par conséquent des énergies très
grandes. Lorsque les énergies correspondantes sont de l'ordre de l’énergie de
masse, il y aura création de particules ce qui rend ainsi inopérant le processus
de localisation. Le paradoxe de Klein, découvert par Oskar Klein en 1928,
l’illustre de façon particulièrement convaincante (Itzykson et Zuber, 1985).
Considérons une particule en présence d’une barrière de potentiel semi
infinie située dans la région x > 0, et de hauteur inférieure à l’énergie de masse.
Si l’énergie cinétique de la particule est inférieure à la hauteur de la barrière, la
particule sera essentiellement localisée dans la région x < 0. Cette localisation
n’est que partielle, il subsiste en effet dans la région classiquement interdite
x > 0 une onde évanescente qui pénètre sur une faible épaisseur. On s’attend à
pouvoir réduire cette pénétration et par conséquent à pouvoir mieux localiser la
particule en augmentant la hauteur de la barrière. En réalité, dès que V ≥ 2mc2,
il apparaît un courant stationnaire de particules dans la région interdite. Ce
résultat s'interprète comme la création spontanée de paires particulesantiparticules. Les antiparticules apparaissent ainsi de façon inéluctable dans le
processus même de localisation. Il faut donc abandonner le principe de localité
si l’on veut continuer à décrire des états à une seule particule, en présence de
champs forts ou bien variant trop rapidement à l’échelle de la longueur d’onde
Compton.
Une analyse théorique approfondie du concept de localisation et de
Champs et particules : deux figures du continu et du discret dans les théories physiques
7
l'opérateur de position en mécanique quantique relativiste, développée par
Wigner (Newton et Wigner, 1949), part des postulats suivants :
1) L’ensemble des états localisés en un point forme un sous-espace de H
qui est invariant par rotation, parité, et sous le renversement du sens du temps.
2) Sous une translation arbitraire de vecteur quelconque, on obtient de
nouveaux états localisés au point transformé qui sont orthogonaux aux
précédents.
Pour des systèmes libres, ces postulats définissent de façon unique les états
et les opérateurs de position. Malheureusement les fonctions d’onde
correspondantes sont étendues spatialement et ne se transforment pas de façon
covariante. Dans le cas de plusieurs particules en interaction, on doit faire face
à d’autres difficultés qui sont déjà présentes en mécanique relativiste classique.
Rappelons que pour construire une mécanique classique hamiltonienne de
systèmes de particules interagissant à distance les considérations de symétrie
imposent des contraintes qui se traduisent par l’invariance sous les
transformations d’un certain groupe G. La construction s’effectue en deux
étapes :
Première étape : il s’agit de construire en terme des variables canoniques de
la théorie une réalisation du groupe G ou bien de l'algèbre de Lie de ses
générateurs.
Deuxième étape : la covariance manifeste de la théorie exige que les
observables de position se transforment comme des événements d’espacetemps.
Dans le cas où G est le groupe de Galilée, cette construction ne pose pas de
problème. Les variables canoniques elles-mêmes peuvent en effet jouer le rôle
d'opérateur de position. En revanche, dans le cas du groupe de Poincaré un tel
choix n’est cohérent qu’en l’absence d’interactions. Les variables de position
ne peuvent donc s'identifier aux variables canoniques que dans les théories
libres (théorème de Curie-Jordan-Sudarshan). Ce résultat, qui s’étend à la
mécanique quantique relativiste, montre qu’il faut renoncer au principe de
localité sur lequel est fondée la théorie classique des champs. En élargissant le
cadre conceptuel, et en introduisant la notion de champ quantique, la localité et
la causalité au sens des événements d’espace-temps seront abandonnées au
profit d’une forme plus faible de localité et de microcausalité.
Analyse cinématique des états à une particule
Elle repose sur les travaux de Wigner sur l’implémentation des symétries en
mécanique quantique. En utilisant le principe de superposition et les postulats
fondamentaux de la théorie, Wigner montre que l’espace de Hilbert H est un
espace de représentation du groupe de symétrie.
1) Une symétrie est une transformation qui opère sur les rayons de H et qui
laisse les probabilités de transition invariantes.
2) À toute loi de symétrie S correspond un opérateur unitaire de symétrie
U(S) qui est soit linéaire soit antilinéaire. Ces opérateurs forment une
8
A. COMTET
représentation projective (c’est-à-dire à une phase près) du groupe de symétrie
U(S) U(T) = ω (S, T) U(ST).
3) On peut considérer n’importe quel état comme une superposition d’états
élémentaires se transformant selon une représentation irréductible du groupe
de symétrie.
Tout le problème est donc de construire ces représentations. Dans le cas du
groupe des rotations, les représentations projectives de SO(3) sont des
représentations vraies de son groupe de revêtement SU(2). Elles sont classées
par des spins entiers ou demi-entiers. Dans le cas du groupe de Poincaré, dont
le groupe de revêtement est SL(2,C) inhomogène, les représentations
irréductibles sont classées par deux nombres quantiques, le spin et la masse.
D'un point de vue purement cinématique, on peut donc dire qu'une particule
élémentaire n'est autre qu'une représentation irréductible du groupe de
Poincaré. La notion naïve d’élémentarité, au sens d’objet ponctuel et sans
structure, est donc abandonnée au profit de celle d’irréductibilité, au sens de la
théorie des représentations.
Aspects dynamiques
Pour construire une théorie relativiste de particules en interaction, il faut
d’abord définir la notion d'état asymptotique à plusieurs particules (produit
tensoriel de représentations irréductibles) et ensuite construire une théorie de la
diffusion, caractérisée par une matrice S, qui soit invariante sous le groupe de
Poincaré. On assure l'invariance de la matrice S en imposant la microcausalité
au niveau des densités hamiltoniennes
[H(x), H(y)] = 0 si (x - y)2 ≤ 0
À cette contrainte de causalité, on adjoint la condition de décomposition en
amas qui stipule que la matrice S doit se factoriser pour des événements
suffisamment séparés. Ceci implique que la densité hamiltonienne H(x) est une
fonctionnelle de champs locaux. C'est à ce stade que s'introduit naturellement
la notion de champ quantique (Weinberg, 1997). Le cadre théorique est celui
d’une théorie locale d’opérateurs que nous pouvons esquisser dans le cas des
champs libres. Les relations de commutation à temps égaux du champ et de son
moment conjugué ⎣Φ(x, t), Π(y, t)⎦ = i δ(x - y) permettent d’assurer les
relations de microcausalité ⎣Φ(x), Φ(y)⎦ = 0 si (x - y)2 ≤ 0. Cette relation, qui
exprime que l’on peut mesurer simultanément le champ en deux points séparés
par un intervalle de genre espace, est bien en accord avec la formulation de la
causalité dans une théorie relativiste. Pour les fermions, la positivité de
l'énergie impose de travailler avec des relations d'anticommutation. On assure
ainsi la microcausalité non pas au niveau des champs eux-mêmes mais au
niveau des observables bilinéaires dans les champs.
Pour conclure cette partie, essayons de dégager quelques résultats
importants de cette construction. Elle fournit avant tout une description unifiée
de la notion de champ et de particule. C’est une description non dualiste car les
particules (et les antiparticules) n’apparaissent que comme des excitations
Champs et particules : deux figures du continu et du discret dans les théories physiques
9
élémentaires associées aux champs. Les champs, qui n’étaient au départ que
des artifices mathématiques, deviennent les entités fondamentales ce qui est, en
un certain sens, une réhabilitation du programme de Leibniz et une remise en
cause du paradigme newtonien. Un autre résultat important de cette
construction est de fournir une explication à l’origine de la relation spinstatistique qui joue un rôle fondamental dans l’étude des propriétés de basse
température de certains liquides quantiques tels que l’hélium 3 et l’hélium 4.
3. RENORMALISATION, DÉCOUPLAGE DES ÉCHELLES ET
LIMITE CONTINUE
La première théorie quantique des champs qui a vu le jour a été
l'électrodynamique quantique. Cependant, dès le départ surgissent des
difficultés de principe. Le calcul d’un processus quelconque, par exemple
l’interaction d’une particule chargée avec un champ extérieur, met en jeu des
processus virtuels qui apportent des contributions infinies à l’énergie. Ces
fluctuations quantiques sont l’analogue des fluctuations hydrodynamiques que
l’on rencontre lorsqu’on déplace un objet solide dans un liquide. Mais,
contrairement aux fluctuations hydrodynamiques qui apparaissent sur des
échelles de longueur qui sont de l’ordre de la taille de l’objet, ces fluctuations
quantiques apparaissent à toutes les échelles. C’est là une conséquence directe
de la localité (et de l’unitarité) de la théorie. Puisqu'il n'y a pas d'échelle de
longueur minimale, toutes les échelles de longueur interviennent dans le calcul
d'un processus, y compris les très petites échelles, c’est-à-dire les très grandes
énergies. Rappelons que l’idée de renormalisation est, au départ, une approche
empirique consistant à isoler les infinis qui surgissent dans le calcul des
processus en utilisant non pas les paramètres initiaux de la théorie mais les
paramètres physiques (charge et masse de l'électron). Dans le cas de
l’électrodynamique, cette approche permet par exemple de calculer de façon
extrêmement précise le moment magnétique anormal de l'électron et du muon à
l’ordre α 4 dans la constante de structure fine. Pour l’électron, la prédiction
théorique (g-2)/2 = 0.0011596521535(240) est en excellent accord avec les
résultats expérimentaux (g-2)/2 = 0.0011596521884(43). On dispose donc
d’une procédure empirique qui fonctionne bien, pour des théories dites
renormalisables, mais qui reste en grande partie énigmatique. La question
posée est celle du découplage des échelles de longueur. En physique classique,
ce découplage est un fait d'expérience. On sait, par exemple, que pour décrire
le comportement d'un fluide à l'échelle macroscopique, il n’est pas nécessaire
de connaître la dynamique moléculaire. Deux paramètres physiques suffisent à
le caractériser : sa densité et sa viscosité. Bien entendu ces deux paramètres
peuvent être calculés à partir d'une théorie microscopique, mais on peut aussi
les tirer de l'expérience. De même, pour déterminer les niveaux d’énergie d’un
atome, il n'est nul besoin de connaître la structure du noyau. Il suffit de
connaître sa masse et sa charge. De façon générale, on s’attend à ce que la
physique à grande échelle se découple de la physique à petite échelle. Bien
entendu cette procédure de découplage est loin d'être triviale puisque c’est
⊇
10
A. COMTET
l’objet même de la physique statistique, théorie achevée dans le cas des
systèmes à l'équilibre mais encore balbutiante dans le cas des systèmes hors
d'équilibre. Comment doit-on comprendre l’idée de découplage en théorie
quantique des champs et comment peut-elle nous éclairer sur l’origine des
divergences ? Ces dernières traduisent-elles une réalité physique ou bien sontelles le fait d’un formalisme inadéquat ? Dans les années 1970-1980, Wilson et
Kadanoff ont eu l’idée de faire le lien avec un autre domaine de la physique
classique où un comportement analogue apparaît : il s’agit de la physique des
transitions de phase du second ordre (Wilson, 1975). Considérons par exemple
un ferromagnétique à une température supérieure à la température critique Tc.
L’expérience, ou la simulation numérique, montre qu’il apparaît des amas de
spins alignés dont la taille est de l'ordre de la longueur de corrélation. Quand
on se rapproche de la température critique, leur taille augmente et pour T = Tc
on trouve des amas de toutes tailles. Il n'y a donc plus d’échelle de longueur
dans le problème. La physique des phénomènes critiques semble donc conduire
à une situation analogue à celle rencontrée en théorie des champs. Il y a là
beaucoup plus qu’une simple analogie puisque l’analyse théorique des
phénomènes critiques montre, qu’au voisinage de la température critique, le
système peut être décrit en termes d’une infinité de variables dynamiques
couplées. Il est alors légitime de remplacer les spins discrets par un champ
continu obtenu en faisant une moyenne sur les spins. Bien que le hamiltonien
effectif fasse en principe intervenir un nombre infini de constantes de
couplage, au voisinage de la température critique seuls un nombre fini de
termes contribuent. Ces termes sont précisément ceux qui sont autorisés par le
comptage de puissance dans les théories renormalisables.
L’analyse des phénomènes critiques conduit à une meilleure compréhension
de la notion de limite continue. Dans les théories comme la mécanique des
fluides, une fluctuation typique du système se développe sur une distance
macroscopique bien définie. À partir des quantités microscopiques, positions et
vitesses des molécules, on peut par conséquent définir des moyennes
hydrodynamiques et exprimer la vitesse ou la densité moyenne du fluide. La
théorie continue n’est qu’une description effective d’entités discrètes. Dans les
phénomènes critiques, la notion de limite continue est plus difficile à
appréhender car les fluctuations apparaissent à toutes les échelles. L’approche
du groupe de renormalisation permet de traiter ces situations et apporte ainsi un
éclairage nouveau sur la nature profonde des théories des champs et sur la
notion de renormalisabilité (Cao et Schweber, 1993). Pendant très longtemps,
cette notion fut considérée comme une propriété fondamentale que devaient
satisfaire les théories de champ. C'est d'ailleurs sur cette base que les théories
de jauge furent étudiées et utilisées pour unifier les interactions
électromagnétiques, faibles et fortes. L’étude des phénomènes critiques a
conduit a un renversement de point de vue en nous montrant que les théories
renormalisables doivent être considérées comme des théories effectives à
grande distance (Zinn-Justin, 2001). Par conséquent rien n’exclut que les
interactions dites fondamentales, car décrites par une théorie renormalisable,
Champs et particules : deux figures du continu et du discret dans les théories physiques 11
puissent être décrites à plus petite échelle, par exemple à l'échelle de Planck,
par une théorie de nature inconnue. Dans ce scénario, cette dernière serait par
construction inaccessible puisque seuls les degrés de liberté pertinents peuvent
subsister à grande échelle. Le système engendre un mécanisme de
« protection » qui nous empêche de déterminer les lois microscopiques sousjacentes. Au paragraphe suivant nous allons approfondir cette idée en discutant
du conflit entre les notions d’émergence et d’élémentarité.
4. COMPORTEMENTS COLLECTIFS ET PROPRIÉTÉS ÉMERGENTES
La notion d’émergence renvoie à l’idée qu’il existe différents niveaux de
réalité et que chacun d’entre eux est caractérisé par certaines propriétés
fondamentales et irréductibles. On entend généralement par là qu’elles ne
peuvent pas être prédites à partir de celles des niveaux inférieurs. Cette idée a
donné lieu à de vifs débats dans le domaine des sciences du vivant (controverse
vitaliste réductionniste) et plus récemment dans le domaine des sciences
cognitives et des sciences sociales. Pourquoi ce concept plutôt flou a-t-il fait
irruption dans le champ de la physique et que recouvre t-il exactement ?
Les idées d’émergence viennent principalement de la physique statistique.
Ce domaine regorge en effet d’exemples où apparaissent des formes ou des
comportements que la dynamique microscopique ne laisse pas entrevoir.
La physique statistique à l’équilibre traite de systèmes composés de
particules (agents) en interaction qui peuvent dans la limite thermodynamique
donner lieu à des comportements collectifs (par exemple des transitions de
phase).
Dans le domaine de la physique statistique des systèmes hors d’équilibre,
des mécanismes de sélection de forme peuvent donner naissance à des formes
surprenantes rappelant parfois certains objets naturels : formation de veinules
ou de rouleaux. Un sujet particulièrement riche est celui de la physique des
milieux granulaires, tas de sable, billes et poudres. On y observe une variété de
comportements collectifs (avalanches, formation de dunes) qui ont beaucoup
été étudiés ces dernières années (C. Michaut, 2007).
Ces derniers exemples pourraient laisser croire que l’idée d’émergence soit
restreinte aux systèmes classiques macroscopiques. En effet, les mécanismes
qui entrent en jeu (stochasticité, diffusion) ne semblent pas transposables à des
systèmes quantiques gouvernés par une dynamique hamiltonienne et, surtout,
on voit difficilement comment les appliquer à des systèmes élémentaires. Pour
nous convaincre qu’il n’en est rien nous allons présenter deux exemples tirés
de la physique de la matière condensée.
Émergence de l'équation de Dirac. Dans les ouvrages traditionnels de
mécanique quantique, l’équation de Dirac est introduite à partir des
représentations spinorielles du groupe de Lorentz homogène. Dans ce point de
vue axiomatique, on voit difficilement comment l’équation de Dirac pourrait
jouer un rôle dans un contexte non relativiste, tel que l’étude des propriétés de
basse énergie en physique du solide. Il y a certes des électrons qui sont des
12
A. COMTET
particules de spin 1/2, mais ils ne sont pas relativistes, et par ailleurs le groupe
de symétrie d’espace est un groupe discret puisque les électrons se déplacent
dans un réseau cristallin. Si on se limite à l’étude du problème à une particule,
on se convainc facilement que la physique du problème est de nature nonrelativiste. Mais on doit en réalité traiter un problème à N corps de particules
obéissant à la statistique de Fermi. Pour construire un état quantique à N corps,
il faut remplir successivement tous les états individuels à une particule jusqu’à
une énergie maximale appelée énergie de Fermi. À température nulle c’est
l’énergie du plus haut niveau occupé. À basse température, la physique du
problème sera donc contrôlée par les excitations élémentaires au voisinage du
niveau de Fermi. Dans le cas d’une chaîne linéaire d’atomes, ces excitations
obéissent à la relation de dispersion relativiste E = ±VP. On obtient ainsi une
relation de dispersion relativiste avec deux types d’excitations, et par
conséquent une théorie de fermions relativistes à deux composantes. En
présence de distorsion du réseau, ces fermions interagissent avec le champ de
déplacement du réseau et peuvent donner lieu à des effets remarquables tels
que l’apparition de charges fractionnaires dans des conducteurs organiques
unidimensionnels. Un autre exemple apparu récemment est celui du graphène,
composé bidimensionnel constitué d’une couche monoatomique d’atomes de
carbone. Ce nouveau conducteur quantique, dont les propriétés électroniques
sont régies par l’équation de Dirac, possède des propriétés fascinantes dont
certaines sont maintenant observables à l’échelle submicronique (Geim et al,
2007).
L’effet Hall quantique constitue une manifestation macroscopique de
phénomènes quantiques. La physique est celle d’un gaz d’électrons à deux
dimensions plongés dans un champ magnétique constant. La conductance du
système, appelée conductance Hall, est quantifiée selon la formule
σ = ν e2/h
où ν est un entier dans le cas de l’effet Hall entier (Von Klitzing, 1980) et une
fraction rationnelle dans le cas de l’effet Hall fractionnaire (Tsui et al, 1982).
On montre que les excitations élémentaires ne sont pas les électrons mais des
entités portant une charge fractionnaire et obéissant à une statistique
intermédiaire. Le fait que la quantification de la conductance soit exacte et ne
dépende pas des détails microscopiques, type d’impuretés, nature du semiconducteur, est un phénomène tout à fait remarquable qui a beaucoup intrigué
les expérimentateurs ayant réalisé les premières mesures. En effet lorsqu’on
fabrique des semi-conducteurs, il y a toujours des imperfections, défauts du
réseau cristallin, présence d’oxydes à la surface, irrégularités des bords. Tous
ces effets influencent les mesures de courant dans les expériences à champ nul,
mais dans le cas de l’effet Hall on a une quantification exacte. On montre que
la présence des impuretés est en fait nécessaire pour pouvoir observer ce
phénomène. En effet, les plateaux Hall ne peuvent apparaître que s’il y a
coexistence d’états électroniques étendus et localisés. La propriété
d’universalité de la quantification de la conductance Hall est utilisée en
métrologie pour fournir un étalon de résistance. La relation précédente est
Champs et particules : deux figures du continu et du discret dans les théories physiques 13
également utilisée pour déterminer la constante de structure fine à partir de la
vitesse de la lumière. On obtient une précision comparable à celle fournie par
la mesure du moment magnétique anormal de l’électron ! Laughlin et Pines
considèrent que l’effet Hall est un phénomène émergent dans le sens où il
s’agit d’un phénomène collectif insensible aux détails microscopiques car il
existe un mécanisme de protection qui est ici la localisation des états
électroniques (Laughlin et Pines, 2000).
5. Y A-T-IL UNE PHYSIQUE DE L’ÉLÉMENTAIRE ?
Cette physique de l’émergence nous conduit à nous réinterroger sur ce
qu’est réellement l’élémentaire. La quête de l’élémentaire, fondée sur
l’observation que l’univers a une structure hiérarchique allant de l’infiniment
petit à l’infiniment grand, part de l’hypothèse que pour comprendre cette
hiérarchie il faut pouvoir accéder aux constituants ultimes en sondant
l’infiniment petit. La physique de la matière condensée nous montre que cette
vision réductionniste est probablement trop naïve. Il existe des excitations
collectives de systèmes à N corps qui semblent avoir tous les attributs d’une
particule (masse, charge, spin) mais dont les propriétés sont très différentes de
celles de ses constituants (molécules, atomes, électrons). Considérons par
exemple un gaz composé de molécules ou d’atomes. À haute énergie (haute
température) ses propriétés sont, pour l’essentiel, régies par les interactions
entre les atomes. En général l’interaction est compliquée et dépend des détails
microscopiques. Quand on abaisse la température, un état cristallin ou un état
superfluide peut se former. Bien que ces deux situations soient fort différentes,
dans les deux cas, les excitations élémentaires sont des phonons : objets
quantiques associés au mouvement collectif des atomes. En ce sens les
phonons sont des objets émergents avec des propriétés universelles : relation
de dispersion indépendante des détails du système, propriétés
thermodynamiques universelles à basse température, faible interaction phononphonon. Par conséquent, non seulement les particules mais aussi leurs
interactions sont émergentes. Un observateur plongé dans un superfluide ne
verrait autour de l’état fondamental que ces excitations et n’apprendrait rien
sur leur origine en faisant des collisions phonon-phonon car ces excitations
sont de nature émergente.
« Neither of these things can be deduced from microscopics and both are
transcendent in that they would continue to be true and lead to exact results
even if the theory of everything were changed. Thus the existence of these
effects is profoundly important for it shows us that for at least some
fundamental things in nature the theory of everything is irrelevant »
(Laughlin et Pines, 2000).
Cette thèse émergentiste de Laughlin (Bitbol, 2007) à laquelle de nombreux
physiciens se sont ralliés signifie-t-elle que la nature puisse s’organiser sans
fondement originel ni entités élémentaires ? Pour tenter d’y répondre, partons
de l’analogie formelle entre phonons et photons. Le photon, considéré comme
objet élémentaire de l’électrodynamique quantique, est-il ontologiquement
14
A. COMTET
différent du phonon, excitation associée au mouvement collectif des atomes
dans un cristal ? Plus généralement, est-il possible de distinguer une excitation
collective d’un objet élémentaire ?
Pour clarifier ce point il nous faut revenir à la notion de symétrie,
notamment à celle de symétrie brisée.
6. LES BRISURES ET LEURS SYMÉTRIES
La notion de symétrie a joué un rôle important tout au long de l’histoire de
la physique. Elle a été introduite pour la première fois par Galilée dans son
ouvrage célèbre intitulé Dialogue sur les deux grands systèmes du monde
(Florence, 1632). Il prend comme exemple le mouvement d’un objet à
l’intérieur d’un bateau et montre que le mouvement de cet objet ne dépend pas
du fait que le bateau est immobile ou bien en mouvement rectiligne uniforme.
Dans un langage moderne, il montre l’invariance des lois de la mécanique sous
les transformations spéciales de Galilée. Pendant très longtemps les symétries
furent analysées dans ce point de vue galiléen : les symétries sont des
conséquences des équations du mouvement. Ainsi l’invariance des équations
de Maxwell sous le groupe de Lorentz était considérée par Lorentz et Poincaré
comme une propriété particulière de ces équations. Avec Einstein, on assiste à
un renversement radical de point de vue. Les symétries d'espace-temps sont
érigées en principes généraux auxquels doivent obéir les lois physiques. Dans
ce point de vue, les lois de transformation du champ électromagnétique ne sont
pas des conséquences des équations de Maxwell mais des propriétés purement
cinématiques qui contraignent les lois physiques. Avec l’avènement de la
relativité générale, cette idée acquiert encore plus de force puisque l'invariance
sous les difféomorphismes d'espace-temps permet de rendre compte du
couplage au champ gravitationnel. La relativité générale est donc la première
théorie construite sur le concept de symétrie locale. C’est en s’appuyant sur
cette démarche qu’ont été construites, quelques décennies plus tard, les
théories de jauge non-abéliennes.
Brisure de symétries continues
Hormis les symétries d’espace-temps qui sont censées être exactes, on sait
que la plupart des autres symétries ne sont qu’approchées. Pendant très
longtemps on partait de l’hypothèse que le hamiltonien contenait une partie
symétrique et une partie brisant la symétrie. On considérait donc que ces
symétries étaient brisées explicitement au niveau dynamique. La découverte du
mécanisme de brisure spontanée de symétrie s’accompagne d’un changement
complet de paradigme. On sait désormais décrire des situations dans lesquelles
la symétrie est brisée non pas au niveau du hamiltonien mais au niveau des
états physiques. En d’autres termes, la dynamique reste symétrique, mais les
solutions des équations du mouvement ne le sont pas. Montrons comment ce
schéma s’inscrit dans l’analyse des symétries que nous avons esquissée plus
haut. Pour des systèmes à nombre fini de degré de liberté, les symétries sont
réalisées au niveau des états selon le mode de Wigner. Ceci signifie que les
Champs et particules : deux figures du continu et du discret dans les théories physiques 15
états physiques sous-tendent des représentations finies de G. En particulier
l’état fondamental ⏐ω〉 est invariant sous G : U(g)⏐ω〉 = ⏐ω〉.
Pour des systèmes à nombre infini de degrés de liberté, U(g) n’existe pas
nécessairement comme opérateur sur H. Dans ce cas la symétrie est dite
spontanément brisée, ce qui implique que l’état fondamental n’est plus
invariant sous G. Dans le cas où le groupe G est continu, on montre qu’il
apparaît dans le spectre des excitations de masse nulle. En physique des
particules, ce sont des particules de Goldstone. En physique de la matière
condensée, ces excitations de masse nulle apparaissent sous forme d’ondes de
spins dans le cas du ferromagnétisme, ou bien de phonons dans les
superfluides. Ce sont à l’évidence des entités émergentes. Par conséquent le
photon et le phonon bien que possédant les mêmes propriétés cinématiques –
ce sont toutes deux des particules de masse nulle et de spin 1 – semblent être
des entités de nature différentes. Ce point de vue auquel la plupart des
physiciens des particules se rallieront volontiers n’est cependant qu’un acte de
foi. Pour l’instant, les particules de jauge, photon et bosons intermédiaires, sont
considérées comme des particules fondamentales mais il n’est pas exclu
qu’elles puissent être engendrées dynamiquement par un mécanisme de
« condensation » (Wen, 2004). Les développements récents de la physique de
la matière condensée ont montré que de tels mécanismes existent et fournissent
une alternative aux schémas standards de classification fondés sur les symétries
locales. Le concept d’ordre topologique, apparu dans le contexte de l’effet Hall
quantique en est un exemple.
7. CONCLUSION
Nous avons analysé dans une perspective diachronique la notion de champ
en tant que figure du continu et montré comment elle est parvenue à supplanter
celle de particule conçue comme figure du discret. L’élaboration de la notion
de champ et du cadre théorique qui l’accompagne n’a pu se faire qu’à travers
des changements radicaux de signification des concepts de localité et causalité.
À cette affirmation du primat du continu dans les théories physiques il convient
cependant d’apporter de nombreuses réserves. Le groupe de renormalisation et
l’étude des phénomènes critiques montrent que le continu physique a surtout
un statut épistémologique, c’est une notion provisoire, une description
commode pour analyser des phénomènes à une certaine échelle. Tout au long
de cet essai nous avons développé l’idée que la notion de continu est
inséparable de celle d’élémentaire, lequel doit être défini dans le langage des
symétries. Le cadre mathématique traditionnel pour les analyser, la théorie des
représentations, est loin d’épuiser le sujet comme le prouve le phénomène de
brisure spontanée de symétrie qui est un exemple de phénomène émergent en
physique fondamentale. D’autres exemples récents issus de la physique de la
matière condensée contribuent à alimenter la réflexion sur l’élémentaire et
permettent ainsi de renouveler le débat autour du réductionnisme.
REMERCIEMENTS
16
A. COMTET
Je remercie Thierry Jolicoeur, Satya Majumdar, Francis Maisonneuve,
Bernard Teissier et Christophe Texier pour de très enrichissantes discussions.
BIBLIOGRAPHIE
Bitbol, M. (2007), La nature est-elle un puits sans fond ? La Recherche, n° 405, 31.
Cao, T.Y. & Schweber, S. (1993), The Conceptual Foundations and the Philosophical
Aspects of Renormalization Theory. Synthese, 97, 33-108.
Dahan-Dalmedico, A. (1992), De l’ontologie du discret à la capture relative du continu.
In J.M. Salanskis et H.Sinaceur (Eds), Le Labyrinthe du continu. Berlin: Springer.
Geim, A.K. & Novoselov, K.S. (2007), The Rise of Graphene. Nature Materials, 6,
193.
Itzykson, C. & Zuber, J.B. (1985), Quantum Field Theory. New York : McGrawHill .
Laughlin, R.B. (2005), Un univers différent. Paris : Fayard.
Laughlin, R.B. & Pines, D. (2000), Proceedings of the National Academy of Sciences,
vol 97, p 28.
Michaut, C. (2007), La Recherche, n° 405, 41.
Newton, T.D. & Wigner, E.P. (1949), Reviews of Modern Physics, vol 29, 21.
Stormer, H.L. (1999), Reviews of Modern Physics, vol 71, 875.
Thom, R. (1989), Thèmes de Holton et apories fondatrices. In J. Petitot (Ed)., Logos et
théorie des catastrophes (p. 285). Genève: Editions Patino.
Von Klitzing, K. (1986), The Quantized Hall Effect. Reviews of Modern Physics, vol
58, 519.
Weinberg, S. (1997), What is Quantum Field Theory and what did we Think it is ?
hepth/9702027
Wen, X.G. (2004), Quantum Field Theory of Many-body Systems, from the Origin of
Sound to an Origin of Light and Electrons. Oxford: Oxford University Press.
Zinn-Justin, J. (2001), Renormalisation et groupe de renormalisation, les infinis en
physique microscopique contemporaine. In Crozon et Sacquin (Eds), L’élémentaire
et le complexe, rencontre physique et interrogations fondamentales. Les Ullis : Edp
Sciences.
Téléchargement