Intellectica, 2009/1, 51, pp. Champs et particules : deux figures du continu et du discret dans les théories physiques Alain Comtet RESUME : Le cadre théorique dans lequel s’est construit la physique moderne s’appuie sur le concept de champ. Nous montrons comment ce concept, qui apparaît d’abord comme un simple substitut à celui d’action à distance, s’est progressivement imposé dans la construction des théories quantiques relativistes. L’élaboration de ce cadre s’est accompagné d’un changement de signification des concepts de localité, causalité et symétrie. Champs et particules apparaissent ainsi comme deux figures du continu et du discret à travers lesquelles est posé le problème de l’antinomie continu discret. Nous avançons l’idée qu’il n’y a pas un continu mais une multiplicité de continus associés aux différentes strates de la réalité physique. Comment peut-on concilier cette idée avec celle d’élémentarité ? Nous rappelons comment le problème se pose en théorie des champs et la réponse qu’a apportée l’étude des phénomènes critiques. Nous évoquons le conflit entre deux descriptions de l’univers physique : l’une fondée sur une démarche réductionniste visant à rechercher les lois de l’élémentaire, l’autre mettant l’accent sur la notion de comportement collectif et de propriétés émergentes. Mots clés : Antinomie continu-discret, élémentarité, émergence, champs et particules. ABSTRACT : Particles and fields, two figures of the discrete and the continuum in physical theories. The theoretical framework within which modern physics has been built relies on the concept of field. We show how this concept which, in the first instance serves as a substitute for that of action at a distance, has gradually come to play a central role in the construction of relativistic quantum theories. The development of this framework has brought about a change in the meaning of the concepts of locality, causality and symmetry. Particles and fields appear as two aspects of the discrete and the continuum in terms of which the discrete versus continuum question can be formulated. We put forward the view that there is not just one continuum but rather a multiplicity of continua associated with the different layers of physical reality. How can this view be reconciled with that of elementarity ? We recall how this question arises in quantum field theory and how it is resolved in terms of notions developed in the study of critical phenomena. We discuss the conflict between two descriptions of the physical universe : one based on a reductionnist approach with the aim of uncovering the laws of elementarity, the other emphasising the notion of collective behaviour and that of emerging properties. Key words : Continuum-discrete antinomy, elementarity, emergence, fields and particles Institut Henri Poincaré & LPTMS, Université Paris 11, [email protected] © 2009 Association pour la Recherche Cognitive. 2 A. COMTET 1. INTRODUCTION Dans une conférence donnée au colloque de Cerisy sur le thème « Logos et catastrophes », Thom (Thom, 1989) reprend l’idée de Holton que toutes les grandes disciplines sont construites sur certaines apories fondatrices. Par là il veut signifier qu'elles sont traversées par des clivages fondamentaux et irréductibles. Les oppositions continu-discret, élémentaire-complexe ou bien déterminisme-indéterminisme que l’on rencontre dans les théories physiques sont des exemples de tels clivages. Ce sont des apories car il ne semble pas exister de voie de passage (de ποροσ) ni d’issue logique permettant de les dénouer. L’objet de cet essai est d’illustrer l’antinomie continu-discret en partant de la notion de champ et de particule. Dans le langage commun, l’idée d’élémentarité renvoie à celle d’un objet ponctuel et sans structure. La physique classique reprend pour partie cette idée, mais elle lui donne un contenu plus précis. La « particule » ou le « corpuscule » est une entité dotée de certains attributs permettant de l’identifier : une masse, une charge électrique et aussi certaines propriétés de localisation spatiale. En ce sens le corps rigide de la mécanique newtonienne est un objet élémentaire au même titre que le point matériel. On peut en effet le caractériser par un nombre fini de degrés de liberté, un ensemble de coordonnées généralisées constitué des trois angles d’Euler et des trois coordonnées du centre de masse. C’est donc essentiellement un point dans un espace de configuration. C’est ainsi que s’exprime la notion de localité. Par opposition, la notion de champ classique renvoie à celle d’un continuum constitué d’un ensemble infini de variables dynamiques locales, telles que le champ des vitesses dans un fluide. Un champ classique est donc une fonction sur l’espace de configuration. En physique classique, particules et champs sont par conséquent des entités bien distinctes décrites par des objets mathématiques très différents, d'une part des points et d'autre part des fonctions sur un certain espace de configuration. Dans une première partie, nous rappellerons l’origine des concepts de champ et de particule et analyserons leur évolution dans une perspective diachronique prenant en compte la dimension historique des différentes théories qui se sont succédé. Nous évoquerons toutes les métamorphoses qu’a connues la notion de particule, depuis celle de point matériel de la mécanique newtonienne jusqu'à celle de particule définie comme représentation d’un groupe de symétrie. Nous verrons comment les théories quantiques des champs parviennent à unifier ces deux concepts. L’élaboration de ce cadre théorique s’est faite au prix de changements de signification des concepts de localité, causalité et symétrie sur lesquels il sera intéressant de se pencher. Nous verrons comment les changements successifs, et souvent radicaux, de points de vue qui sont intervenus n’ont pas été dictés par des a priori philosophiques mais par des exigences de cohérence interne des théories physiques. La notion même de continu n’acquiert un sens précis qu’à travers celle de localité ; et celle d’élémentarité, fort éloignée de l’idée naïve d’objet sans structure, doit Champs et particules : deux figures du continu et du discret dans les théories physiques 3 être formulée dans le cadre de la théorie des représentations. Ainsi, de façon assez inattendue, à travers la question du continu se pose aussi celle de l’élémentaire ce qui conduit à une confrontation intéressante entre les deux apories continu-discret et élémentaire-complexe. La deuxième partie sera une interrogation sur la recherche de l’élémentaire. Nous évoquerons le conflit entre deux descriptions de l’univers physique : l’une fondée sur une démarche réductionniste visant à sonder les lois de l’infiniment petit, l’autre mettant l’accent sur les comportements collectifs et la notion d’émergence. Il s’agit là d’un conflit très ancien qui a été ravivé par des développements récents en physique de la matière condensée. Les acteurs les plus influents qui ont participé à ce débat sont pour la plupart des théoriciens éminents de ce domaine, citons en particulier P. Anderson, D. Pines et R. Laughlin. Dans un ouvrage récemment traduit en français, Un univers différent, Laughlin souligne le rôle des réalités émergentes dans les phénomènes quantiques macroscopiques et se livre à une critique très sévère de la démarche réductionniste. Selon lui, le débat n’est pas seulement de nature méthodologique, mais il est de nature ontologique et touche à notre vision même du monde. « La précision de nos mesures nous permet de dire avec assurance que la quête d’une vérité ultime est terminée mais aussi qu’elle a échoué, puisque nous savons maintenant que la nature est une énorme tour de vérités empilées dont chacune descend de sa vérité mère et la transcende, quand l’échelle de mesure augmente. Comme Christophe Colomb ou Marco Polo, nous étions partis explorer un nouveau pays et nous avons trouvé un nouveau monde » « Nous ne vivons pas la fin de la découverte mais la fin du réductionnisme. La fausse idéologie qui promettait à l’humanité la maîtrise de toute chose grâce au microscopique est balayée par les événements et la raison. Non que la loi microscopique soit fausse ou vaine. Elle est seulement rendue non pertinente dans de nombreux cas par ses filles, et les filles de ses filles, à plus haut niveau : les lois organisationnelles de l’univers » (Laughlin, 2005, p 263 et 276). 2. LA PARTICULE ET LE CHAMP, PERSPECTIVE HISTORIQUE 2.1. Théories classiques des champs Historiquement, la notion de champ a d’abord été introduite comme un substitut à celle d'action à distance. C’est dans le contexte de la théorie de l’attraction universelle que le problème se pose pour la première fois. On sait que cette théorie, élaborée par Newton dans le courant du XVIIème siècle, rend parfaitement compte de la chute des corps et du mouvement des planètes. Elle part du postulat qu’il existe, entre deux corps massifs quelconques, une force de gravitation inversement proportionnelle au carré de la distance ; c’est l’idée d’action à distance. Mais comment peut-il donc apparaître une telle action sans qu’il n’y ait de support matériel permettant de la propager ? Cette idée sur laquelle est fondée la théorie newtonienne est en conflit avec celle de localité défendue par Leibniz. Dans une lettre adressée à Monsieur Arnauld, docteur en 4 A. COMTET Sorbonne, Leibniz écrit « Il y a déjà quelque temps que j’ai publié dans les actes de Leipzig un essai physique pour trouver les causes physiques du mouvement des astres. Je pose pour fondement que tout mouvement d’un solide dans un fluide qui se fait en ligne courbe ou dont la vélocité est complètement difforme vient du mouvement du fluide même ». De fait, un cadre conceptuel nouveau, incorporant le concept de localité revendiqué par Leibniz, verra le jour un siècle et demi plus tard grâce aux intuitions de Faraday. Selon Faraday, une particule massive crée en chaque point de l’espace un champ de gravitation (ou un champ électrique s’il s’agit d’une particule chargée) qui agit à son tour sur les autres particules ; ainsi il n’y a pas d’interaction à distance et instantanée mais seulement une interaction transmise par l’intermédiaire d’un champ. Les avantages d'une telle formulation sont multiples. Sur le plan conceptuel, c’est une façon économique d’incorporer la notion de localité – l’existence d’une interaction locale entre la particule et le champ – et ainsi d’évacuer le problème de l’action à distance. Sur le plan technique, cette formulation permet d’écrire les équations du mouvement en partant d’un principe variationnel lequel permettra ultérieurement d’incorporer de façon explicite les symétries (théorème de Noether). Dans le courant du XIXème siècle, ce point de vue va progressivement s'imposer. On assiste à l’évolution d'une physique fondée sur le discret – le corpuscule et l’action à distance entre corpuscules – description dans la continuité du projet newtonien incarné par Laplace – vers une physique du continu représentée par Fourier (théorie de la chaleur) et Cauchy (premiers travaux sur l'élasticité). En considérant les corps élastiques comme des milieux continus, Cauchy isole de petits volumes élémentaires et écrit les forces et les pressions s’exerçant sur les différentes faces. Les bases modernes de la théorie des milieux continus sont élaborées dans son article de 1827 (DahanDalmedico, 1992). Notons qu'il reviendra par la suite au point de vue laplacien dans ses travaux sur la lumière. Avec Maxwell, le concept de champ acquiert une nouvelle signification. Dans son article de 1864, « A dynamical theory of the electromagnetic field », Maxwell construit une théorie dynamique de l’électromagnétisme qui prédit un phénomène entièrement nouveau : c’est celui de la propagation des ondes électromagnétiques. Contrairement aux ondes sonores, pour lesquelles il y a une mise en mouvement des molécules, dans le cas de la lumière, il n’y a pas de support matériel. L’énergie électromagnétique a son siège dans le champ électromagnétique qui est présent dans tout l'espace comme l’illustre le phénomène du rayonnement électromagnétique. Ce phénomène traduit le fait qu’une particule chargée accélérée est nécessairement accompagnée d’un champ à longue distance qui transporte de l’énergie et de l’impulsion. Il s’ensuit que le champ ne peut plus être considéré comme un simple substitut, mais qu’il doit être traité comme une véritable variable dynamique. Le champ devient une entité propre possédant les mêmes attributs qu’une particule : énergie, impulsion et moment angulaire. Cependant la dichotomie particule-champ subsiste puisque les équations du mouvement se présentent comme un ensemble de quatre équations pour le champ, les Champs et particules : deux figures du continu et du discret dans les théories physiques 5 équations de Maxwell, et d’une équation pour la matière, l’équation de Lorentz. Le couplage entre les deux entités, particules et champ, conduit à un effet physique nouveau qui est celui de la réaction de rayonnement : une particule chargée va nécessairement interagir avec son propre champ de rayonnement. Un calcul perturbatif montre que cet effet se traduit par l’apparition d’une force de freinage effective proportionnelle à la dérivée de l’accélération. La dynamique des particules chargées conduit ainsi à un système d’équations différentielles du troisième ordre. L’analyse mathématique montre que certaines de ses solutions présentent des pathologies, elles impliquent notamment des violations de causalité sur des échelles de temps d’ordre R/c où R est le « rayon classique de l’électron » et c la vitesse de la lumière. Ces questions furent beaucoup discutées dans la première moitié du XXème siècle, notamment par Lorentz et Dirac, mais aucune de ces tentatives ne put réellement aboutir. Il ne semble pas exister de théorie classique cohérente capable de décrire des particules chargées en interaction avec leur propre champ. Dans le même ordre d’idées, il faudrait aussi évoquer les travaux de Lorentz et Poincaré sur l’électrodynamique des systèmes étendus. Leur objectif principal était de retrouver la relation énergie-impulsion en partant d’une théorie dynamique de l'électron considéré comme un objet étendu en interaction avec son propre champ. Avec l’avènement de la relativité restreinte, on s’est rapidement convaincu qu'une telle relation a en fait un contenu purement cinématique et qu'il est par conséquent illusoire de vouloir la dériver d'une théorie dynamique. Observons cependant que, plus d’un siècle après, on ne dispose toujours pas d’explication satisfaisante de l’origine des masses. L'avènement de la relativité générale marque une étape importante dans la construction des théories classiques de champs. C’est d’une certaine façon un couronnement de la théorie classique des champs et du principe de localité sur lequel elle est fondée. Ce principe de localité, auquel Einstein était profondément attaché, n’était en effet que partiellement mis en œuvre en électrodynamique puisque dans cette théorie seuls les champs sont locaux. Il subsiste une structure rigide d’espace-temps où les champs se propagent et sur laquelle est définie la notion de causalité. La relativité générale se présente comme une théorie non-linéaire dans laquelle l’espace-temps lui-même est une variété différentiable munie d’une métrique qui est le champ de gravitation. Ce dernier est couplé à la matière à travers le tenseur d’énergie-impulsion. Notons que le problème de la localisation de l’énergie et de la séparation de l’énergie totale en ses différentes composantes, celle d’origine gravitationnelle et celle associée à la matière, devient tout à fait non trivial et continue à faire l’objet de travaux de recherche actuels (Witten, 1981). Il y a eu par la suite plusieurs tentatives désespérées pour résoudre la dichotomie champ-particules au sein de la théorie classique des champs (Mie, Einstein). Au cours des dernières décennies, ce sujet a connu un renouveau d’intérêt suscité par la découverte de solutions exactes des équations de Yang-Mills couplées à des champs de matière et au champ de gravitation. Dans ces théories non-linéaires, on peut 6 A. COMTET exhiber des solutions classiques des équations de champ interprétables en termes de particules. Elles ont une énergie finie, sont localisées spatialement, et leur stabilité est souvent assurée par des considérations topologiques. Certaines de ces solutions portent une charge magnétique et électrique ou bien un flux magnétique. Pour autant, dans la mesure où il n’y a pas eu pour l’instant de confirmation expérimentale, ces objets restent d’une certaine façon des curiosités des théories classiques des champs. 2.2. De la mécanique quantique relativiste à la théorie quantique des champs La mécanique quantique fait intervenir un cadre conceptuel radicalement nouveau dans lequel il va falloir reformuler différemment les concepts de localité et causalité. Les variables dynamiques, telles que la position et l’impulsion, deviennent des opérateurs agissant sur un espace de Hilbert H et l’état physique d’un système est un vecteur de H. La structure d’espace vectoriel permet donc de fabriquer des superpositions linéaires d’états. Cette propriété, qui n’a pas d’équivalent classique, joue un rôle capital dans l’analyse des symétries développée par Wigner. Avant de discuter ce point, commençons par rappeler un des problèmes conceptuels majeurs auquel est confrontée toute théorie intégrant la mécanique quantique et la relativité. Comment peut-on généraliser sous une forme adéquate les concepts classiques de causalité et de localité ? Discutons la notion de localisation relativiste. Les relations d'incertitude, conséquence du caractère opératoriel des variables dynamiques, impliquent que, pour localiser une particule sur une échelle de distance très petite, il faut mettre en jeu des impulsions et par conséquent des énergies très grandes. Lorsque les énergies correspondantes sont de l'ordre de l’énergie de masse, il y aura création de particules ce qui rend ainsi inopérant le processus de localisation. Le paradoxe de Klein, découvert par Oskar Klein en 1928, l’illustre de façon particulièrement convaincante (Itzykson et Zuber, 1985). Considérons une particule en présence d’une barrière de potentiel semi infinie située dans la région x > 0, et de hauteur inférieure à l’énergie de masse. Si l’énergie cinétique de la particule est inférieure à la hauteur de la barrière, la particule sera essentiellement localisée dans la région x < 0. Cette localisation n’est que partielle, il subsiste en effet dans la région classiquement interdite x > 0 une onde évanescente qui pénètre sur une faible épaisseur. On s’attend à pouvoir réduire cette pénétration et par conséquent à pouvoir mieux localiser la particule en augmentant la hauteur de la barrière. En réalité, dès que V ≥ 2mc2, il apparaît un courant stationnaire de particules dans la région interdite. Ce résultat s'interprète comme la création spontanée de paires particulesantiparticules. Les antiparticules apparaissent ainsi de façon inéluctable dans le processus même de localisation. Il faut donc abandonner le principe de localité si l’on veut continuer à décrire des états à une seule particule, en présence de champs forts ou bien variant trop rapidement à l’échelle de la longueur d’onde Compton. Une analyse théorique approfondie du concept de localisation et de Champs et particules : deux figures du continu et du discret dans les théories physiques 7 l'opérateur de position en mécanique quantique relativiste, développée par Wigner (Newton et Wigner, 1949), part des postulats suivants : 1) L’ensemble des états localisés en un point forme un sous-espace de H qui est invariant par rotation, parité, et sous le renversement du sens du temps. 2) Sous une translation arbitraire de vecteur quelconque, on obtient de nouveaux états localisés au point transformé qui sont orthogonaux aux précédents. Pour des systèmes libres, ces postulats définissent de façon unique les états et les opérateurs de position. Malheureusement les fonctions d’onde correspondantes sont étendues spatialement et ne se transforment pas de façon covariante. Dans le cas de plusieurs particules en interaction, on doit faire face à d’autres difficultés qui sont déjà présentes en mécanique relativiste classique. Rappelons que pour construire une mécanique classique hamiltonienne de systèmes de particules interagissant à distance les considérations de symétrie imposent des contraintes qui se traduisent par l’invariance sous les transformations d’un certain groupe G. La construction s’effectue en deux étapes : Première étape : il s’agit de construire en terme des variables canoniques de la théorie une réalisation du groupe G ou bien de l'algèbre de Lie de ses générateurs. Deuxième étape : la covariance manifeste de la théorie exige que les observables de position se transforment comme des événements d’espacetemps. Dans le cas où G est le groupe de Galilée, cette construction ne pose pas de problème. Les variables canoniques elles-mêmes peuvent en effet jouer le rôle d'opérateur de position. En revanche, dans le cas du groupe de Poincaré un tel choix n’est cohérent qu’en l’absence d’interactions. Les variables de position ne peuvent donc s'identifier aux variables canoniques que dans les théories libres (théorème de Curie-Jordan-Sudarshan). Ce résultat, qui s’étend à la mécanique quantique relativiste, montre qu’il faut renoncer au principe de localité sur lequel est fondée la théorie classique des champs. En élargissant le cadre conceptuel, et en introduisant la notion de champ quantique, la localité et la causalité au sens des événements d’espace-temps seront abandonnées au profit d’une forme plus faible de localité et de microcausalité. Analyse cinématique des états à une particule Elle repose sur les travaux de Wigner sur l’implémentation des symétries en mécanique quantique. En utilisant le principe de superposition et les postulats fondamentaux de la théorie, Wigner montre que l’espace de Hilbert H est un espace de représentation du groupe de symétrie. 1) Une symétrie est une transformation qui opère sur les rayons de H et qui laisse les probabilités de transition invariantes. 2) À toute loi de symétrie S correspond un opérateur unitaire de symétrie U(S) qui est soit linéaire soit antilinéaire. Ces opérateurs forment une 8 A. COMTET représentation projective (c’est-à-dire à une phase près) du groupe de symétrie U(S) U(T) = ω (S, T) U(ST). 3) On peut considérer n’importe quel état comme une superposition d’états élémentaires se transformant selon une représentation irréductible du groupe de symétrie. Tout le problème est donc de construire ces représentations. Dans le cas du groupe des rotations, les représentations projectives de SO(3) sont des représentations vraies de son groupe de revêtement SU(2). Elles sont classées par des spins entiers ou demi-entiers. Dans le cas du groupe de Poincaré, dont le groupe de revêtement est SL(2,C) inhomogène, les représentations irréductibles sont classées par deux nombres quantiques, le spin et la masse. D'un point de vue purement cinématique, on peut donc dire qu'une particule élémentaire n'est autre qu'une représentation irréductible du groupe de Poincaré. La notion naïve d’élémentarité, au sens d’objet ponctuel et sans structure, est donc abandonnée au profit de celle d’irréductibilité, au sens de la théorie des représentations. Aspects dynamiques Pour construire une théorie relativiste de particules en interaction, il faut d’abord définir la notion d'état asymptotique à plusieurs particules (produit tensoriel de représentations irréductibles) et ensuite construire une théorie de la diffusion, caractérisée par une matrice S, qui soit invariante sous le groupe de Poincaré. On assure l'invariance de la matrice S en imposant la microcausalité au niveau des densités hamiltoniennes [H(x), H(y)] = 0 si (x - y)2 ≤ 0 À cette contrainte de causalité, on adjoint la condition de décomposition en amas qui stipule que la matrice S doit se factoriser pour des événements suffisamment séparés. Ceci implique que la densité hamiltonienne H(x) est une fonctionnelle de champs locaux. C'est à ce stade que s'introduit naturellement la notion de champ quantique (Weinberg, 1997). Le cadre théorique est celui d’une théorie locale d’opérateurs que nous pouvons esquisser dans le cas des champs libres. Les relations de commutation à temps égaux du champ et de son moment conjugué ⎣Φ(x, t), Π(y, t)⎦ = i δ(x - y) permettent d’assurer les relations de microcausalité ⎣Φ(x), Φ(y)⎦ = 0 si (x - y)2 ≤ 0. Cette relation, qui exprime que l’on peut mesurer simultanément le champ en deux points séparés par un intervalle de genre espace, est bien en accord avec la formulation de la causalité dans une théorie relativiste. Pour les fermions, la positivité de l'énergie impose de travailler avec des relations d'anticommutation. On assure ainsi la microcausalité non pas au niveau des champs eux-mêmes mais au niveau des observables bilinéaires dans les champs. Pour conclure cette partie, essayons de dégager quelques résultats importants de cette construction. Elle fournit avant tout une description unifiée de la notion de champ et de particule. C’est une description non dualiste car les particules (et les antiparticules) n’apparaissent que comme des excitations Champs et particules : deux figures du continu et du discret dans les théories physiques 9 élémentaires associées aux champs. Les champs, qui n’étaient au départ que des artifices mathématiques, deviennent les entités fondamentales ce qui est, en un certain sens, une réhabilitation du programme de Leibniz et une remise en cause du paradigme newtonien. Un autre résultat important de cette construction est de fournir une explication à l’origine de la relation spinstatistique qui joue un rôle fondamental dans l’étude des propriétés de basse température de certains liquides quantiques tels que l’hélium 3 et l’hélium 4. 3. RENORMALISATION, DÉCOUPLAGE DES ÉCHELLES ET LIMITE CONTINUE La première théorie quantique des champs qui a vu le jour a été l'électrodynamique quantique. Cependant, dès le départ surgissent des difficultés de principe. Le calcul d’un processus quelconque, par exemple l’interaction d’une particule chargée avec un champ extérieur, met en jeu des processus virtuels qui apportent des contributions infinies à l’énergie. Ces fluctuations quantiques sont l’analogue des fluctuations hydrodynamiques que l’on rencontre lorsqu’on déplace un objet solide dans un liquide. Mais, contrairement aux fluctuations hydrodynamiques qui apparaissent sur des échelles de longueur qui sont de l’ordre de la taille de l’objet, ces fluctuations quantiques apparaissent à toutes les échelles. C’est là une conséquence directe de la localité (et de l’unitarité) de la théorie. Puisqu'il n'y a pas d'échelle de longueur minimale, toutes les échelles de longueur interviennent dans le calcul d'un processus, y compris les très petites échelles, c’est-à-dire les très grandes énergies. Rappelons que l’idée de renormalisation est, au départ, une approche empirique consistant à isoler les infinis qui surgissent dans le calcul des processus en utilisant non pas les paramètres initiaux de la théorie mais les paramètres physiques (charge et masse de l'électron). Dans le cas de l’électrodynamique, cette approche permet par exemple de calculer de façon extrêmement précise le moment magnétique anormal de l'électron et du muon à l’ordre α 4 dans la constante de structure fine. Pour l’électron, la prédiction théorique (g-2)/2 = 0.0011596521535(240) est en excellent accord avec les résultats expérimentaux (g-2)/2 = 0.0011596521884(43). On dispose donc d’une procédure empirique qui fonctionne bien, pour des théories dites renormalisables, mais qui reste en grande partie énigmatique. La question posée est celle du découplage des échelles de longueur. En physique classique, ce découplage est un fait d'expérience. On sait, par exemple, que pour décrire le comportement d'un fluide à l'échelle macroscopique, il n’est pas nécessaire de connaître la dynamique moléculaire. Deux paramètres physiques suffisent à le caractériser : sa densité et sa viscosité. Bien entendu ces deux paramètres peuvent être calculés à partir d'une théorie microscopique, mais on peut aussi les tirer de l'expérience. De même, pour déterminer les niveaux d’énergie d’un atome, il n'est nul besoin de connaître la structure du noyau. Il suffit de connaître sa masse et sa charge. De façon générale, on s’attend à ce que la physique à grande échelle se découple de la physique à petite échelle. Bien entendu cette procédure de découplage est loin d'être triviale puisque c’est ⊇ 10 A. COMTET l’objet même de la physique statistique, théorie achevée dans le cas des systèmes à l'équilibre mais encore balbutiante dans le cas des systèmes hors d'équilibre. Comment doit-on comprendre l’idée de découplage en théorie quantique des champs et comment peut-elle nous éclairer sur l’origine des divergences ? Ces dernières traduisent-elles une réalité physique ou bien sontelles le fait d’un formalisme inadéquat ? Dans les années 1970-1980, Wilson et Kadanoff ont eu l’idée de faire le lien avec un autre domaine de la physique classique où un comportement analogue apparaît : il s’agit de la physique des transitions de phase du second ordre (Wilson, 1975). Considérons par exemple un ferromagnétique à une température supérieure à la température critique Tc. L’expérience, ou la simulation numérique, montre qu’il apparaît des amas de spins alignés dont la taille est de l'ordre de la longueur de corrélation. Quand on se rapproche de la température critique, leur taille augmente et pour T = Tc on trouve des amas de toutes tailles. Il n'y a donc plus d’échelle de longueur dans le problème. La physique des phénomènes critiques semble donc conduire à une situation analogue à celle rencontrée en théorie des champs. Il y a là beaucoup plus qu’une simple analogie puisque l’analyse théorique des phénomènes critiques montre, qu’au voisinage de la température critique, le système peut être décrit en termes d’une infinité de variables dynamiques couplées. Il est alors légitime de remplacer les spins discrets par un champ continu obtenu en faisant une moyenne sur les spins. Bien que le hamiltonien effectif fasse en principe intervenir un nombre infini de constantes de couplage, au voisinage de la température critique seuls un nombre fini de termes contribuent. Ces termes sont précisément ceux qui sont autorisés par le comptage de puissance dans les théories renormalisables. L’analyse des phénomènes critiques conduit à une meilleure compréhension de la notion de limite continue. Dans les théories comme la mécanique des fluides, une fluctuation typique du système se développe sur une distance macroscopique bien définie. À partir des quantités microscopiques, positions et vitesses des molécules, on peut par conséquent définir des moyennes hydrodynamiques et exprimer la vitesse ou la densité moyenne du fluide. La théorie continue n’est qu’une description effective d’entités discrètes. Dans les phénomènes critiques, la notion de limite continue est plus difficile à appréhender car les fluctuations apparaissent à toutes les échelles. L’approche du groupe de renormalisation permet de traiter ces situations et apporte ainsi un éclairage nouveau sur la nature profonde des théories des champs et sur la notion de renormalisabilité (Cao et Schweber, 1993). Pendant très longtemps, cette notion fut considérée comme une propriété fondamentale que devaient satisfaire les théories de champ. C'est d'ailleurs sur cette base que les théories de jauge furent étudiées et utilisées pour unifier les interactions électromagnétiques, faibles et fortes. L’étude des phénomènes critiques a conduit a un renversement de point de vue en nous montrant que les théories renormalisables doivent être considérées comme des théories effectives à grande distance (Zinn-Justin, 2001). Par conséquent rien n’exclut que les interactions dites fondamentales, car décrites par une théorie renormalisable, Champs et particules : deux figures du continu et du discret dans les théories physiques 11 puissent être décrites à plus petite échelle, par exemple à l'échelle de Planck, par une théorie de nature inconnue. Dans ce scénario, cette dernière serait par construction inaccessible puisque seuls les degrés de liberté pertinents peuvent subsister à grande échelle. Le système engendre un mécanisme de « protection » qui nous empêche de déterminer les lois microscopiques sousjacentes. Au paragraphe suivant nous allons approfondir cette idée en discutant du conflit entre les notions d’émergence et d’élémentarité. 4. COMPORTEMENTS COLLECTIFS ET PROPRIÉTÉS ÉMERGENTES La notion d’émergence renvoie à l’idée qu’il existe différents niveaux de réalité et que chacun d’entre eux est caractérisé par certaines propriétés fondamentales et irréductibles. On entend généralement par là qu’elles ne peuvent pas être prédites à partir de celles des niveaux inférieurs. Cette idée a donné lieu à de vifs débats dans le domaine des sciences du vivant (controverse vitaliste réductionniste) et plus récemment dans le domaine des sciences cognitives et des sciences sociales. Pourquoi ce concept plutôt flou a-t-il fait irruption dans le champ de la physique et que recouvre t-il exactement ? Les idées d’émergence viennent principalement de la physique statistique. Ce domaine regorge en effet d’exemples où apparaissent des formes ou des comportements que la dynamique microscopique ne laisse pas entrevoir. La physique statistique à l’équilibre traite de systèmes composés de particules (agents) en interaction qui peuvent dans la limite thermodynamique donner lieu à des comportements collectifs (par exemple des transitions de phase). Dans le domaine de la physique statistique des systèmes hors d’équilibre, des mécanismes de sélection de forme peuvent donner naissance à des formes surprenantes rappelant parfois certains objets naturels : formation de veinules ou de rouleaux. Un sujet particulièrement riche est celui de la physique des milieux granulaires, tas de sable, billes et poudres. On y observe une variété de comportements collectifs (avalanches, formation de dunes) qui ont beaucoup été étudiés ces dernières années (C. Michaut, 2007). Ces derniers exemples pourraient laisser croire que l’idée d’émergence soit restreinte aux systèmes classiques macroscopiques. En effet, les mécanismes qui entrent en jeu (stochasticité, diffusion) ne semblent pas transposables à des systèmes quantiques gouvernés par une dynamique hamiltonienne et, surtout, on voit difficilement comment les appliquer à des systèmes élémentaires. Pour nous convaincre qu’il n’en est rien nous allons présenter deux exemples tirés de la physique de la matière condensée. Émergence de l'équation de Dirac. Dans les ouvrages traditionnels de mécanique quantique, l’équation de Dirac est introduite à partir des représentations spinorielles du groupe de Lorentz homogène. Dans ce point de vue axiomatique, on voit difficilement comment l’équation de Dirac pourrait jouer un rôle dans un contexte non relativiste, tel que l’étude des propriétés de basse énergie en physique du solide. Il y a certes des électrons qui sont des 12 A. COMTET particules de spin 1/2, mais ils ne sont pas relativistes, et par ailleurs le groupe de symétrie d’espace est un groupe discret puisque les électrons se déplacent dans un réseau cristallin. Si on se limite à l’étude du problème à une particule, on se convainc facilement que la physique du problème est de nature nonrelativiste. Mais on doit en réalité traiter un problème à N corps de particules obéissant à la statistique de Fermi. Pour construire un état quantique à N corps, il faut remplir successivement tous les états individuels à une particule jusqu’à une énergie maximale appelée énergie de Fermi. À température nulle c’est l’énergie du plus haut niveau occupé. À basse température, la physique du problème sera donc contrôlée par les excitations élémentaires au voisinage du niveau de Fermi. Dans le cas d’une chaîne linéaire d’atomes, ces excitations obéissent à la relation de dispersion relativiste E = ±VP. On obtient ainsi une relation de dispersion relativiste avec deux types d’excitations, et par conséquent une théorie de fermions relativistes à deux composantes. En présence de distorsion du réseau, ces fermions interagissent avec le champ de déplacement du réseau et peuvent donner lieu à des effets remarquables tels que l’apparition de charges fractionnaires dans des conducteurs organiques unidimensionnels. Un autre exemple apparu récemment est celui du graphène, composé bidimensionnel constitué d’une couche monoatomique d’atomes de carbone. Ce nouveau conducteur quantique, dont les propriétés électroniques sont régies par l’équation de Dirac, possède des propriétés fascinantes dont certaines sont maintenant observables à l’échelle submicronique (Geim et al, 2007). L’effet Hall quantique constitue une manifestation macroscopique de phénomènes quantiques. La physique est celle d’un gaz d’électrons à deux dimensions plongés dans un champ magnétique constant. La conductance du système, appelée conductance Hall, est quantifiée selon la formule σ = ν e2/h où ν est un entier dans le cas de l’effet Hall entier (Von Klitzing, 1980) et une fraction rationnelle dans le cas de l’effet Hall fractionnaire (Tsui et al, 1982). On montre que les excitations élémentaires ne sont pas les électrons mais des entités portant une charge fractionnaire et obéissant à une statistique intermédiaire. Le fait que la quantification de la conductance soit exacte et ne dépende pas des détails microscopiques, type d’impuretés, nature du semiconducteur, est un phénomène tout à fait remarquable qui a beaucoup intrigué les expérimentateurs ayant réalisé les premières mesures. En effet lorsqu’on fabrique des semi-conducteurs, il y a toujours des imperfections, défauts du réseau cristallin, présence d’oxydes à la surface, irrégularités des bords. Tous ces effets influencent les mesures de courant dans les expériences à champ nul, mais dans le cas de l’effet Hall on a une quantification exacte. On montre que la présence des impuretés est en fait nécessaire pour pouvoir observer ce phénomène. En effet, les plateaux Hall ne peuvent apparaître que s’il y a coexistence d’états électroniques étendus et localisés. La propriété d’universalité de la quantification de la conductance Hall est utilisée en métrologie pour fournir un étalon de résistance. La relation précédente est Champs et particules : deux figures du continu et du discret dans les théories physiques 13 également utilisée pour déterminer la constante de structure fine à partir de la vitesse de la lumière. On obtient une précision comparable à celle fournie par la mesure du moment magnétique anormal de l’électron ! Laughlin et Pines considèrent que l’effet Hall est un phénomène émergent dans le sens où il s’agit d’un phénomène collectif insensible aux détails microscopiques car il existe un mécanisme de protection qui est ici la localisation des états électroniques (Laughlin et Pines, 2000). 5. Y A-T-IL UNE PHYSIQUE DE L’ÉLÉMENTAIRE ? Cette physique de l’émergence nous conduit à nous réinterroger sur ce qu’est réellement l’élémentaire. La quête de l’élémentaire, fondée sur l’observation que l’univers a une structure hiérarchique allant de l’infiniment petit à l’infiniment grand, part de l’hypothèse que pour comprendre cette hiérarchie il faut pouvoir accéder aux constituants ultimes en sondant l’infiniment petit. La physique de la matière condensée nous montre que cette vision réductionniste est probablement trop naïve. Il existe des excitations collectives de systèmes à N corps qui semblent avoir tous les attributs d’une particule (masse, charge, spin) mais dont les propriétés sont très différentes de celles de ses constituants (molécules, atomes, électrons). Considérons par exemple un gaz composé de molécules ou d’atomes. À haute énergie (haute température) ses propriétés sont, pour l’essentiel, régies par les interactions entre les atomes. En général l’interaction est compliquée et dépend des détails microscopiques. Quand on abaisse la température, un état cristallin ou un état superfluide peut se former. Bien que ces deux situations soient fort différentes, dans les deux cas, les excitations élémentaires sont des phonons : objets quantiques associés au mouvement collectif des atomes. En ce sens les phonons sont des objets émergents avec des propriétés universelles : relation de dispersion indépendante des détails du système, propriétés thermodynamiques universelles à basse température, faible interaction phononphonon. Par conséquent, non seulement les particules mais aussi leurs interactions sont émergentes. Un observateur plongé dans un superfluide ne verrait autour de l’état fondamental que ces excitations et n’apprendrait rien sur leur origine en faisant des collisions phonon-phonon car ces excitations sont de nature émergente. « Neither of these things can be deduced from microscopics and both are transcendent in that they would continue to be true and lead to exact results even if the theory of everything were changed. Thus the existence of these effects is profoundly important for it shows us that for at least some fundamental things in nature the theory of everything is irrelevant » (Laughlin et Pines, 2000). Cette thèse émergentiste de Laughlin (Bitbol, 2007) à laquelle de nombreux physiciens se sont ralliés signifie-t-elle que la nature puisse s’organiser sans fondement originel ni entités élémentaires ? Pour tenter d’y répondre, partons de l’analogie formelle entre phonons et photons. Le photon, considéré comme objet élémentaire de l’électrodynamique quantique, est-il ontologiquement 14 A. COMTET différent du phonon, excitation associée au mouvement collectif des atomes dans un cristal ? Plus généralement, est-il possible de distinguer une excitation collective d’un objet élémentaire ? Pour clarifier ce point il nous faut revenir à la notion de symétrie, notamment à celle de symétrie brisée. 6. LES BRISURES ET LEURS SYMÉTRIES La notion de symétrie a joué un rôle important tout au long de l’histoire de la physique. Elle a été introduite pour la première fois par Galilée dans son ouvrage célèbre intitulé Dialogue sur les deux grands systèmes du monde (Florence, 1632). Il prend comme exemple le mouvement d’un objet à l’intérieur d’un bateau et montre que le mouvement de cet objet ne dépend pas du fait que le bateau est immobile ou bien en mouvement rectiligne uniforme. Dans un langage moderne, il montre l’invariance des lois de la mécanique sous les transformations spéciales de Galilée. Pendant très longtemps les symétries furent analysées dans ce point de vue galiléen : les symétries sont des conséquences des équations du mouvement. Ainsi l’invariance des équations de Maxwell sous le groupe de Lorentz était considérée par Lorentz et Poincaré comme une propriété particulière de ces équations. Avec Einstein, on assiste à un renversement radical de point de vue. Les symétries d'espace-temps sont érigées en principes généraux auxquels doivent obéir les lois physiques. Dans ce point de vue, les lois de transformation du champ électromagnétique ne sont pas des conséquences des équations de Maxwell mais des propriétés purement cinématiques qui contraignent les lois physiques. Avec l’avènement de la relativité générale, cette idée acquiert encore plus de force puisque l'invariance sous les difféomorphismes d'espace-temps permet de rendre compte du couplage au champ gravitationnel. La relativité générale est donc la première théorie construite sur le concept de symétrie locale. C’est en s’appuyant sur cette démarche qu’ont été construites, quelques décennies plus tard, les théories de jauge non-abéliennes. Brisure de symétries continues Hormis les symétries d’espace-temps qui sont censées être exactes, on sait que la plupart des autres symétries ne sont qu’approchées. Pendant très longtemps on partait de l’hypothèse que le hamiltonien contenait une partie symétrique et une partie brisant la symétrie. On considérait donc que ces symétries étaient brisées explicitement au niveau dynamique. La découverte du mécanisme de brisure spontanée de symétrie s’accompagne d’un changement complet de paradigme. On sait désormais décrire des situations dans lesquelles la symétrie est brisée non pas au niveau du hamiltonien mais au niveau des états physiques. En d’autres termes, la dynamique reste symétrique, mais les solutions des équations du mouvement ne le sont pas. Montrons comment ce schéma s’inscrit dans l’analyse des symétries que nous avons esquissée plus haut. Pour des systèmes à nombre fini de degré de liberté, les symétries sont réalisées au niveau des états selon le mode de Wigner. Ceci signifie que les Champs et particules : deux figures du continu et du discret dans les théories physiques 15 états physiques sous-tendent des représentations finies de G. En particulier l’état fondamental ⏐ω〉 est invariant sous G : U(g)⏐ω〉 = ⏐ω〉. Pour des systèmes à nombre infini de degrés de liberté, U(g) n’existe pas nécessairement comme opérateur sur H. Dans ce cas la symétrie est dite spontanément brisée, ce qui implique que l’état fondamental n’est plus invariant sous G. Dans le cas où le groupe G est continu, on montre qu’il apparaît dans le spectre des excitations de masse nulle. En physique des particules, ce sont des particules de Goldstone. En physique de la matière condensée, ces excitations de masse nulle apparaissent sous forme d’ondes de spins dans le cas du ferromagnétisme, ou bien de phonons dans les superfluides. Ce sont à l’évidence des entités émergentes. Par conséquent le photon et le phonon bien que possédant les mêmes propriétés cinématiques – ce sont toutes deux des particules de masse nulle et de spin 1 – semblent être des entités de nature différentes. Ce point de vue auquel la plupart des physiciens des particules se rallieront volontiers n’est cependant qu’un acte de foi. Pour l’instant, les particules de jauge, photon et bosons intermédiaires, sont considérées comme des particules fondamentales mais il n’est pas exclu qu’elles puissent être engendrées dynamiquement par un mécanisme de « condensation » (Wen, 2004). Les développements récents de la physique de la matière condensée ont montré que de tels mécanismes existent et fournissent une alternative aux schémas standards de classification fondés sur les symétries locales. Le concept d’ordre topologique, apparu dans le contexte de l’effet Hall quantique en est un exemple. 7. CONCLUSION Nous avons analysé dans une perspective diachronique la notion de champ en tant que figure du continu et montré comment elle est parvenue à supplanter celle de particule conçue comme figure du discret. L’élaboration de la notion de champ et du cadre théorique qui l’accompagne n’a pu se faire qu’à travers des changements radicaux de signification des concepts de localité et causalité. À cette affirmation du primat du continu dans les théories physiques il convient cependant d’apporter de nombreuses réserves. Le groupe de renormalisation et l’étude des phénomènes critiques montrent que le continu physique a surtout un statut épistémologique, c’est une notion provisoire, une description commode pour analyser des phénomènes à une certaine échelle. Tout au long de cet essai nous avons développé l’idée que la notion de continu est inséparable de celle d’élémentaire, lequel doit être défini dans le langage des symétries. Le cadre mathématique traditionnel pour les analyser, la théorie des représentations, est loin d’épuiser le sujet comme le prouve le phénomène de brisure spontanée de symétrie qui est un exemple de phénomène émergent en physique fondamentale. D’autres exemples récents issus de la physique de la matière condensée contribuent à alimenter la réflexion sur l’élémentaire et permettent ainsi de renouveler le débat autour du réductionnisme. REMERCIEMENTS 16 A. COMTET Je remercie Thierry Jolicoeur, Satya Majumdar, Francis Maisonneuve, Bernard Teissier et Christophe Texier pour de très enrichissantes discussions. BIBLIOGRAPHIE Bitbol, M. (2007), La nature est-elle un puits sans fond ? La Recherche, n° 405, 31. Cao, T.Y. & Schweber, S. (1993), The Conceptual Foundations and the Philosophical Aspects of Renormalization Theory. Synthese, 97, 33-108. Dahan-Dalmedico, A. (1992), De l’ontologie du discret à la capture relative du continu. In J.M. Salanskis et H.Sinaceur (Eds), Le Labyrinthe du continu. Berlin: Springer. Geim, A.K. & Novoselov, K.S. (2007), The Rise of Graphene. Nature Materials, 6, 193. Itzykson, C. & Zuber, J.B. (1985), Quantum Field Theory. New York : McGrawHill . Laughlin, R.B. (2005), Un univers différent. Paris : Fayard. Laughlin, R.B. & Pines, D. (2000), Proceedings of the National Academy of Sciences, vol 97, p 28. Michaut, C. (2007), La Recherche, n° 405, 41. Newton, T.D. & Wigner, E.P. (1949), Reviews of Modern Physics, vol 29, 21. Stormer, H.L. (1999), Reviews of Modern Physics, vol 71, 875. Thom, R. (1989), Thèmes de Holton et apories fondatrices. In J. Petitot (Ed)., Logos et théorie des catastrophes (p. 285). Genève: Editions Patino. Von Klitzing, K. (1986), The Quantized Hall Effect. Reviews of Modern Physics, vol 58, 519. Weinberg, S. (1997), What is Quantum Field Theory and what did we Think it is ? hepth/9702027 Wen, X.G. (2004), Quantum Field Theory of Many-body Systems, from the Origin of Sound to an Origin of Light and Electrons. Oxford: Oxford University Press. Zinn-Justin, J. (2001), Renormalisation et groupe de renormalisation, les infinis en physique microscopique contemporaine. In Crozon et Sacquin (Eds), L’élémentaire et le complexe, rencontre physique et interrogations fondamentales. Les Ullis : Edp Sciences.