LA PHYSIQUE DES PARTICULES A LA CROISEE DES CHEMINS Une introduction aux enjeux théoriques du LHC Etienne KLEIN DSM/LARSIM --------------Mai 2008 ---------------- 1 Abstract La physique des particules est une discipline vieille d’à peine un siècle qui nous transporte, tels des touristes déroutés et hagards, en des mondes étranges où notre intuition perd ses marques. Elle constitue aujourd’hui une activité à la fois ambitieuse et discrète, imposante et mal connue : alors qu’elle a produit des résultats fascinants et mobilise des moyens dont la taille suffit à impressionner, elle fait rarement parler d’elle. Elle constitue pourtant une discipline frontière : dans son expression théorique, elle fait appel à des concepts mathématiques très élaborés, fort éloignés des mathématiques lycéennes. Dans son versant expérimental, elle se situe toujours à la limite des possibilités technologiques du moment. Le monde de « l’infiniment petit », souvent considéré comme impalpable, exige en effet une physique lourde. C’est même le prix à payer pour espérer le prendre en filature. Le savoir que les physiciens des particules ont accumulé n’est pas d’accès facile, et il est de ce fait délicat à transmettre et à enseigner: foisonnant et parfois aride, il garnit les rayons des bibliothèques des laboratoires, caché derrière des barricades de reliures. Comment en délivrer les messages les plus importants aux non-physiciens ? Au LARSIM, avec l’aide de physiciens nucléaires et de physiciens des particules du CEA, théoriciens aussi bien qu’expérimentateurs, nous avons saisi l’occasion du démarrage prochain, au CERN, du LHC (à la fin de 2008) pour nous poser cette question. L’enjeu est de taille, puisque l’on sait d’ores et déjà que grâce à ce nouveau collisionneur de particules, plus puissant que tous les autres construits auparavant, des découvertes seront immanquablement faites. Mais à quelles questions ces découvertes viendront-elles apporter des éléments de réponse ? En d’autres termes, quels sont les enjeux théoriques des gigantesques expériences qui se préparent ? Telles sont les interrogations que nous avons voulu expliciter dans ce document, en gardant à l’esprit cette leçon laissée par James Clerk Maxwell, le père des équations de l’électromagnétisme, il y a plus d’un siècle et demi : « Tout développement de la science physique, écrivait-il, est susceptible de produire une modification des méthodes et des concepts généraux de la pensée, en d’autres termes de féconder la culture, mais à la condition impérieuse que ces nouvelles idées soient rendues aussi intelligibles que possible. »1 1 Cité par Jacques Bouveresse dans Prodiges et vertiges de l’analogie, Editions Raisons d’agir, 1999, p.55. 2 SOMMAIRE INTRODUCTION (p. 5) DE L’INTERET D’ACCELERER DES PARTICULES (p. 9) E= mc2, là où tout commence Comment « voir » une particule ? LES FORCES EN PRESENCE (p. 14) Quelles sont les interactions « fondamentales » de l’univers ? - la gravitation l’électromagnétisme l’interaction nucléaire faible l’interaction nucléaire forte Pourra-t-on « unifier » les forces fondamentales ? LES PARTICULES MISES EN JEU (p. 23) Qu’appelle-t-on une particule de « haute » énergie ? Lors d’une collision, les particules se brisent-elles en plusieurs morceaux ? Qu’est-ce qu’un lepton ? Qu’est-ce que l’antimatière ? Qu’est-ce qu’un quark ? Et un gluon ? Sur quels principes les détecteurs du LHC fonctionnent-ils ? LES PARTICULES ET L’UNIVERS (p. 37) Par quoi les collisions de particules révèlent-elles les débuts de l’univers ? La question de l’origine de l’univers LES QUESTIONS OUVERTES EN PHYSIQUE DES PARTICULES (p. 43) D’où vient que les particules ont une masse ? Qu’est l’antimatière devenue ? Existe-t-il des « sparticules » ? De quoi est faite la matière noire ? D’où provient l’accélération de l’expansion de l’univers ? 3 La « théorie des supercordes » sera-t-elle confirmée au LHC ? UNE TENTATIVE DE PREVISION DES DECOUVERTES AU LHC (p. 58) Remerciements GLOSSAIRE (p. 61) Bibliographie 4 INTRODUCTION Tout le monde n’a pas le bonheur de parler chinois dans sa propre langue. Jacques Lacan En matière de physique des particules, nous devons nous attendre à des surprises dans les années qui viennent, notamment grâce aux expériences du LHC qui exploreront des conditions physiques encore jamais produites sur Terre. Simple affaire de récurrence : tout au long de son histoire, la physique des particules a régulièrement détruit des préjugés, démonté des certitudes, ouvert des perspectives inédites. De ce fait, elle a pu s’incruster dans certains débats fondamentaux. Il lui est même arrivé de faire des « découvertes philosophiques négatives »2, au sens où elle a parfois modifié les termes en lesquels certaines questions se posent à propos de la matière, de l’espace ou du temps. Ses résultats les plus nets et les plus importants apportent en effet des contraintes, des conditions aux limites, voire des démentis à des conceptions métaphysiques qui prétendent décrire de façon trop précise les lois du monde physique. Mais qu’est-ce précisément que le LHC, le Large Hadron Collider, qui va entrer en service à la fin de l’année 2008 ? Tout simplement la plus grande expérience de physique jamais réalisée. Il s’agit d’un collisionneur de particules de 27 kilomètres de circonférence, érigé par le CERN de part et d’autre de la frontière franco-suisse, qui permettra de réaliser des collisions entre protons de très haute énergie. On devine déjà la prouesse technique que constitue un tel projet : deux faisceaux de dimensions infimes, parcourant en sens inverse et 2 On doit cette expression à deux des pères fondateurs de la physique quantique, Fritz London et Edmond Bauer. 5 11245 fois par seconde un anneau de 27 kilomètres de circonférence à une vitesse quasiment égale à la vitesse de la lumière, se percuteront frontalement, et régulièrement, en des lieux parfaitement déterminés. Répartis tout au long de l’anneau, 1252 aimants dipolaires supraconducteurs de 15 mètres de long, refroidis à l’hélium superfluide, au champ magnétique très élevé, guideront les protons sur leur trajectoire circulaire, tandis que des cavités radiofréquence supraconductrices leur conféreront l’énergie requise. Les collisions de protons à très haute énergie qui se produiront dans la machine recréeront, de façon très localisée et très fugitive, les conditions physiques qui furent celles de l’univers primordial, c’est-à-dire immédiatement après le big bang. Grâce à ces chocs très violents et aux interactions entre particules qu’ils engendreront, les physiciens pourront, entre autres choses, partir à la chasse d’une particule dont ils pensent qu’elle existe sans l’avoir jamais vue : le boson de Higgs, « inventé » dans les années 1960 par trois physiciens théoriciens3 dans le but d’expliquer l’origine de la masse de toutes les particules de l’univers, y compris la sienne propre. La confirmation expérimentale de l’existence de cette particule viendrait parachever un vaste corpus de résultats théoriques et expérimentaux obtenus depuis des décennies dans plusieurs grandes branches de la physique. Mais la quête du « Higgs » n’est pas tout, tant les questions ouvertes restent nombreuses en physique des particules : comment dépasser le cadre théorique actuel, appelé le « modèle standard », de façon à pouvoir y inclure la gravitation ? Où est passée l’antimatière qui était présente dans l’univers primordial ? Quels sont les « objets » constitutifs de la matière noire, qui semble agir gravitationnellement sur les galaxies mais n’émet ni n’absorbe aucune lumière ? Et qu’est-ce qui est à l’origine de l’accélération, récemment découverte, de l’expansion de l’univers ? Afin de tenter de répondre à tout ou partie de ces questions, quatre expériences, toutes de taille impressionnante, seront installées auprès du LHC pour analyser les particules secondaires nées des chocs entre protons : - CMS (Compact Muon Solenoid) est doté d’un calorimètre électromagnétique constitué de plus de 80000 cristaux de tungstate de plomb. Avec ses 12500 tonnes, le détecteur complet est plus massif que la 3 Ces trois physiciens sont deux belges, Robert Brout et François Englert, et un écossais, Peter Higgs. 6 Tour Eiffel. Il devrait détecter, entre autres choses, le boson de Higgs, à condition bien sûr que ce dernier existe. - ATLAS (A Toroidal LHC Apparatus) a lui aussi été conçu pour détecter le boson de Higgs. En son sein, le champ magnétique qui permet de courber les trajectoires des particules est produit par trois solénoïdes et huit longs bobinages supraconducteurs en rectangle. Avec ses 46 mètres de long et ses 25 mètres de diamètre, cette expérience est la plus grande du LHC. - ALICE (A Large Ion Collider Experiment) permettra d’observer en laboratoire l’état dans lequel se trouvait la matière quelques microsecondes après le big bang : un plasma de quarks et de gluons. - LHCb (Large Hadron Collider beauty) permettra de mieux comprendre l’origine du déséquilibre entre matière et antimatière dans l’univers, grâce à la détection de particules appelées les « mésons beaux ». Il existe de nombreuses théories, souvent concurrentes, quant aux résultats des collisions que ces expériences permettront d’analyser. Les paris sont donc ouverts et le suspense s’annonce intenable. Toutes les théories ne pouvant pas avoir raison en même temps, certaines seront falsifiées par les résultats expérimentaux à venir, et les autres seront « encouragées ». Les physiciens s’attendent donc à ce que le démarrage du LHC ouvre une nouvelle ère de la physique en apportant de nouvelles connaissances sur le fonctionnement de l’Univers. Depuis plus de trente ans, les physiciens se sont appuyés sur le modèle standard de la physique des particules pour essayer de rendre compte des lois fondamentales de la nature. Ce modèle a fait montre d’une remarquable robustesse et d’une très grande cohérence, aussi bien dans le domaine théorique que sur le plan expérimental. Mais il n’est pas l’ultime théorie, et donc pas la fin de l’histoire. Les données expérimentales obtenues grâce aux énergies très élevées du LHC permettront d’explorer ses limites, et sans doute de le dépasser en repoussant les frontières du savoir, mettant au pied du mur ceux qui cherchent à confirmer les théories actuelles aussi bien que ceux qui rêvent à de nouveaux paradigmes. Après le LHC le visage de la physique ne sera certainement plus le même. Tout au long du siècle dernier, la connaissance de la structure de la matière a progressé à pas de géant. Toutefois, la matière est loin d’avoir livré ses ultimes secrets. Pour comprendre les questions qui demeurent ouvertes et 7 que le LHC pourrait éclairer, voire trancher, il faut d’abord jeter un regard en arrière et saisir ce qui a déjà été accompli. C’est ce que ce rapport se propose de faire, de la façon la plus claire possible, c’est-à-dire sans équation ni excès de jargon. Un autre rapport, également produit par le LARSIM et intitulé « On the eve of the LHC : conceptual questions in high energy physics », est d’un abord plus difficile : il explore quant à lui, de façon beaucoup plus profonde, les implications théoriques et épistémologiques que pourraient avoir les expériences du LHC. Nous allons commencer par rappeler la signification d’une formule simple de la théorie de la relativité, E = mc2, qui, surtout lorsqu’on l’associe à une autre formule célèbre de la physique quantique, E = hν, résume de façon presque iconique, pour ce qui est de la physique, le siècle qui vient de s’écouler. Cette équation a à voir avec notre sujet, à plus d’un titre : elle permet de comprendre pourquoi une particule massive ne peut pas se déplacer plus vite que la lumière dans le vide ; elle rend compte de la façon dont l’énergie des particules est susceptible de se transformer en d’autres particules ; et enfin, elle permet de saisir l’intérêt que présentent les collisionneurs de particules pour comprendre les lois de l’infiniment petit. 8 DE L’INTERET D’ACCELERER LES PARTICULES C’est très facile : tu n’as qu’à enfoncer la pédale jusqu’au bout. Louis Lachenal, vainqueur de l’Annapurna E = mc2, là où tout commence…. En septembre 1905, un jeune homme de vingt-six ans, Albert Einstein, rédige un article long de seulement trois pages, qui contient l’équation E = mc2, la plus célèbre de toute l’histoire de la physique. Ce papier se présente comme un prolongement de la théorie de la relativité restreinte que le même Einstein vient tout juste de publier. Les calculs qu’on trouve dans cet article démontrent une seule chose : un corps émettant des ondes électromagnétiques perd aussi, nécessairement, de la masse. Mais Einstein attribue à ce résultat une portée universelle. La masse inertielle d’un corps représente, explique-t-il, une mesure de son contenu en énergie. En conséquence, si ce corps perd de l’énergie, sous n’importe quelle forme, il perd aussi de la masse inertielle. D’un point de vue conceptuel, il s’agit d’un résultat révolutionnaire. La masse inertielle, qui jusqu’alors ne mesurait que la quantité de matière contenue dans un corps, mesure donc aussi son contenu en énergie. Tout corps massif, même immobile, au repos, se voit ainsi doté d’une « énergie de masse », c’est-à-dire d’une énergie qu’il doit au seul fait d’avoir une masse. Et cette équivalence entre masse inertielle et énergie, précise Einstein, fait intervenir la vitesse de la lumière c (élevée au carré), qui vient unifier deux concepts jusque-là parfaitement séparés. Mais dans cette mise en correspondance, le statut de la vitesse de la lumière change irrémédiablement : elle intervient désormais dans tous les processus physiques, y compris ceux dans lesquels la lumière ne joue aucun rôle. Grâce à la formule d’Einstein, la vitesse de la lumière devient une véritable constante universelle de la physique. 9 Mais si l’équivalence entre la masse et l’énergie est si constitutive du monde physique, et si l’équation d’Einstein est si universelle, pourquoi ne percevonsnous pas ses effets dans la vie quotidienne ? Tout simplement parce qu’elle est disproportionnée au regard des ordres de grandeur dont nous sommes familiers. Le moindre grain de poussière est bien un prodigieux réservoir d’énergie, mais cette énergie contenue dans sa masse nous est en général cachée. Si la formule d’Einstein a pu devenir le symbole de la physique du vingtième siècle, c’est parce que, depuis 1905, les physiciens sont parvenus à explorer, et parfois à exploiter de façon industrielle, des situations dans lesquelles la formule d’Einstein a des effets tangibles : celles dans lesquelles une fraction notable de la masse peut se convertir en énergie et celles dans lesquelles c’est l’énergie qui devient matière. Songeons aux noyaux d’uranium 235 qu’on trouve dans les réacteurs nucléaires. Lorsqu’ils sont percutés par un neutron, ils s’agitent soudain, se déforment et s’étirent au point de trouver une forme nettement plus stable, celle composée de deux fragments distincts. Autrement dit, ils subissent une fission qui produit deux noyaux plus légers, dont la somme des masses est toujours plus petite que la masse du noyau de départ. Ce défaut de masse, donc cette perte d’énergie de masse, se traduit en vertu de la formule d’Einstein par une libération d’énergie, qui est à l’origine de « l’énergie nucléaire ». Cette énergie, récupérée sous forme de chaleur, peut être transformée en courant électrique. Un raisonnement du même type, mais mettant en jeu la fusion des noyaux légers plutôt que la fission des noyaux lourds, permet de comprendre le processus par lequel les étoiles rayonnent de la lumière. Ainsi, le soleil passe le plus clair de son temps à transformer de la masse en énergie, par le biais de réactions de fusion nucléaire qui produisent fabriquent de l’hélium à partir d’hydrogène. En son cœur, ce ne sont pas moins de 620 millions de tonnes d’hydrogène (atomes constitués d’un seul proton) qui, à chaque seconde, sont transformées en 615 millions de tonnes d’hélium (pour être plus précis, deux noyaux de deutérium, composés d’un proton et d’un neutron, fusionnent pour donner un noyau d’hélium constitué de deux protons et d’un neutron, et un second neutron dont l’énergie cinétique est à l’origine de l’énergie nucléaire). Cette différence de masse est convertie en énergie rayonnée vers l’extérieur. C’est ainsi que le soleil brille. 10 Mais il existe aussi, bien sûr, des situations dans lesquelles c’est l’énergie qui se transforme en masse, et non plus l’inverse. Là encore, deux exemples devraient suffire. Le premier est emprunté à la cinématique, plus exactement au lien qui existe entre vitesse et énergie cinétique (qui est, rappelons-le, l’énergie liée au mouvement des corps). Lorsque nous circulons en voiture ou même voyageons en avion, l’énergie cinétique du véhicule qui nous transporte croît comme le carré de sa vitesse. L’accélérer, c’est donc augmenter à la fois sa vitesse et son énergie cinétique. Mais dans le contexte de la relativité restreinte, qui envisage des déplacements beaucoup plus rapides que ceux à notre portée, une certaine vitesse apparaît comme indépassable pour une particule qu’on tente d’accélérer. Cette vitesse est identifiée à la vitesse de la lumière dans le vide. Ce phénomène provient de ce que, au fur et à mesure que sa vitesse et son énergie augmentent, la particule oppose à toute modification supplémentaire de son mouvement une inertie de plus en plus grande (précisément égale à E/c2). Autrement dit, la particule résiste de plus en plus à l’effort fait pour l’accélérer : plus elle va vite, plus il est difficile de la faire aller encore plus vite. Sa masse demeure rigoureusement constante, mais son inertie (qui ne lui est plus égale comme en physique classique) augmente avec son énergie. Si la vitesse d’une particule en vient à presque atteindre celle de la lumière, comme cela se produit couramment dans les accélérateurs de particules dont nous allons bientôt parler, on peut même lui conférer de l’énergie cinétique sans modifier notablement sa vitesse. En somme, on « l’accélère à vitesse constante ». Le deuxième exemple concerne la dynamique des chocs très violents que peuvent subir les particules, par exemple au sein des collisionneurs qu’utilisent aujourd’hui les physiciens. Presque toute l’énergie cinétique des particules qui entrent en collision est convertie en matière : elle se transforme en de nombreuses autres particules massives, à durées de vie généralement très courtes, qui sont elles-mêmes dotées d’une certaine énergie cinétique. Il se produit là quelque chose qui défie le sens commun : une propriété d’un objet, en l’occurrence l’énergie liée à la vitesse des particules incidentes, est capable de se transformer en d’autres objets, en l’occurrence de nouvelles particules. C’est un peu comme si la hauteur de la tour Eiffel, qui n’est qu’un attribut de cette tour, pouvait se transformer en d’autres monuments, par exemple en l’Arc de Triomphe et en colonnes de Buren… 11 Comment voir une particule ? Pour étudier une particule, il faut, d’une façon ou d’une autre, l’éclairer, c’est-àdire envoyer sur elle un faisceau de particules, pas nécessairement de lumière. Des particules « sondes » doivent donc être violemment projetées sur des particules « cibles ». Mais pourquoi les particules sondes doivent-elles avoir beaucoup d’énergie ? Pour le comprendre, il faut invoquer et mettre ensemble deux lois de la physique. La première est un principe fondamental de la physique quantique qui indique qu’à toute particule est associée une longueur d’onde d’autant plus courte que la particule est plus énergétique. La deuxième stipule qu’un phénomène ondulatoire n’interagit qu’avec des objets de dimension supérieure à sa longueur d’onde. La houle de l’océan n’est pas affectée par la présence d’un baigneur, car la taille de celui-ci est petite par rapport à la distance séparant deux vagues successives. En revanche, elle est perturbée par la présence d’un paquebot. Si la particule que nous choisissons pour cible est petite, les particules devront avoir une longueur d’onde plus petite encore. Il faudra donc leur donner une énergie élevée, d’autant plus élevée que la particule cible est plus petite. C’est essentiellement cette tâche-là qui incombe aux accélérateurs de particules. Ce sont des sortes de microscopes géants, capables de distinguer les constituants infimes de la matière. Comme cela s’est fait de façon exclusive dans un premier temps (jusque dans les années 1960), après l’avoir accéléré, on peut envoyer le faisceau de particules sur des cibles fixes. Lors de l’impact, l’énergie cinétique et la masse des particules incidentes sont redistribuées et des particules nouvelles, fruits de la collision, apparaissent. Plus l’énergie de la collision est élevée, plus ces nouvelles particules peuvent être massives, exhibant la structure ou le comportement normalement caché de la matière. Mais l’utilisation de cibles fixes pose un problème d’énergie perdue. Car lorsqu’une particule en mouvement heurte une particule immobile, la majeure partie de son énergie cinétique est transférée à la cible sous forme d’énergie cinétique (comme lorsqu’un véhicule en mouvement percute un véhicule à l’arrêt, qui se trouve propulsé par le choc). Cette énergie cinétique transférée à la cible ne se convertit pas en matière. Elle est en quelque sorte « gâchée ». 12 Il est beaucoup plus rentable de faire entrer en collision frontale deux faisceaux de particules circulant en sens opposé. Car dans ce cas, toute l’énergie des particules qui entrent en collision est convertible en matière. C’est pourquoi les collisionneurs, accompagnés de leurs détecteurs, sont devenus les principaux instruments de la physique des particules. Le LHC est le plus puissant de tous. 13 LES FORCES EN PRESENCE Si le fruit tombe, si le soleil brille, si notre corps tient, la table aussi, si le filament de l’ampoule éclaire et si le timbre humide adhère, c’est qu’un jeu de forces assure la cohésion des choses et organise leur mouvement. En physique classique, une force entre deux particules se transmet dans l’espace par l’entremise d’un « champ ». Ce concept n’a ici que peu à voir avec l’entité rurale, paisible et vouée à la culture à laquelle l’identifie le langage commun. Il est utilisé à chaque fois qu’une grandeur peut être définie en tous point de l’espace, ou du moins sur une portion de celui-ci. Quand une particule agit sur une autre, on imagine qu’un champ, engendré par la première, se propage dans l’espace puis agit sur l’autre. Mais cette conception classique, qui fait du champ le relais d’une interaction, a dû être revue d’une façon qui tienne compte à la fois de la physique quantique et de la théorie de la relativité restreinte. Car dans ce nouveau cadre, pour qu’il y ait interaction entre deux particules, il faut que « quelque chose » soit échangé, quelque chose de substantiel. Ce « quelque chose » est un quantum, c’est-à-dire une particule caractéristique du champ associé à l’interaction. En d’autres termes, une interaction ne s’exerce entre deux particules que par l’échange d’une troisième, ce qui établit une sorte de correspondance entre forces et particules. La particule qui transporte l’interaction s’appelle le « boson de jauge » de l’interaction, pour des raisons qui apparaitront plus claires par la suite. Cette conception, toute abstraite qu’elle semble, peut s’illustrer d’une façon très concrète. Imaginons deux barques sur un lac. L’occupant de chaque barque est démuni de toute espèce d’objet qui pourrait l’aider à diriger son embarcation. Ni rames ni pagaies ni planches ni perches. Supposons que les deux barques se dirigent l’une vers l’autre, selon deux directions ayant entre elles un certain 14 angle, de telle sorte que la collision paraisse inévitable. Inévitable ? Pas tout à fait. Car si l’un des occupants dispose d’un objet massif, par exemple d’un ballon, et qu’il le lance avec vigueur au passager de l’autre barque, qui le lui renvoie et ainsi de suite, les deux embarcations s’écarteront peu à peu l’une de l’autre. La succession des lancers créera une force répulsive capable de modifier les trajectoires. Il y aura interaction des deux barques par l’entremise d’un médiateur, ici le ballon. Cette métaphore, bien qu’elle soit approximative, permet de comprendre une autre chose très importante : puisqu’un ballon lourd oblige à faire des passes courtes, la portée d’une interaction sera d’autant plus faible que la masse de ses particules médiatrices sera plus élevée. Cette propriété, ici évoquée à partir de considérations intuitives, peut être démontrée de façon parfaitement rigoureuse en physique quantique. Quelles sont les interactions « fondamentales » de l’univers ? Pour rendre compte de tous les phénomènes auxquels ils ont accès, les physiciens ont besoin de ne faire intervenir que quatre forces, qu’ils jugent « fondamentales ». Quelles sont-elles ? La gravitation, bien sûr, identifiée par Newton il y a plus de trois siècles ; l’interaction électromagnétique, identifiée en tant que telle par Maxwell dans la seconde moitié du XIXe siècle, et qui rend compte de la cohésion de la matière à notre échelle ; l’interaction nucléaire faible, découverte dans les années 1930, qui gère certains processus radioactifs, notamment la radioactivité bêta ; l’interaction nucléaire forte - découverte à peu près au même moment que l’interaction nucléaire faible - qui lie très solidement entre eux les constituants des noyaux atomiques. Voyons plus en détail leurs caractéristiques. La gravitation d’abord. C’est elle qui nous permet de nous asseoir, et qui nous fait mal quand nous tombons. Mais elle gouverne bien d’autres phénomènes, de la chute des corps au mouvement des planètes. Elle est également à l’origine de la formation des étoiles à partir du gaz primordial, qu’elle oblige à se contracter. Et, grâce à elle encore, les étoiles, une fois formées, s’attirent les unes les autres, formant ainsi des galaxies. 15 L’interaction gravitationnelle est attractive et de portée infinie (c’est-à-dire que la force qui existe entre deux masses n’est nulle que si ces deux masses sont séparées d’une distance infinie). Nul écran ne pouvant en stopper l’influence, il est vain d’espérer l’amoindrir ou la supprimer. Son intensité est beaucoup plus faible que celle des autres interactions, si bien qu’on peut négliger ses effets à l’échelle des particules, soumises par ailleurs à des forces beaucoup plus intenses. Mais alors, comment se fait-il qu’elle soit si importante pour nous, à l’échelle macroscopique ? C’est que, étant toujours attractive, l’interaction gravitationnelle est cumulative : elle est d’autant plus grande que le nombre de particules mises en jeu est important. L’interaction gravitationnelle entre un proton de notre corps et un proton de la terre est infime, certes, mais les protons de notre corps étant très nombreux, et ceux de la terre encore plus, les innombrables petites forces qui les lient s’ajoutent les unes aux autres et finissent par faire une force globale importante, précisément égale à … notre poids. La gravitation est donc ce par quoi l’union fait la force. La particule censée transporter la gravitation – son ballon – s’appelle le graviton. Il est de masse nulle. Du moins est-ce ainsi que nos connaissances actuelles nous conduisent à le concevoir, car la vérité oblige à dire qu’il n’a pas encore été découvert en tant que particule. C’est à Einstein qu’on doit la théorie de la gravitation aujourd’hui utilisée par les physiciens. Elle s’appelle la « théorie de la relativité générale ». L’interaction électromagnétique est beaucoup plus intense que la gravitation. Elle agit de façon manifeste autour de nous puisqu’elle fait fonctionner tous nos appareils… électroménagers, de l’aspirateur à la cafetière en passant par le réfrigérateur et en repassant par le fer à repasser. Mais à un niveau plus fondamental, elle assure surtout la cohésion des atomes et des molécules, gouverne toutes les réactions chimiques et aussi les phénomènes optiques (la lumière, rappelons-le, est constituée d’ondes électromagnétiques, structurées en photons). À l’instar de l’interaction gravitationnelle, elle a une portée infinie, au sens où elle agit sur des objets quelle que soit la distance qui les sépare. En d’autres termes, il n’existe pas de limite à la longueur du trajet que peuvent parcourir les photons qui la propagent (à la vitesse de la lumière). Mais, étant tantôt attractive, tantôt répulsive (selon le signe des charges électriques en 16 présence), les effets cumulatifs de l’interaction électromagnétique au sein de la matière sont annulés à grande distance du fait de la neutralité électrique globale de la matière. L’interaction électromagnétique est aujourd’hui bien décrite par une théorie qu’on appelle l’« électrodynamique quantique ». Elle procède de l’échange de photons, qui sont donc ses médiateurs, ses ballons. Ils ont une masse nulle. Ces photons sont qualifiés de « virtuels », non parce qu’ils seraient artificiels, mais parce qu’ils sont impossibles à détecter en tant que tels lorsqu’ils sont échangés entre deux particules chargées. L’interaction nucléaire faible a une portée très courte, d’environ un milliardième de milliardième de mètre, soit une fraction de la dimension d’un noyau d’atome. Autant dire qu’il s’agit, comme la colle, d’une interaction de contact : deux particules ne peuvent interagir par elle que si elles se touchent quasiment. Elle est notamment responsable de la radioactivité bêta, par laquelle un neutron se désintègre en un proton et un électron (avec émission conjointe d’un antineutrino). Comme son nom l’indique, l’interaction faible est caractérisée par une très faible intensité qui la rend difficile à observer. Mais cela ne l’empêche par de jouer un rôle capital, notamment dans le soleil, où elle régit les réactions de fusion des noyaux d’hydrogène4. Si elle disparaissait de l’univers, notre étoile cesserait de briller… Les particules qui médiatisent l’interaction faible sont au nombre de trois. On les appelle les « bosons intermédiaires » et on les note W+, W- et Z0. Comme la portée de l’interaction nucléaire faible est très courte, la masse de ces « ballons » doit être très grande. Effectivement, elle l’est, presque cent fois plus grande que celle d’un proton. Les trois médiateurs de l’interaction faible ont été mis en évidence en 1984, au CERN, grâce à un collisionneur de protons et d’antiprotons conçu à cette fin. L’interaction nucléaire forte est la plus intense des quatre interactions fondamentales, mais elle nous est restée longtemps cachée. Sa portée effective est très courte, de l’ordre de la taille d’un noyau, soit quelques 10-15 mètre. Les 4 En réalité, il ne s’agit pas d’une « fusion » à proprement parler de deux protons. L’un des deux doit d’abord se transformer en neutron (par une désintégration bêta inverse), ce qui permet ensuite qu’il fusionne avec le second. 17 physiciens sont devenus certains de son existence dans les années 1930, lorsqu’ils ont pris pleinement conscience que la stabilité des noyaux atomiques avait quelque chose d’étonnant. Puisqu’ils portent des charges électriques de même signe, les protons au sein d’un noyau atomique se repoussent du fait de la force électrique qui tend à les séparer. Et pourtant, ils semblent très solidement attachés les uns aux autres. Par quoi donc est combattue leur répulsion électrique ? Aucune force classique ne pouvait expliquer cette cohésion nucléaire. De là l’hypothèse, vérifiée depuis, qu’il existe au sein des noyaux atomiques une force très intense, l’interaction nucléaire forte justement, de portée très courte, environ un millionième de milliardième de mètre… Cette force agit comme une sorte de glu qui colle deux nucléons (proton ou neutron, peu importe pour elle) en contact l’un avec l’autre, mais dont la force s’affaiblit très rapidement dès qu’on les écarte un tant soit peu l’un de l’autre. Cela ne l’empêche pas d’être incroyablement puissante. Elle est par exemple capable d’arrêter, sur quelques millionièmes de milliardième de mètres, un proton lancé à cent mille kilomètres par seconde… Quels sont les ballons de l’interaction forte ? Nous traiterons cette question plus tard, lorsque nous aurons parlé des « quarks ». Retenons pour l’instant le nom de la théorie qu’utilisent les physiciens pour décrire cette interaction : la « chromodynamique quantique ». Toutes les particules ne subissent pas l’interaction nucléaire forte. Celles qui y sont sensibles, tels les protons, les neutrons ou les pions, s’appellent les hadrons. Celles qui ne la subissent pas s’appellent les leptons. On connaît plus de 350 hadrons différents. Ils sont tous instables à l’exception peut-être du proton. Cela signifie que très rapidement, ils se désintègrent en d’autres particules plus légères. Leur durée de vie (c’est-à-dire la durée moyenne au bout de laquelle leur désintégration intervient) peut être très brève. Certains hadrons très fugaces ont même une durée de vie qui n’est que de quelques 10-23 seconde, ce qui fait d’eux les phénomènes les plus brefs connus dans la nature. 18 Pourra-t-on « unifier » les forces fondamentales ? Durant ces dernières décennies, les physiciens ont accompli des progrès extraordinaires en matière d'unification des interactions fondamentales. Durant les années 1970, notamment, ils ont pu démontrer que la force électromagnétique et la force nucléaire faible, bien que très dissemblables en apparence, n’étaient pas indépendantes l'une de l'autre : dans un passé très lointain de l’univers, elles ne faisaient qu’une seule et même force, qui s’est par la suite dissociée. Cette démarche unificatrice a pu être étendue pour partie à l’interaction nucléaire forte, au sens où l’on est parvenu à la faire cohabiter avec l’interaction faible et l’interaction électromagnétique au sein d’un même formalisme mathématique. Le résultat obtenu est d’une puissance considérable. Il constitue ce que l’on appelle le « modèle standard » de la physique des particules, qui a été très finement testé grâce à de gigantesques collisionneurs de particules. Ce modèle théorique s’appuie d'une part sur la physique quantique, qui décrit le comportement de la matière à très petite échelle, d'autre part sur la théorie de la relativité restreinte d'Einstein, qui rend compte des situations dans lesquelles les vitesses des particules ne sont pas négligeables devant celle de la lumière. Moyennant l'introduction d'un certain nombre de paramètres déterminés empiriquement, il rend compte de tous les phénomènes microscopiques connus aujourd'hui, jusqu'à une énergie de l'ordre de la centaine de milliards d'électronvolts. Ce succès du modèle standard de la physique des particules vient illustrer l’aboutissement d’une utilisation très astucieuse du concept de symétrie. D’une façon générale, on dit d’une chose qu’elle est symétrique si, après avoir été soumise à une certaine transformation, son apparence n’est pas modifiée. Quand nous pensons à cette définition, ce sont d’abord les symétries géométriques, celles de la sphère ou du cylindre par exemple, qui nous viennent d’abord à l’esprit. Prenons l’exemple de la sphère : nous pouvons la faire tourner selon n’importe quel angle par rapport à n’importe quel axe sans la modifier. L’effet de telles rotations peut être décrit mathématiquement, de même que la sphère peut être décrite par une équation. La symétrie parfaite de la sphère se traduit par le fait que son équation après n’importe quelle rotation est la même qu’avant. En 19 particulier, l’angle de rotation n’y figure pas. On dit que les équations décrivant une sphère soumise à des rotations sont invariantes. Mais d’autres symétries, plus abstraites que les symétries géométriques et d’une plus grande portée théorique, peuvent également être utilisées en physique. Elles s’appuient sur le concept mathématique de « groupe de symétrie », terme par lequel on désigne l’ensemble des transformations qui, appliquées à un objet, le laissent invariant. On dira d’un phénomène physique particulier qu’il respecte une certaine symétrie, associée à un certain groupe de symétrie, si les lois qui le gouvernent sont invariantes lorsqu’on applique au système l’une quelconque des transformations du groupe de symétrie. Mais comment utiliser pratiquement ces notions ? Soit un système physique décrit par la physique quantique, s’il est invariant selon un certain groupe de symétrie, alors l’espace de Hilbert contenant les vecteurs d’état susceptibles de décrire ce système est l’une des « représentations » de son groupe de symétrie. Pour dire les choses de façon simplifiée, le groupe correspond à l’ensemble des opérations qui laissent le système invariant, et la représentation est la « chose » qui subit ces opérations. Les groupes qui jouent un rôle important en physique sont le groupe des translations et des rotations, mais aussi des groupes faisant appel à des nombres complexes, tels U(1), le groupe des nombres complexes de module égale à 1, ou SU(2), le groupe des matrices unitaires à coefficients complexes de dimension 2x2 et de déterminant égal à 1, ou encore SU(3) (dont la définition est la même que celle de SU(2), sauf que la dimension des matrices est 3x3). Cette « extension » du concept de symétrie vers l’abstraction a permis de montrer qu’on peut déduire la structure d’une interaction entre particules de leurs seules propriétés de symétrie. Plus précisément, en identifiant les groupes de symétrie associés respectivement aux interactions électromagnétique (U(1)) et nucléaire faible (SU(2)), les physiciens ont été capables de les décrire de façon élégante, dans un même cadre mathématique. Cela leur a permis ensuite de les « unifier », c’est-à-dire les faire cohabiter au sein d’un même formalisme mathématique, qu’en termes savants on appelle « les théories de jauge ». Par la suite, cette procédure a pu être étendue à l’interaction nucléaire forte, car elle aussi peut être dérivée d’un groupe de symétrie particulier, qui n’est autre que SU(3). Considérée globalement, cette réussite a une portée considérable. Cette portée est d’abord philosophique puisque qu’elle permet d’affirmer que les forces ne sont pas des ingrédients qu’il faut introduire de façon arbitraire dans les 20 théories, aux côtés des particules qui y sont soumises, mais qu’elles apparaissent plutôt comme des conséquences des propriétés de symétrie auxquelles obéissent ces particules : il existe donc un lien très profond entre les forces et les particules. Mais cette portée est également physique, au sens où elle susceptible de conduire à la prédiction de l’existence de nouvelles particules : par exemple, c’est grâce à la structure des représentations du groupe SU(3) que Gell-Mann a pu conjecturer, dès 1964, l’existence des quarks. La messe est-elle dite pour autant ? Les physiciens sont les premiers à reconnaître que non. Car le modèle standard bute sur plusieurs problèmes d’ordre conceptuel. D’abord, à des énergies plus élevées que celles accessibles avec les collisionneurs de particules actuellement en service, les principes sur lesquels il s’appuie entrent eux-mêmes en collision violente les uns avec les autres, de sorte que les équations ne fonctionnent plus. C’est l’indice que le cadre conceptuel en usage ne permet pas de décrire les phénomènes qui se sont déroulés à plus haute énergie, dans l’univers primordial. Ensuite, le modèle standard de la physique des particules laisse de côté la quatrième force, la gravitation, seulement prise en compte par la relativité générale (qui ne décrit qu’elle). Comment l’intégrer ? Ou, à défaut, comment construire une théorie permettant de décrire à la fois la gravitation et les trois autres forces ? L’affaire s’annonce plus que délicate, notamment en raison du fait que ces deux théories ne se représentent pas l’espace-temps de la même façon. Pour le modèle standard de la physique des particules, il est plat, rigide et statique ; pour la relativité générale, il est courbe, souple et dynamique. Or l’espace-temps est indispensable à toute démarche physique, pour rendre compte de la présence des objets et du déroulement des phénomènes. Concevoir un espace-temps dont la structure soit compatible avec les lois quantiques aussi bien qu’avec celles de la relativité générale amène à remettre à plat les deux formalismes en vigueur et leur façon de représenter l’espace et le temps. Mais sur quoi s’appuyer pour construire une théorie quantique de la gravitation ? S’agit-il d’appliquer les procédures de la physique quantique à la relativité générale ? Ou bien de procéder à un mariage qui impliquerait une modification de la physique quantique standard ? Ou encore de mettre sur pied une nouvelle théorie qui dépasse, en les incluant, la physique quantique et la relativité générale ? Plusieurs pistes sont à l’étude. Nous ne les détaillerons pas ici, nous contenant de signaler qu’elles se répartissent en trois groupes : 21 • Les procédures qui appliquent les règles de quantification à la relativité générale ordinaire, telle la théorie dite « de la gravité quantique à boucles »5. • La théorie des supercordes, qui envisagent un cadre radicalement neuf (les objets physiques sont des cordes, mais l’espace-temps est défini a priori) à partir duquel on espère retrouver le modèle standard comme limite à basse énergie. • L’ensemble des approches qui ne relèvent d’aucune des deux premières (par exemple les géométries non commutatives d’Alain Connes). 5 Cette piste théorique, proposée par Abhay Ashtekar, Carlo Rovelli et Lee Smolin, est basée sur la quantification canonique de la relativité générale dans une formulation hamiltonienne, les trois autres interactions fondamentales n’étant pas considérées dans un premier temps. L’une de ses prédictions est que l’espace doit présenter une structure discrète, par opposition au continuum d’espace-temps de la relativité générale : les aires et les volumes sont quantifiés. Cette théorie est en concurrence avec la théorie des supercordes, au moins pour la gravitation. Elle ne prévoit pas l’existence de particules supplémentaires. 22 LES PARTICULES MISES EN JEU Qu’appelle-t-on une particule de « haute » énergie ? Une énergie se mesure d’ordinaire en joules. Mais pour quantifier celle de leurs particules, les physiciens utilisent une autre unité, qui leur convient mieux : l’électronvolt (qui est l’énergie gagnée par un électron accéléré par une différence de potentiel de un volt). Les particules qui circulent au sein des accélérateurs de particules les plus puissants ont des énergies qui sont de l’ordre du millier de milliards d’électronvolts. Voilà un chiffre impressionnant ! Les accélérateurs de particules seraient-ils des bombes déguisées ? Pour en avoir le cœur net, comparons l’énergie de ces particules à celle d’un moustique en vol. Choisissons un moustique de 2 milligrammes se déplaçant à un mètre par seconde (il s’agit donc d’un moustique non relativiste). Son énergie cinétique est égale à la moitié de sa masse multipliée par le carré de sa vitesse. Exprimée en électronvolts, cette énergie s’élève, tous calculs faits, à 6250 milliards électronvolts. Elle est donc environ six fois plus grande que celle d’une particule circulant dans un gros accélérateur. Dès lors, pourquoi ne pas faire des collisions de moustiques, ou de grains de riz propulsés par des sarbacanes, puisque les uns et les autres sont plus énergétiques que les particules des physiciens ? Cela permettrait de se rapprocher encore plus de ce qui se passait dans les premiers instants de l’univers, et puis ce serait beaucoup moins cher… Mais l’argument que nous venons d’utiliser n’est pas valide. Une collision de moustiques ne nous apprendrait rien d’intéressant. Car dans ces affaires, ce n’est pas l’énergie qui compte, mais la densité d’énergie, c’est-à-dire la quantité d’énergie par unité de volume. Or un moustique est constitué d’un nombre faramineux d’atomes et de molécules qui se partagent son énergie totale, de sorte que l’énergie portée par chacun de ses constituants est ridiculement faible. Une particule élémentaire, elle, est quasiment ponctuelle : si on l’accélère, son 23 énergie augmente et vient se concentrer sur son volume, qui est minuscule. De très fortes densités d’énergie sont ainsi atteintes, qui permettent, lors des collisions que les particules ont les unes avec les autres, de donner naissance à des phénomènes extraordinaires, par exemple de créer de nouvelles particules qui certes peuvent être produites par certaines collisions entre le rayonnement cosmique et les hautes couches de l’atmosphère, mais n’existent pas de façon courante autour de nous… Lors d’une collision, les particules incidentes se brisent-elles en plusieurs morceaux ? Nous avons l’habitude de dire que la matière, « c'est ce qui se conserve ». Cette idée n'est pas spécialement neuve. C'était déjà le sens du fameux « rien ne se crée, rien ne se perd, tout se transforme » de Lavoisier. Ce principe permet notamment de fonder le droit de propriété : si le vélo que j’avais garé dans la rue n’est plus là lorsque je viens le récupérer, je suis en droit de conclure qu’on me l’a volé. Je ne conçois même pas qu’il ait pu se « volatiliser », qu’il soit devenu « rien ». J’imagine simplement que la matière qui le constitue existe toujours mais a été déplacée ailleurs. 24 Or cette loi de conservation ne vaut justement pas pour la matière à l'échelle microscopique. À notre échelle, lorsque deux objets, par exemple deux verres, se percutent, ils volent en éclats. Ces éclats sont précisément formés des fragments issus des objets entrés en collision. Nulle matière n'apparaît alors qui n'était déjà présente au départ. Mais dans le monde microscopique, les choses ne se passent pas ainsi : une particule ne se brise pas au sens où nous entendons ordinairement ce mot. Le concept même de morceaux de particules n'a d'ailleurs guère de sens, ce qui fait que la métaphore des poupées russes dont l'emboîtement simulerait la structure de la matière trouve ici ses limites. Les particules que nous voyons surgir d’un choc entre deux particules de haute énergie n’étaient pas « déjà là » avant la collision. Elles ne peuvent donc pas être considérées comme les débris des particules initiales. C'est l'énergie même du choc, portée par les deux particules incidentes, qui s’est brutalement matérialisée sous la forme de nouvelles particules, tout droit sorties du vide. Le vide n’est donc pas le néant, mais plutôt une sorte de prologue de la matière : pour peu qu’on lui donne de l’énergie, il est capable de produire des particules qu’en fait il contenait déjà, mais sous une forme larvée, virtuelle, seulement potentielle. Dans les processus qu’on observe grâce aux détecteurs placés auprès des grands accélérateurs de particules, la matière (la masse) ne se conserve pas. Seule l'énergie globale reste invariante : celle des particules qui entrent en collision est égale à la somme des énergies portées par toutes les particules qui surgissent du choc. Le modèle standard s'appuie sur l'existence d'un petit nombre de particules élémentaires, c'est-à-dire sans structure interne connue et insécables. Ces particules se classent en deux catégories, les leptons d’un côté, les quarks de l’autre. Qu’est-ce qu’un lepton ? On appelle leptons les particules insensibles à l'interaction nucléaire forte qui assure la cohésion des noyaux atomiques. On sait aujourd’hui qu’il en existe de six sortes. Les trois premiers sont des leptons de charge électrique nulle et de masse très faible : ce sont les neutrinos. Les trois autres sont des leptons 25 massifs et électriquement chargés : l'électron, le muon et le lepton tau, qui se présentent comme des particules identiques sous tous leurs aspects sauf leur masse et leur durée de vie. Le muon, 206 fois plus lourd que l’électron, se désintègre au bout de quelques microsecondes en un électron, un neutrino et un antineutrino. Le lepton tau, lui, est encore plus lourd et sa durée de vie est très brève, de l’ordre de 10-13 seconde. Tout laisse penser aujourd’hui que les leptons sont des particules véritablement élémentaires, c’est-à-dire qu’ils ne sont pas formés d’entités plus petites. Grâce aux accélérateurs de particules, on peut frapper sur l’électron avec une énergie énorme, supérieure à cent mille fois celle qu’il doit à sa propre masse, et pourtant, on n’a jamais réussi à le « casser » en morceaux ni à sentir la structure granulaire qu’il pourrait dissimuler en son sein. Comme toute particule, chaque lepton possède son antiparticule, de même masse que lui et de charge électrique opposée. L’antiparticule de l’électron s’appelle le positron. Existent aussi l’antimuon, l’antitau et trois sortes d’antineutrinos. Qu’est-ce que l’antimatière ? En 1927, un physicien alors âgé de 25 ans, Paul Dirac, s’attaque, avec son intellect et un crayon pour seuls outils, à un grand problème qui se pose alors en physique. Ce grand problème est facile sinon à résoudre, du moins à énoncer. Les physiciens disposent depuis la fin de l’année 1925 d’une équation - l’équation de Schrödinger - qui permet de décrire, dans diverses situations, le comportement d’une particule élémentaire comme l’électron. Typiquement quantique, cette équation donne de bons résultats lorsqu’il s’agit, par exemple, de calculer les niveaux d’énergie accessibles à l’électron unique qui se trouve dans tout atome d’hydrogène. Mais cette précision vient de ce que la vitesse de cet électron ne représente qu’un petit centième de la vitesse de la lumière. Pour des électrons beaucoup plus rapides, comme ceux que l’on trouve au sein du rayonnement cosmique, rien ne va plus. Car l’équation de Schrödinger ne respecte pas les principes de la relativité d’Einstein : elle n’est valide que pour les particules dont la vitesse est beaucoup plus faible que celle de la lumière. Or 26 un électron, objet minuscule s’il en est, peut être également très véloce, et même se déplacer pratiquement à la vitesse de la lumière. En toute logique, ce double statut impose que l’équation susceptible de le décrire en toutes circonstances soit une sorte de mariage de la physique quantique, qui traite des objets minuscules, et de la théorie de la relativité restreinte, qui traite des objets très rapides. Cette équation à la fois quantique et relativiste, qui permettrait de disposer d’une description cohérente du monde microscopique, voilà ce que Paul Dirac décide de chercher. Un soir de l’hiver 1928, il écrit une équation, qui porte depuis son nom, avec la certitude qu’elle est « la bonne ». Mais certaines solutions de cette équation sont étranges : elles correspondent à des particules d’énergie négative, qui ne semblent pas pouvoir exister. Après un laborieux travail d’interprétation, il finit par entrevoir, en 1931, que ces énergies négatives décrivent en réalité une nouvelle particule, jamais observée, de même masse que l’électron et de charge électrique positive. Il prédit ainsi l’existence d’un nouvel objet microscopique, le positron, qui est l’antiparticule de l’électron. Des positrons furent détectés en 1932 dans le rayonnement cosmique par Carl Anderson, un physicien américain. On sait aujourd’hui qu’à toute particule est associée une antiparticule de même masse qu’elle et de charge électrique opposée. Lorsqu’une particule rencontre son antiparticule, leurs deux masses se transforment aussitôt en une sorte d’énergie pure, qui se « matérialise » ensuite (en fait très rapidement) en d’autres particules et antiparticules. L’antimatière s’appelle ainsi non pas parce qu’elle serait « contre » ou hostile à la matière habituelle, mais parce qu’elle en représente une sorte d’image « miroir ». Le préfixe anti n’a donc pas ici le même sens que dans anticolonialiste ou antipelliculaire, mais plutôt celui qu’il a dans antipode : le pôle nord est certes à l’antipode du pôle sud, mais il ne semble pas lui être spécialement hostile. Les physiciens ont finalement compris que l’existence de l’antimatière est liée à un principe fondamental de la physique, peut-être le plus important de tous : le principe de causalité, qui ordonne les événements dans le temps selon un enchaînement irrémédiable et interdit toute possibilité de modifier un événement dès lors que celui appartient au passé. L’apparition des énergies négatives dans les solutions de l’équation de Dirac ne faisait, en définitive, rien d’autre que manifester certaines conséquences de ce principe. Elle exprimait, dans le cadre 27 certes particulier de la physique des particules, une impossibilité radicale (qui vaut peut-être pour toute la physique) : celle de remonter dans le passé. Qu’est-ce qu’un quark ? Et un gluon ? Nous avons rappelé plus haut qu’il existe plus de 350 hadrons détectés à ce jour, c’est-à-dire 350 particules connues pour être sensibles à l’interaction forte. La plupart de ces particules ont été détectées soit dans le rayonnement cosmique, soit par des expériences à haute énergie menées auprès des grands accélérateurs de particules après la Seconde Guerre Mondiale. Au début des années 1960, certains physiciens ont imaginé que des particules aussi nombreuses et aussi diverses avaient peu de chances d’être élémentaires, c’est-à-dire sans structure interne. Énoncée pour la première fois en 1964 par Murray Gell-Mann et indépendamment par Georges Zweig, la théorie des quarks vint donner à cette intuition l’honneur d’une première formalisation. Elle partait du principe que les hadrons pourraient être des particules composites, constituées de grains plus petits qu’eux-mêmes, les quarks. Certains hadrons, appelées les baryons, seraient constitués de trois quarks. Les autres, appelés des mésons, seraient constituées d’un quark et d’un antiquark. Cette invention de théoricien acquit peu à peu ses lettres de noblesse, au fur et à mesure qu’elle fut corroborée par les expériences, notamment au cours des années 1970. Finalement, elle permit de comprendre très finement la structure des hadrons. On sait aujourd’hui qu’il existe six sortes de quarks, chacune étant caractérisée par ce qu’on appelle une « saveur ». Les six saveurs des quarks sont désignées par les lettres u, d, s, c, b et t (correspondant aux initiales des mots anglais up, down, strange, charm, beauty et top). À partir d’elles, on peut reconstituer la structure de tous les hadrons connus. Par exemple, le proton est formé de deux quarks u et d’un quark d, ce qui donne le triplet (uud). Quant au neutron, il contient un quark u et deux quarks d, ce qui donne (udd). Si l’on prend comme unité de charge la charge électrique d’un proton, celle du quark u vaut 2/3 et celle du quark d vaut -1/3, ce qui donne bien au total une charge égale à un pour le proton (2/3 + 2/3 – 1/3 = 1) et égale à zéro pour le neutron (2/3 -1/3 -1/3 = 0). 28 La saveur d’un quark n’est pas seulement une étiquette permettant de le distinguer des autres. D’abord parce qu’elle est directement liée à la masse des quarks : les quarks u, d, s, c, b et t ont tous des masses différentes, qui se répartissent selon un spectre très large (de quelques MeV/c2 pour le quark u à 172 GeV/c2, c’est-à-dire près de 100 000 fois plus, pour le quark t). Ensuite et surtout parce qu’elle caractérise la façon dont les quarks interagissent par le biais de l’interaction nucléaire faible, de la même façon que leur charge électrique détermine leur façon d’interagir par le biais de la force électromagnétique. Par exemple, l’interaction faible peut transformer un quark d en un quark u, et c’est d’ailleurs ce qui se passe lors d’une désintégration bêta par laquelle un neutron (udd) devient un proton (uud). Outre la saveur, les quarks ont une autre propriété, tout aussi importante, qui porte le nom de « couleur ». Le sens que les physiciens des particules donnent à ce mot n’a pas plus à voir avec la couleur réelle d’un objet que la saveur d’un quark n’en a avec l’arôme d’un bon plat. Les quarks ne sont nullement colorés au sens habituel de ce terme. Leur couleur désigne simplement une étiquette qu’ils portent et qui pilote leur façon d’interagir par le biais de l’interaction nucléaire forte. Elle est à l’origine du nom de « chromodynamique quantique » qui a été donné à la théorie de l’interaction forte. Il existe trois couleurs possibles pour les quarks, arbitrairement choisies : le rouge, le bleu et le vert. Dans un proton ou un neutron, les trois quarks ont chacun une couleur différente : il y a donc un quark rouge, un quark vert et un quark bleu. En moyenne, le proton ou le neutron sont donc « blancs » puisque le blanc peut être considéré comme l’addition de toutes les couleurs. Les mésons, qui sont quant à eux constitués d’un quark et d’un antiquark respectivement porteurs d’une couleur et d’une anticouleur, forment eux aussi des édifices « blancs ». La théorie des quarks explique que seules les particules blanches sont détectables en laboratoire. Les quarks étant porteurs d’une couleur bien définie, ils sont inobservables isolément. On ne détecte que des hadrons, composés soit des trois quarks (ce sont alors des baryons), soit d’un quark et d’un antiquark (ce sont alors des mésons), mais jamais des quarks seuls. Ces derniers demeurent toujours « confinés » au sein des hadrons. L’interaction nucléaire forte lie entre eux les quarks par l’échange de gluons, qui sont donc les médiateurs de cette interaction, ses ballons. Les gluons, qui se comportent comme des sortes d’élastiques incassables, ont une fonction simple : 29 ils « engluent » les quarks au sein des hadrons. Il en existe de huit sortes. Ils portent eux aussi une couleur (en fait une couleur et une « anti-couleur »), qu’ils échangent en permanence avec celle des quarks avec lesquels ils interagissent : ils les font ainsi passer du bleu au rouge ou du vert au bleu et ainsi de suite, tels des feux tricolores furieusement agités. Cet échange incessant de couleur produit une sorte d’enchevêtrement entre quarks et gluons capable d’assurer la stabilité (toute provisoire) des hadrons. Ajoutons que le fait que les gluons sont eux-mêmes porteurs d’une couleur, c’est-à-dire qu’ils sont eux-mêmes « chargés » du point de vue de l’interaction forte, impliquent deux choses : les gluons subissent la force qu’ils transportent, et ils interagissent entre eux. Ces caractéristiques, qui n’existent pas dans le cas de l’électromagnétisme (les photons, n’ayant pas de charge électrique, ne subissent pas l’interaction électromagnétique qu’ils véhiculent), expliquent à elles seules la complexité des calculs de la chromodynamique quantique. Les quarks et les gluons, même affublés de propriétés désignées par des mots du langage courant (par lesquels les physiciens espèrent peut-être faire pendant au raffinement conceptuel de leur discipline), demeurent des êtres bien étranges. En effet, ils subissent d’autant moins la présence de leurs voisins qu’ils sont très tassés les uns contre les autres, dans une zone très exiguë au sein de laquelle la force qui les lie devient quasiment nulle. Ils deviennent libres à courte distance, en quelque sorte (c’est cette propriété qu’on appelle la « liberté asymptotique »). De quoi faire pâlir d’envie ceux qui prennent le métro aux heures de pointe… Mais cette liberté n’est pas parfaite, car les quarks ne peuvent pas s’échapper hors des systèmes composites auxquels ils appartiennent. Tout se passe comme s’ils étaient libres au sein d’une prison dont ils ne pourraient jamais sortir. Car lorsqu’on veut séparer un quark et l’isoler des autres quarks et gluons avec lesquels il interagit, l’énergie qu’il faut fournir augmente très vite avec la distance de séparation6. Économe, la nature préfère utiliser cette énergie pour créer d’autres quarks et antiquarks : tout quark qui s’échappe s’enrobe immédiatement d’un manteau de partenaires avec lesquels il forme un nouvel hadron. Autrement dit, les quarks s’habillent toujours pour sortir, de sorte qu’on ne les voit jamais nus. 6 On peut comparer cette situation à celle d’un élastique. Si l’on rapproche les deux extrémités de l’élastique, on ne ressent aucune force. Mais plus on tire, et plus l’énergie 30 Lorsqu’on tente de séparer des quarks, l’énergie que l’on apporte sert en effet à créer des paires réelles de quarks et d’antiquarks à partir de paires virtuelles contenues dans le vide. Cela vient de ce qu’il faut moins d’énergie pour créer une paire de quarks que pour les séparer. C’est du moins ce qu’on observe auprès des accélérateurs : lorsqu’on projette des protons les uns contre les autres, on crée des centaines de hadrons. Pour reprendre l’analogie de l’élastique (voir note 3), c’est comme si, en tirant sur un élastique, on en créait beaucoup d’autres. Si l’on porte la température à plusieurs centaines de millions de degrés, les expériences et la théorie indiquent que tous les protons « fusionnent », donnant naissance à une nouvelle phase de la matière, appelée « plasma quark-gluon », dans lequel les quarks et les gluons sont libres. Cette phase a dû exister dans l’univers primordial, avant que les quarks et les gluons ne s’agrègent pour former les nucléons. Le détecteur ALICE a été conçu pour la mettre en évidence. Environ un mois par an, le LHC changera de visage : à la place des protons, on y fera circuler des ions de plomb 208 (qui contiennent au total 208 protons et neutrons). Le nombre de nucléons étant dans ce cas beaucoup plus important, les collisions de noyaux qui se produiront au centre du détecteur atteindront des énergies colossales. En effet, puisque le LHC est réglé pour porter l’énergie d’un proton à 7 TeV, les ions de plomb, qui contiennent 82 protons, atteindront une énergie de 82x7 TeV, soit 574 TeV, à partager entre les 208 nucléons du plomb, ce qui donne 2,76 TeV/nucléon. Ainsi, au moment de la collision entre deux ions de plomb, une énergie totale de 1148 TeV sera mise en jeu. Elle sera suffisante pour qu’un plasma de quarks et de gluons se forme et puisse être étudié grâce aux données enregistrées par ALICE. Une dernière chose à propos de ces particules élémentaires : le modèle standard regroupe les quarks et les leptons en trois familles structurées de façon identique. Chacune d'elle est en effet composée de deux quarks et de deux leptons. En fait, une seule famille (la première, composée de l'électron, de son neutrino, et des deux quarks u et d) serait suffisante pour rendre compte de la matière qui nous entoure (les atomes, par exemple, sont constitués d'électrons tournant autour d'un noyau, lui-même composé de protons et de neutrons, c'està-dire in fine de quarks u et d). Mais alors, à quoi servent les deux autres familles ? Pourquoi la nature a-t-elle choisi d’ainsi « bégayer » en créant trois de l’élastique est grande. Il faudrait une énergie infinie pour éloigner les deux extrémités à l’infini (en supposant que l’élastique soit assez solide, bien sûr). 31 fois quasiment la même chose ? Et d’où vient la hiérarchie des masses des particules élémentaires ? Pourquoi certaines sont-elles très lourdes, et d’autres beaucoup plus légères ? Voilà quelques questions auxquelles les physiciens ne savent pas (encore ?) répondre. Le tableau ci-dessous illustre la classification des particules élémentaires actuellement connues. Sur quels principes les détecteurs du LHC fonctionnent-ils ? La fonction d’un détecteur est d’enregistrer et de visualiser les gerbes de particules résultant des collisions dans les accélérateurs. Les informations recueillies sur la vitesse, la masse et la charge d’une particule permettent de l’identifier. Le travail les physiciens pour identifier la particule qui a laissé une trace dans le détecteur s’apparente à celui du naturaliste qui étudie les traces laissées par des animaux sur le sol. Pour les empreintes d'animaux, la taille, la direction, la profondeur et la forme des traces, la longueur du pas et le motif général peuvent donner des indications sur le type d’animal qui les a laissées. De la même manière, les particules laissent dans les détecteurs des signes révélateurs qui permettent de les identifier. 32 Un détecteur de particules moderne est composé de couches de sous-détecteurs, chacun étant spécialisé dans un type de particule ou une propriété. Il existe trois grands types de sous-détecteurs : Les trajectographes, qui rendent manifeste la trajectoire d'une particule chargée. Les calorimètres, qui arrêtent une particule ou absorbent une partie de son énergie, ce qui permet de mesurer celle-ci. Les identificateurs de particules, qui identifient le type de la particule à l'aide de diverses techniques. Afin de permettre l’identification des particules produites lors de collisions, l’ensemble du volume du détecteur doit être soumis à un champ magnétique. Lorsqu’elle n’est soumise à aucune force, une particule se déplace en ligne droite, mais mise dans un champ magnétique, et si elle porte une charge électrique, sa trajectoire se courbe. À partir de la courbure de la trajectoire, on peut calculer la charge électrique et l’impulsion de la particule, ce qui aide à l’identifier. Au sein d’un détecteur, les particules de grande impulsion se déplacent quasiment en ligne droite, alors que celles à impulsion plus faible décrivent de petites spirales. Les trajectographes Les trajectographes, ou détecteurs de traces chargées, révèlent la trajectoire des particules chargées électriquement, à travers les traces qu’elles laissent. Des effets similaires surviennent dans notre vie quotidienne : les avions volant à haute altitude semblent invisibles, mais si les conditions s’y prêtent, leur traînée est visible. Pour obtenir des traces, on amène les particules à traverser une substance afin de visualiser leurs interactions avec les atomes du milieu traversé. Le détecteur baigne en général dans un champ magnétique intense qui courbe les trajectoires des particules chargées et permet ainsi de mesurer leur charge électrique et leur impulsion. La plupart des trajectographes modernes ne rendent pas les traces des particules directement visibles. Ils permettent de reconstruire le chemin de particules chargées tout près du lieu de leur production, en produisant de faibles signaux électriques enregistrés comme des données informatiques. La configuration des traces décelées par le détecteur est ensuite reconstituée par ordinateur. 33 Les calorimètres Un calorimètre mesure l’énergie perdue par la ou les particules qui le traversent. Il est généralement conçu pour stopper totalement ou « absorber » la plupart des particules résultant d'une collision, les forçant à déposer toute leur énergie à l’intérieur du détecteur. En général, les calorimètres sont constitués de couches d'un matériau de haute densité « passif » ou « absorbant » (du plomb par exemple) intercalées avec des couches d'un milieu « actif » tel que du verre au plomb solide ou de l'argon liquide. Les calorimètres électromagnétiques mesurent avec une grande précision l'énergie des particules légères - électrons et photons - qui interagissent avec les particules chargées à l'intérieur de la matière. Le calorimètre de CMS, par exemple, est constitué de 83000 cristaux de tungstate de plomb longs d’une vingtaine de centimètres. Ces cristaux très denses (98% de leur masse provient des métaux qui les composent) sont transparents à la lumière visible. Les calorimètres hadroniques échantillonnent l'énergie des hadrons (protons, pions, kaons…) qui interagissent avec les noyaux des atomes. Ils associent un matériau dense qui absorbe ces particules (du fer en général) avec un milieu de détection (constitué de « scintillateurs ») pour mesurer leur énergie. Les calorimètres stoppent la plupart des particules connues, à l'exception des muons et des neutrinos. Ces derniers ne se manifestent que par un déficit dans le bilan d’énergie. Quant aux muons, ils n’interagissent que très peu avec la matière et peuvent se déplacer sur de longues distances, même à travers plusieurs mètres d’un matériau très dense. Ils sont détectés par des « chambres à muons », qui sont un élément clé des détecteurs, car les muons fournissent des indications particulièrement « propres » sur certaines collisions, et sont de ce fait susceptibles d’identifier de nouveaux phénomènes physiques attendus aux énergies étudiées par le LHC. Les identificateurs de particules Il existe deux méthodes d’identification des particules par détection du rayonnement émis par les particules chargées : 34 • le rayonnement Tchérenkov : il s’agit d’une lumière émise lorsqu’une particule chargée se déplace dans un milieu donné plus vite que la vitesse de la lumière dans ce même milieu. La lumière Tchérenkov est émise à un certain angle, qui dépend de la vitesse de la particule. Si l’on connaît l’impulsion de la particule, on peut, à partir de cette vitesse, déterminer sa masse, et donc l’identifier. • le rayonnement de transition : ce rayonnement est produit par une particule rapide chargée lorsqu'elle traverse la limite entre deux matériaux présentant des résistances électriques différentes. Ce phénomène est corrélé à l’énergie d’une particule et permet d’en distinguer les différents types. 35 Schéma des détecteurs ATLAS ET CMS 36 LES PARTICULES ET L’UNIVERS Aujourd’hui, les physiciens des particules et les astrophysiciens, dont les objets d’études sont pourtant fort différents – le monde du « très petit » pour les premiers, le monde du « très grand » pour les seconds - collaborent étroitement. Comment cela s’explique-t-il ? Par quoi les particules révèlent-elles les débuts de l’univers ? La physique s’attache à rechercher des relations fixes entre les phénomènes, des rapports soustraits au changement. Même lorsqu’elle s’applique à des processus qui ont une histoire ou une évolution, elle les décrit à partir de formes, de lois, de règles qui sont indépendantes du temps. Ainsi espère-t-elle construire une « législation invariable des métamorphoses », un « protocole fixe des modifications » s’appuyant sur des notions insoumises au temps. La physique avait-elle le choix ? Pouvait-elle dire l’historicité des phénomènes sans convoquer des lois échappant à l’histoire ? Si, dans le flux perpétuel qui emporte tout, rien ne demeurait fixe, le monde ne cesserait-il pas d’être connaissable et tout ne se perdrait-il pas dans la confusion ? Le fait est qu’il n’existe pas d’équations de la physique fondamentale dont les concepts intègrent d’emblée le changement ou le devenir. Sans doute parce qu’il serait impossible d’exprimer le changement en n’invoquant que des grandeurs qui changent. Réfléchissons : si les notions figurant dans l’énoncé des lois physiques n’étaient pas supposées invariables, si elles ne cessaient de changer au fil du temps, que deviendrait le statut de ces lois ? Permettraient-elles encore de décrire, de comprendre, de prévoir ? S’agirait-il encore de lois ? 37 Un théorème fondamental, démontré en 1918 par la mathématicienne Emmy Noether, donne toute sa force à cette idée. Postulons, par exemple, que les lois de la physique sont invariantes par translation du temps, c’est-à-dire qu’elles ne changent pas si l’on modifie le choix de l’instant de référence, « l’origine » à partir de laquelle sont mesurées les durées. Cela revient à dire que les lois régissant toute expérience de physique ne sauraient dépendre du moment particulier où l'expérience est réalisée : tout instant en vaut un autre, le temps n’est pas lui-même soumis au devenir, de sorte qu’il n’existe aucun instant particulier qui puisse servir de référence absolue pour les autres. Ce que démontre Emmy Noether, c’est que, dès lors qu’on la postule, cette invariance des lois physiques par translation du temps a pour corollaire direct une loi de conservation, en l’occurrence la loi de conservation de l'énergie. Prenons un exemple pour illustrer ce résultat : imaginons que la force de pesanteur varie de façon périodique dans le temps, qu’elle soit par exemple très faible chaque jour à midi et très forte à minuit. On pourrait alors monter quotidiennement une charge au sommet d’un immeuble à midi, puis la projeter dans le vide à minuit. L’énergie ainsi gagnée serait plus élevée que l’énergie dépensée. Il n’y aurait donc plus conservation de l’énergie. La loi de conservation de l’énergie a donc une signification qui dépasse largement sa formulation habituelle : elle exprime rien de moins que la pérennité des lois physiques, c'est-à-dire leur invariance au cours du temps. On objectera que l’univers d’aujourd’hui ne ressemble guère à l’univers primordial. Certes, mais en réalité, ce sont les conditions physiques qui ont changé, et non les lois. En tous ses points d’espace-temps, l’univers conserve la mémoire de ce qu’il a été ainsi que la possibilité d’y rejouer le scénario de ses premiers instants. Ainsi, lorsque des physiciens provoquent de très violentes collisions de particules dans leurs accélérateurs de haute énergie, ils obtiennent des indications sur ce que fut le passé très lointain de l’univers. En effet, ils créent - ou plutôt recréent - dans un tout petit volume et pendant une durée très brève, les conditions physiques extrêmes qui étaient celles de l’univers primordial (très haute température et très grande densité d’énergie). De ces chocs sortent de très nombreuses particules qui proviennent de la matérialisation de l’énergie des particules incidentes. La plupart de ces particules n’existent plus dans l’univers : trop fugaces, elles se sont 38 rapidement transformées en d’autres particules plus légères et plus stables qui constituent la matière d’aujourd’hui. Mais l’univers n’en a pas moins intimement conservé la possibilité de faire réapparaître en son sein, selon des lois physiques invariables, ces objets qu’il ne contient plus. Ce point est capital, car il permet à lui seul de comprendre pourquoi les physiciens des particules et les astrophysiciens en sont venus à collaborer étroitement : en provoquant aujourd’hui des collisions de particules à très haute énergie, on découvre ce que fut le passé lointain de l’univers… La question de l’origine de l’univers : une question sans fin ? Les physiciens disent parfois que les collisions réalisées à haute énergie permettent de comprendre « l’origine de l’univers ». Qu’entendent-ils par là ? La physique la plus contemporaine serait-elle vraiment devenue capable d’envisager la façon dont les choses ont effectivement accédé à l’existence ? Lorsqu’ils parlent en ces termes, les scientifiques font-ils preuve d’arrogance, ou ne font-ils que traduire en mots ce que leurs recherches dévoilent ? Un bouleversement profond et discret s’est déroulé au cours du siècle dernier : toutes les disciplines scientifiques ont fini par prendre acte que les objets qu’elles étudient n’ont pas toujours été comme nous les observons aujourd’hui. La Terre n’a pas toujours existé et la vie n’y a pas toujours été présente. Les étoiles ne sont pas immuables : elles se forment, évoluent, se transforment. Les atomes eux-mêmes ont une histoire : l’univers primordial ne contenait que des particules élémentaires furieusement agitées. Progressivement, la description de l’univers est apparue aux scientifiques comme un grand récit, le plus long de tous. Ce récit parle de la matière inerte, celle des étoiles et des galaxies, celle de notre planète, mais aussi celle dont est constituée la matière vivante, y compris nous-mêmes. Dans le prolongement de cette narration à rebrousse-temps, on voudrait penser que les sciences sont devenues capables de saisir l’origine même des choses. Et l’on ne concède plus que du bout des lèvres que les questions d’origine puissent conserver quelque chose de leurs anciennes amarres métaphysiques. Pourtant, la prudence s’impose. Car lorsque les scientifiques dissertent sur l’origine de tel ou tel système, on découvre vite qu’il s’agit plutôt d’un discours sur ses métamorphoses, parfois de sa généalogie. 39 Ainsi les modèles cosmologiques actuels affirment que, dans un passé lointain, l’univers était beaucoup plus dense et beaucoup plus chaud qu’aujourd’hui, et que depuis il ne cesse de se dilater, de se diluer, de se refroidir, à un rythme dont on vient de constater l’accélération. Ainsi ces modèles retracent comment, dans un passé très lointain, l’agglomération de particules élémentaires, les quarks, a engendré protons et neutrons, premiers systèmes structurés à être apparus dans le déroulement de l’histoire cosmique. Ils expliquent aussi comment ces premières briques se sont ensuite assemblées pour former les premiers noyaux d’atomes, puis comment ces derniers se sont associés aux électrons pour former les atomes proprement dits... Aux échelles astronomiques, ils retracent comment la gravitation a rassemblé la matière éparse pour former les étoiles dont la lumière inonde peu à peu l’univers et comment les réactions nucléaires se déroulant en leur sein ont engendré la plupart des noyaux atomiques. Ceux de carbone, si importants pour la vie, ont résulté de la fusion de noyaux plus légers. Tous ces résultats, vertigineux et cruciaux, ont obligé la cosmologie à intégrer une dimension historique. Ce n’est pas pour autant que nous comprenons mieux l’origine proprement dite de l’univers. Le commencement du récit n’est pas le commencement de l’histoire, encore moins l’origine du monde. Le récit n’inclut pas d’instant « zéro », encore moins quoi que ce soit qui l’aurait précédé ou qui pourrait être considéré comme sa cause. Décliner une partie de l’évolution cosmique, et la généalogie des métamorphoses qui l’ont jalonnée, n’implique nullement le dévoilement d’une quelconque genèse, au sens fort du terme. L’« âge de l’univers » évoqué par les cosmologues ne court pas depuis sa création, mais seulement depuis la plus ancienne étape, baptisée ère de Planck, auquel notre arsenal théorique nous donne accès. Les « origines » dont parle la science apparaissent toujours comme relatives : ce sont des processus qui évoquent la structuration de constituants (particules, nuages de gaz,…) en systèmes plus complexes (atomes, étoiles,…). Autrement dit, il s’agit toujours d’une transition d’un état à un autre que nous interprétons comme l’apparition d’un nouvel objet, le commencement de son histoire. La science ne semble donc pas pouvoir aborder la notion d’origine dans un sens absolu, car ce qu’elle décrit n’est jamais une création ex nihilo, un passage du non-être (rien, absolument rien n’existe) à l’être (quelque chose existe). Elle ne 40 traite donc pas de l’origine proprement dite de l’univers, que le mot origine soit pris dans son acception chronologique ou causale. La science se construit à partir de principes, en définissant ses lois et ses objets. De ces derniers, elle prétend décrire les évolutions, les transformations, donnant parfois un nouveau nom (atome plutôt qu’agglomérat de particules élémentaires) à un nouvel arrangement qui apparaît et se stabilise. Elle ne possède aucune capacité à décrire une transition de l’absence d’objet à la présence d’objet, à décrire l’apparition d’un objet premier, en particulier de l’univers primordial. Rien n’y permet de traiter de son apparition à partir de rien : en l’absence de l’espacetemps, en l’absence de substance originelle, la physique n’a plus d’objet ; il n’y a plus de processus qui relève de sa description. Le mot big bang – au demeurant bien mal choisi - ne désigne pas une origine (qui, on l’aura compris, échappe par nature à la science) mais le récit historique dont, malgré parfois quelques excès de langage, les scientifiques connaissent la portée limitée. On nous opposera quelques articles scientifiques « sérieux » qui évoquent la création de l’univers à partir de rien. Nous répondrons en évoquant l’abus de langage. Le « rien » qu’évoquent ces articles, au demeurant très spéculatifs, est bel et bien quelque chose : la physique moderne le qualifie de « vide », mais c’est un objet précis de la théorie, qui possède des attributs spatio-temporels, une énergie, qui obéit à des lois précises. Et qui évolue. Ce qui lui permet précisément d’engendrer une phase ultérieure, processus que les articles mentionnés assimilent à une « création ». D’autres versions évoquent l’explosion d’un trou noir originel mais peu importe, on retrouve toujours un objet préexistant, obéissant aux lois de l’univers, et dont on ne peut donc aucunement considérer qu’il serait hors de ce dernier. Contrairement à ce que leur appellation laisse accroire, ces remarques valent également pour les modèles dits « de pré-big bang » qui tentent aujourd’hui de décrire la phase (hypothétique) qui aurait précédé l’expansion de l’univers, c’està-dire celle antérieure à ce que nous appelons le big bang. Différentes versions de ces modèles ont été proposées à partir de certains principes de la théorie des supercordes, notamment par Gabriele Veneziano et Maurizio Gasperini. L’idée sur laquelle ils s’appuient est qu’avant le big bang l’univers aurait connu une évolution symétrique de celle qu’il a eue après le big bang : au cours de cette phase de pré-big bang, la densité de matière, au lieu de décroître comme dans l’univers actuel, devient de plus en plus élevée, la température augmente, tandis 41 que les dimensions de l’univers diminuent, jusqu’à ce que la densité d’énergie et la température atteignent les valeurs maximales permises par la théorie des supercordes. À ce moment-là, l’univers rebondit en quelque sorte sur lui-même : au lieu de se contracter, il se dilate ; toutes les grandeurs qui augmentaient se mettent à décroître, et vice versa. Ce phénomène de renversement, ou de rebond, c’est ce que nous appelons le big bang. L’univers antérieur au big bang peut être vu comme une sorte d’image « miroir » de l’univers postérieur au big bang, qui lui-même n’est plus qu’une transition entre deux phases distinctes de l’univers. Ces théories permettent de donner corps à l’idée d’un univers qui aurait précédé notre univers actuel. Mais elles ne parviennent à le faire qu’en mettant en place de nouvelles notions qui, loin de répondre à la question de l’origine, ne font que l’évacuer, la déplacer, ou la démultiplier : comment est apparu l’univers antérieur à notre univers actuel ? Et quelle est son origine, et l’origine de son origine, et ainsi de suite ? La question du début est donc sans fin. Car même si de futures lois physiques nous permettaient un jour de décrire l’origine de l’univers, nous nous demanderions aussitôt, puis indéfiniment : qu’est-ce qui est à l’origine de ces lois ? Et à l’origine de l’origine de ces lois ? 42 LES QUESTIONS QUI RESTENT OUVERTES EN PHYSIQUE DES PARTICULES Si l’on pouvait mettre des lunettes à la nature, on y verrait clair, les jours de brume. Jorge Luis Borges Au cours du XXe siècle, les « conquérants du minuscule » qui, il y a cent ans, doutaient encore de l’existence de l’atome, ont accompli des progrès spectaculaires. Ils sont d’abord parvenus à identifier puis à classifier de très nombreuses particules. Et puis surtout, ils ont démontré que la force électromagnétique et la force nucléaire faible, bien que très dissemblables en apparence, n’étaient pas indépendantes l'une de l'autre : dans un passé très lointain de l’univers, elles ne faisaient qu’une seule et même force, qui s’est par la suite dissociée. Cette démarche unificatrice a pu être étendue, dans une certaine mesure, à l’interaction nucléaire forte, responsable de la cohésion des noyaux atomiques. Le résultat obtenu, qui permet de décrire trois des quatre forces fondamentales grâce à des principes mathématiques semblables, est d’une puissance considérable. Il constitue le « modèle standard » de la physique des particules, qui a été très finement testé grâce à de gigantesques collisionneurs de particules. Mais les physiciens savent que, même si sa consistance et sa robustesse sont aujourd’hui bien établies, des problèmes d’ordre conceptuel apparaissent dans le modèle standard lorsqu’il s’agit pour d’affronter des conditions physiques plus extrêmes que celles qui ont été explorées expérimentalement jusqu’à ce jour. D’abord, à très petite distance, les principes sur lesquels le modèle standard s’appuie entrent en collision violente les uns avec les autres, de sorte que les 43 équations ne fonctionnent plus. C’est l’indice qu’un nouveau cadre conceptuel devient nécessaire pour décrire les phénomènes qui se sont déroulés à plus haute énergie, dans l’univers primordial : « nous sommes dans une pièce avec une porte dans un coin, mais personne ne sait ce qu’il y a derrière », résume John Ellis, un éminent théoricien du CERN. Ensuite, le modèle standard laisse à la marge la quatrième force, la gravitation, qui elle est décrite, toute seule dans son coin, par la relativité générale. Comment l’intégrer ? Ou, si on ne peut pas l’intégrer, comment construire un cadre synthétique permettant de décrire à la fois la gravitation et les trois autres forces ? L’affaire s’annonce plus que délicate, car, comme nous l’avons déjà dit, l’espace-temps du modèle standard de la physique des particules est plat et rigide tandis que celui de la relativité générale est souple et dynamique. Mais ce n’est pas la seule question. D’autres difficultés d’ordre théorique persistent et certaines questions cruciales attendent des réponses précises. Nous nous proposons, dans les pages qui vont suivre, d’expliciter certaines des interrogations des physiciens, à propos desquelles ils attendent des éclairages dans les dix ou vingt années qui viennent, en provenance de la théorie, de l’expérience (notamment du LHC), ou de l’observation astrophysique. D’où vient que les particules possèdent une masse (inertielle) ? Souvent, le public se pose la question de savoir comment des particules sans masse, tel le photon, peuvent exister7. Les physiciens, quant à eux, se pose la question inverse : comment des particules ont-elles pu acquérir de la masse ? Plus précisément, ils essaient aujourd’hui de comprendre l’origine de la masse des particules en étudiant la manière dont celles-ci se propagent dans le vide quantique. L’idée qu’ils explorent consiste à considérer que la masse des particules ne serait pas une propriété intrinsèque des particules elles-mêmes : elle serait liée à la manière dont celles-ci interagissent avec la structure 7 La théorie de la relativité rend cette existence possible, en attribuant une énergie y compris aux particules sans masse. Seulement, de tels objets ne peuvent pas connaître le repos. En effet, s’ils étaient immobiles, leur inertie serait nulle et ils pourraient être accélérés instantanément jusqu’à la vitesse limite, c’est-à-dire jusqu’à la vitesse de la lumière. Ce paradoxe disparaît si l’on admet que de tels objets se déplacent toujours à la vitesse limite : ils ne peuvent alors être ni accélérés ni ralentis, mais ils peuvent gagner ou perdre de l’énergie sans que cela affecte leur vitesse…. 44 quantique du vide. Pour traiter les interactions, le modèle standard s'appuie, comme nous l’avons dit, sur un certain nombre de principes de symétrie très efficaces du point de vue des prédictions qu’ils permettent de faire. Mais ils posent aussi un problème irritant. Ils impliquent en effet que les particules d'interaction doivent avoir… une masse nulle, c’est-à-dire n’opposer aucune résistance au mouvement ! En effet, au vu des équations, la nature même des champs de jauge semblent garantir leur caractère non massif. C'est effectivement le cas du photon, le médiateur de l’interaction électromagnétique, mais pas du tout celui des particules W+, W- et Z0 qui médiatisent l’interaction nucléaire faible : leur masse, dûment mesurée, est très élevée. Elle vaut même près de cent fois la masse d’un proton. Cette contradiction flagrante entre la théorie et l’expérience a pu être résolue au cours des années 1960. La solution, qui n’est encore que théorique, a été proposée par trois physiciens, d’abord par deux belges, François Englert et Robert Brout, puis, de façon indépendante, par un écossais, Peter Higgs. Elle consiste à invoquer une « brisure spontanée de symétrie », phénomène bien connu en physique de la matière condensée et qui, appliquée à la physique des particules, permet d’avancer dans la compréhension des forces à courte portée. Mais qu’est-ce donc qu’une « brisure spontanée de symétrie » ? Considérons cette analogie : une table ronde est dressée de telle sorte que chaque verre se situe à égale distance entre chaque assiette. Or les convives sont ambidextres : pour eux, se saisir d’un verre, plutôt que d’un autre, revient au même. Supposons également qu’aucune règle de politesse ou de savoir-vivre ne vienne imposer l’une ou l’autre des deux possibilités. L’ensemble forme donc un système parfaitement symétrique. Pourtant, si une personne choisit de prendre le verre placé à sa droite, les autres devront faire de même pour disposer de leur propre verre. Ce résultat final est le fruit du hasard. C’est exactement ce qui se produit dans les phénomènes physiques de brisure spontanée de symétrie. Ils se manifestent notamment dans les ferromagnétiques tels que le fer ou le nickel. Ces matériaux sont constitués de petits aimants microscopiques qui ont tendance à s’aligner parallèlement les uns aux autres. À haute température, ils s’orientent toutefois dans toutes les directions de l’espace sous l’effet de l’agitation thermique. Lorsque la température diminue en dessous d’un certain seuil, les aimants s’alignent dans la même direction, et le matériau 45 devient aimanté. Si le matériau est suffisamment grand pour que les effets de surface soient négligeables, et si celui-ci n’est soumis à aucun champ magnétique extérieur, il est impossible de déterminer à l’avance quelle sera sa direction : il suffit que deux aimants microscopiques interagissent et s’alignent pour que tous les autres fassent de même dans cette direction particulière là. La brisure de symétrie est bien spontanée dans ce cas, car indépendante de toutes considérations énergétiques. On peut risquer une seconde analogie, qui aidera à mieux saisir de quoi il est question : posons une bille au fond d’une bouteille, dont le profil ressemble à celui d’une bosse ; parmi toutes les positions possibles, la plus symétrique est celle située au centre, c’est-à-dire à l’endroit le plus haut ; mais cette position est si instable que, si on la pose là, la bille roulera vite vers le bord, en suivant une direction quelconque (soit vers la droite, soit vers la gauche, soit vers l’avant, soit vers l’arrière) ; la position finale qu’elle occupera sera moins symétrique que sa position initiale (elle aura suivi une direction particulière alors que toutes les directions étaient au départ équivalentes), et son énergie finale sera aussi plus faible qu’au départ (puisqu’en tombant vers une position plus basse, elle aura perdu de l’énergie potentielle). On a donc là l’exemple d’un système dont la dynamique a tendance à réduite la symétrie qu’il avait au départ : l’état final, celui de moindre énergie, est moins symétrique que l’état initial. Il ya donc eu « brisure spontanée de symétrie ». Armés de cette nouvelle idée, revenons à notre problème de masses : l’idée des trois physiciens que nous venons de citer a été d’imaginer qu’une brisure spontanée de symétrie, semblable à ce qui se produit avec l’aimantation des corps ferromagnétiques, a pu façonner la structure des forces à courte portée. Le mécanisme de cette brisure aurait structuré l’espace vide de particules (ce qu’on appelle le « vide quantique »), de manière à conférer une masse aux bosons de jauge couplés à cette structure. Une force à longue portée se transformerait ainsi en une force à faible portée. Les bosons de jauge massifs conservent alors certaines propriétés des bosons de jauge de masse nulle. Mais pour cela, il faut introduire l’existence d’une nouvelle particule, le boson de Higgs, qui fournit la dynamique nécessaire à cette brisure de symétrie. Cette particule est elle-même massive. Contrairement aux bosons de jauge, elle est 46 qualifiée de « « scalaire », ce qui signifie que le champ qui la transporte ne comporte pas de direction de polarisation. Lorsque cette brisure spontanée s’est produite dans l’univers primordial, l’interaction électromagnétique et l’interaction nucléaire faible, jusque-là confondues et médiatisées par quatre ballons de masse nulle (trois plus un), se seraient brusquement différenciées ; elles seraient devenues, l’une et l’autre, telles que nous les connaissons aujourd’hui, la première avec une portée infinie, transmise par un seul ballon médiateur dépourvu de masse, la seconde avec une portée très courte, transmise par trois ballons médiateurs de masse non nulle. Il a été démontré que ce mécanisme de Higgs serait capable de conférer, sinon une masse non nulle, du moins l’apparence d’une masse non nulle aux particules W+, W- et Z0, qui étaient initialement dépourvues de masse. Ce faisant, ce mécanisme devrait avoir réduit, de façon drastique, la portée de l’interaction nucléaire faible. Il pourrait par extension expliquer l’origine de la masse de toutes les particules constitutives de la matière, car l’idée sous-jacente à cette conjecture est que les particules de l’univers heurtent sans cesse des bosons de Higgs, qui sont présents dans tout l’espace, ce qui ralentit leurs mouvements de la même façon que si elles avaient une masse. Dans ce contexte, dire d’une particule qu’elle est très massive revient à dire qu’elle interagit très fortement avec le boson de Higgs. Bien sûr, les particules qui n’interagissent pas avec ce champ ne possèdent aucune masse. Cette idée constitue une solution satisfaisante et est en parfaite adéquation avec les théories et les phénomènes établis. Le problème est que personne n’a jamais observé le boson de Higgs lors d'une expérience pour confirmer cette théorie. Il faut dire qu’il y a une difficulté : le modèle standard ne fournit que des indications très vagues sur la masse possible du boson de Higgs. Les accélérateurs de particules doivent donc balayer des gammes d’énergie très importantes, ce qui est laborieux sur le plan de l’analyse des résultats et prend beaucoup de temps. Mais la difficulté principale est que cette particule semble être très lourde. Pour espérer la détecter, il faut donc atteindre des niveaux d’énergie très élevés. Grâce aux résultats du LEP, la précédente machine du CERN, et à ceux du Tevatron, on sait que sa masse est supérieure à 114 GeV. Des considérations théoriques suggèrent par ailleurs qu’elle ne dépasse pas 180 GeV. Grâce au LHC et aux quarante millions de collisions de particules par 47 seconde qu’il sera capable de produire, les physiciens pourront explorer toute la gamme de masses dans laquelle le boson de Higgs est censé se trouver. Autrement dit, si le boson de Higgs existe, le LHC finira par en apporter la preuve. Mais si ce boson s’avère introuvable, les physiciens auront le champ libre pour élaborer une théorie complètement nouvelle afin d’expliquer l’origine de la masse des particules, par exemple en proposant qu’existent des dimensions supplémentaires d’espace, ou bien une nouvelle force, ou bien encore en faisant l’hypothèse que le boson de Higgs serait une particule non pas élémentaire mais composite. Le LHC n’est pas un outil de précision au sens où il permet de faire des collisions de protons, qui sont des particules composites : se produiront en réalité des collisions quark-quark, avec des énergies très variables. Pour parvenir à produire le boson de Higgs, il faudra donc faire des milliards de collisions pour en extraire quelques-unes, ce qui pourrait prendre plusieurs années. Mais en tout état de cause, nous devrions finir par savoir si le boson de Higgs est un objet bien réel, comme le sont les autres particules décrites par le modèle standard, ou bien s’il ne s’agit que d’un artifice mathématique qui aurait abusivement séduit les physiciens. Car l’énergie des collisions du LHC, donc la masse disponible pour produire des particules, a en effet été choisie pour couvrir tout le domaine possible pour le boson de Higgs. Mais il ne faut pas oublier que le Tevatron est toujours en fonctionnement. Dans ce dernier, des protons entrent en collision avec des antiprotons (à la différence du LHC où les seules particules en collision seront des protons), et avec une énergie maximale sept fois moindre qu’au LHC. Le Tevatron explore donc un domaine de masses pour le Higgs plus faibles que le LHC, mais il n’est pas tout à fait exclu qu’il lui « vole » la découverte. La plus faible énergie du Tevatron est en effet compensée en partie par un bruit de fond moins grand : la présence des antiquarks de l’antiproton pourrait permettre de produire le boson de Higgs dans des conditions plus favorables, et plus faciles à distinguer du tout-venant des collisions. Dans tous les cas, l’affaire ne sera pas simple : on ne reconnaîtra certainement pas le boson de Higgs comme on reconnaît sa voisine dans la rue. Et surtout, il n’apparaîtra pas « d’un seul coup ». En effet, rien n’est plus indirect que la détection d’une telle particule. Pareille prise scientifique nécessitera l’analyse statistique d’un très grand nombre d’événements, qui ne pourront être 48 accumulés qu’au bout de longues périodes d’acquisition. En d’autres termes, cette particule, si elle existe, ne se donnera à « voir » qu’au prix de multiples médiations de toutes sortes, théoriques aussi bien qu’instrumentales ou expérimentales, qui prendront nécessairement du temps. Qu’est l’antimatière devenue ? On sait aujourd’hui que la matière de l’univers est constituée presque exclusivement de particules, et non pas d’antiparticules : en d’autres termes, il n’existe pratiquement pas d’antimatière en dehors des laboratoires dans lesquels des physiciens en fabriquent. Mais on sait également qu’il n’en a pas toujours été ainsi : dans son passé lointain, l’univers contenait presque autant d’antiparticules que de particules. La question qui se pose est donc la suivante : étant donné que particules et antiparticules ont des propriétés symétriques et qu’elles subissent exactement les mêmes forces, comment se fait-il que notre monde soit constitué des premières plutôt que des secondes ? On sait que les galaxies sont des îlots de matière dans l’espace. Certaines d’entre elles ne pourraient-elles pas être exclusivement composées d’antimatière ? Cette hypothèse n’a pas résisté aux observations, car l’existence de collisions entre galaxies de matière et galaxies d’antimatière devrait produire, par annihilation, un rayonnement très énergétique et très intense, occupant toutes les directions du ciel mais qui n’a jamais été observé. En outre, personne n’est parvenu à imaginer un processus qui aurait pu séparer totalement la matière de l’antimatière de façon à ce qu’elles puissent former ensuite de grandes structures homogènes. Nous sommes donc condamnés à admettre l’existence d’une dissymétrie dans notre univers : la matière y domine, l’antimatière y a été éliminée. Le modèle standard de la cosmologie prédit que l’univers primordial devait contenir autant de matière que d’antimatière, toutes deux à l’équilibre, s’annihilant et se créant en permanence au sein d’un gaz de photons. L’expansion de l’univers est venue refroidir progressivement ce milieu, diminuant l’énergie disponible dans un volume donné. Les particules les plus massives, qui requièrent davantage d’énergie pour se matérialiser, ont disparu les premières, donnant naissance par leur désintégration à d’autres particules moins lourdes. Les plus légères ont subsisté, leurs distances mutuelles augmentant 49 progressivement du fait de l’expansion. Leur densité a décru corrélativement, rendant les annihilations de moins en moins fréquentes. Mais tout cela n’a pas suffi à déséquilibrer les quantités de matière et d’antimatière. Reste donc à imaginer un mécanisme par lequel la seconde a pu disparaître au profit de la première dans un passé très lointain de l’univers. C’est un futur prix Nobel de la paix, Andreï Sakharov qui, le premier (en 1967) envisagea la possibilité d’un excédent ténu de matière sur l’antimatière, indiquant au passage les trois conditions nécessaires à l’apparition d’une telle dissymétrie (parmi elles figure le fait que certaines particules doivent ne pas se comporter, en toutes circonstances, exactement comme leurs antiparticules : c’est ce qu’on appelle la « violation de la symétrie CP », déjà observées sur certaines particules, telles les kaons neutres ou les mésons beaux). Il expliqua que si les trois conditions qu’il a énoncées ont bien été satisfaites, le nombre de protons et de neutrons produits au début de l’univers (et qui constituent notre matière actuelle) a pu être très légèrement supérieur à celui des antiprotons et des antineutrons. Après l’annihilation de l’antimatière par la matière, toute l’antimatière aurait disparu, ainsi que la plus grande partie de la matière, mais l’excédent de matière, qui était extrêmement faible (dans la proportion d’un pour un milliard environ) aurait subsisté : il constituerait la matière que nous observons aujourd’hui ainsi que celle dont nous sommes faits. La matière de l’univers actuel serait donc l’improbable rescapée d’un gigantesque carnage. C’est cette conjecture qu’il convient désormais de confirmer ou d’infirmer. Pendant longtemps, les physiciens se sont demandés si les petites différences de comportements entre quarks et antiquarks permettraient d’expliquer pourquoi la matière a fini par triompher. Mais aucun élément de réponse n’a été apporté et leur espoir se porte maintenant sur les neutrinos. Cette nouvelle piste pourrait être prometteuse, mais les résultats expérimentaux font encore défaut. De plus, sur le plan théorique, le lien entre ces hypothétiques différences et l’absence d’antimatière dans l’univers n’a pas été fait. Existe-t-il des « sparticules » ? Qu’est-ce donc que cette « supersymétrie » dont parlent aujourd’hui les physiciens des particules ? Nous connaissons déjà les symétries qui régissent les interactions électromagnétiques et faibles, ainsi que les interactions fortes. Il y a 50 aussi les symétries d’espace-temps : translations, rotations et transformations de Lorentz (qui font jouer des rôles symétriques à l’espace et au temps dans l’espace-temps à quatre dimensions de la relativité restreinte). La supersymétrie est, quant à elle, une symétrie d’un type spécial. Proposée dans les années 1970, il s’agit d’une structure mathématique permettant en principe d’associer des particules ayant des spins différents. Plus précisément, elle doit associer les bosons, de spins entiers, aux fermions, de spins demi-entiers, et ce alors même que leurs comportements statistiques sont par essence très différents. La supersymétrie peut-elle être véritablement une symétrie des lois fondamentales de la nature ? Si tel est le cas, il serait naturel de chercher à l’utiliser pour relier les bosons de spin 1 dont les échanges sont responsables des interactions (c’està-dire le photon, les bosons intermédiaires et les gluons) aux constituants de la matière (c’est-à-dire les leptons et les quarks) qui, eux, sont des fermions de spin ½. On tiendrait là une très attirante unification entres la matière et ses interactions. C’est d’ailleurs l’espoir qui a avait été formulé au départ, lors de l’ébauche de la théorie. Mais en réalité, les choses ne sont pas aussi simples. On a imaginé par la suite que chaque particule connue a sa propre image par supersymétrie, mais que celle-ci nous soit inconnue. Le photon serait ainsi associé au « photino », les gluons aux « gluinos », le graviton au « gravitino », l’électron au « sélectron », les quarks aux « squarks », et ainsi de suite. Plus généralement, on est amené à supposer l’existence, pour toutes les particules connues, d’hypothétiques superpartenaires, aussi appelées « sparticules », dont les spins diffèrent de ceux des particules ordinaires d’une demi-unité de moment cinétique. Cette opération a évidemment pour effet immédiat de doubler l’effectif total des particules élémentaires. Bien qu’aucune preuve expérimentale ne soit encore venue l’étayer (aucun partenaire supersymétrique des particules aujourd’hui connues n’a été découvert), la supersymétrie a séduit un grand nombre de physiciens. Quels sont leurs arguments ? D’abord, parce qu’elle semble nécessaire à une grande unification des interactions électromagnétiques et faibles avec les interactions fortes. Ensuite, parce que la supersymétrie, qui constitue une extension des deux grands cadres conceptuels que sont la physique quantique et la relativité générale, s’exprime de façon naturelle dans le cadre d’un enrichissement de l’espace-temps par de nouvelles coordonnées, dites « fermioniques » : la relativité générale, où l’espace-temps est courbe, conduit à une description de la 51 gravitation liée aux déformations de cet espace. La supersymétrie apparaît enfin indispensable à la cohérence de la théorie des cordes et autres objets étendus, que beaucoup considèrent comme pouvant conduire à une théorie unifiée de toutes les interactions, y compris la gravitation. Les sparticules se distinguent des particules ordinaires par une caractéristique appelée R-parité, intimement liée à leur spin, ainsi qu’à leurs nombres baryoniques et leptoniques. Elles ont toutes une R-parité négative (égale à -1), alors que les particules ordinaires ont une R-parité positive (égale à +1). La plupart de ces sparticules doivent se désintégrer au bout d’un temps extrêmement court. Seule la plus légère doit rester stable, si la R-parité est bien conservée. On l’appelle le « « neutralino ». Ses caractéristiques en font le candidat privilégié pour former la majeure partie de la matière noire (voir ciaprès). Il devrait notamment être une trentaine de fois plus lourd que le proton. Pour confirmer cette hypothèse, il serait intéressant de pouvoir détecter la production directe, artificielle, de ce neutralino dans des collisions de haute énergie. Pour ce faire, il faut accélérer des particules « normales » (par exemple des protons comme ceux du LHC) jusqu’à ce que leur énergie soit si élevée que des particules super-symétriques pourront apparaître à l’issue de collisions très violentes. La théorie précise même que ces particules supersymétriques devraient apparaître par paires, puis que chacune d’elle devrait se désintégrer en une particule ordinaire et une autre particule supersymétrique. De tels phénomènes, s’ils ne sont pas des hallucinations de théoriciens et si leur masse n’est pas trop élevée, devraient pouvoir être observés grâce au LHC. De quoi est faite la matière noire ? Depuis plusieurs décennies, l’observation de plus en plus minutieuse des galaxies sème le trouble. Car la seule façon de comprendre les valeurs des vitesses qu’ont les étoiles au sein d’une galaxie, si l’on fait l’hypothèse que les lois de la gravitation sont celles que nous connaissons, est de supposer que la partie visible des galaxies est enveloppée par une masse énorme de matière invisible, la matière « noire ». Tout récemment, d’autres phénomènes sont venus renforcer le crédit qu’il faut accorder à cette idée. Par exemple, on sait que la lumière est déviée par des masses élevées. Or, pour nous parvenir, la lumière issue de certaines galaxies lointaines a dû passer à proximité d’un amas de 52 galaxies. Sa trajectoire a donc été distordue en cours de route, comme si elle était passée au travers d’un système optique. La galaxie nous apparaît dès lors non plus comme un point brillant, mais comme un arc lumineux (on parle de « mirages gravitationnels »). De la forme et des dimensions de ces arcs, on peut déduire la masse de l’amas de galaxies responsable de cette déformation. Et le résultat est sans ambiguïté : la masse de l’amas ainsi mesurée est en réalité dix fois supérieure à sa masse apparente, c’est-à-dire à la masse que révèlent les étoiles visibles qu’il contient. Il y a donc bien de la masse invisible, une matière noire qui agit gravitationnellement mais n’émet pas de lumière. Notons que le choix du qualificatif « noire » pour désigner cette nouvelle sorte de matière n’est pas idéal. Certes, cette matière est noire au sens où elle demeure mystérieuse, où son statut est obscur, mail elle n’est nullement noir au sens physique du terme. Il s’agit d’une matière qui n’émet ni n’absorbe de lumière, et qui est même parfaitement transparente à la lumière. En somme, sa présence est perçue par les gravitons, mais pas par les photons. De quoi cette matière noire est-elle faite ? Se pourrait-il qu’elle soit constituée de particules que nous connaissons déjà, par exemple de neutrinos ? Beaucoup de physiciens l’ont pensé dans un premier temps, mais cette hypothèse est aujourd’hui de moins en moins probable. S’agit-il alors d’une matière composée de particules radicalement nouvelles ? Sans doute. Mais lesquelles ? Les neutralinos que nous venons d’évoquer pourraient-ils faire l’affaire ? Sans doute, mais à la condition qu’ils… existent, ce qui n’a pas encore pu être démontré. D’où provient l’accélération de l’expansion de l’univers ? Grâce à la mise en service de nouveaux moyens de détection, de très nombreuses données ont pu être recueillies ces dernières années en provenance de l’univers. précisément Les la astrophysiciens lumière émise sont par notamment certaines étoiles parvenus lointaines à analyser en cours d’explosion, qu’on appelle des « supernovae ». Et ce qu’ils ont découvert n’a pas manqué de les étonner. Les supernovae lointaines qu’ils ont observées correspondent à des explosions d’une extraordinaire brillance. Elles sont constituées d’une petite étoile très dense, appelée naine blanche, accouplée à une étoile compagnon plus massive. Les naines blanches ont une masse à peu près égale à celle du Soleil, mais 53 concentrée dans un volume égal à celui de la Terre, de sorte que leur champ gravitationnel est très intense. D’où leur terrible voracité : elles arrachent puis absorbent la matière de leur compagne. Cette orgie augmente leur masse et leur densité, jusqu’à provoquer une explosion nucléaire gigantesque. Celle-ci est rendue visible par l’émission d’une lumière très intense qui persiste pendant plusieurs jours. L’objet brille alors autant qu’un milliard de soleils. L’intérêt cosmologique de tels événements vient de ce qu’ils servent d’étalons lumineux. Ils constituent des « bougies standard » permettant d’arpenter l’univers à grande échelle. Cette vertu vient de ce que leurs « courbes de lumière » se ressemblent étroitement, avec d’abord un pic de brillance qui dure quelques semaines, suivi d’un affaiblissement plus lent. Toute différence observée entre deux courbes de lumière ne peut donc venir que de la distance : plus la supernova est éloignée, plus la lumière que nous recevons d’elle est faible. À partir d’une mesure de l’intensité de cette lumière, on peut donc calculer la distance de l’étoile qui l’a émise, de la même façon qu’on peut évaluer la distance d’une voiture en comparant la luminosité apparente de ses phares à leur luminosité intrinsèque. Les résultats obtenus ont montré que ces supernovae sont plus éloignées que ce que prévoyaient les modèles cosmologiques « classiques » ! Ils ont permis de démontré que l’expansion de l’univers, contrairement à ce qu’on avait imaginé jusque là, est en phase d’accélération depuis plusieurs milliards d’années. Qu’est-ce à dire ? Dans le processus d’expansion, la gravitation, toujours attractive, fait office de frein : elle tend à rapprocher les objets massifs les uns des autres, de sorte que la matière ne peut que ralentir l’expansion. Mais ce que semble montrer les mesures dont nous parlons, c’est qu’un autre processus s’oppose à elle en jouant au contraire un rôle d’accélérateur. Tout se passe comme si une sorte d’anti-gravité avait pris la direction des affaires, obligeant l’univers à augmenter sans cesse la vitesse de son expansion. Quel est le moteur de cette accélération ? Personne ne le sait de façon certaine. Alors, bien conscients de leur ignorance, les physiciens parlent d’une mystérieuse « énergie noire ». Les plus courageux avancent quand même quelques hypothèses sur sa nature. L’énergie noire pourrait par exemple être la « constante cosmologique ». Ce paramètre, qu’Einstein avait introduit en 1917, correspond en effet à une sorte de répulsion de l’espace vis-à-vis de lui-même. Dès lors, si sa valeur est non 54 nulle, il devrait imprimer une accélération de l’expansion de l’univers. Mais d’autres pistes sont évoquées. Par exemple, on ne peut pas exclure que l’énergie noire provienne d’une « matière exotique », capable, au contraire de la matière habituelle, d’accélérer l’expansion. Cette matière exotique, radicalement différente de la matière que nous connaissons, représenterait jusqu’à soixantedix pour cent de la masse de l’univers. Mais de quoi est-elle faite ? La question, là aussi, reste posée. Enfin, certains physiciens évoquent, comme autres candidats possibles, le vide quantique, même si rien ne permet d’affirmer qu’il exerce une influence gravitationnelle sur l’univers, ou bien des dimensions d’espace supplémentaires, ou bien une mystérieuse « quintessence », ou bien suggèrent des modifications des lois de la gravitation, ou bien disent que le champ associé au boson de Higgs pourrait à lui seul faire l’affaire... Reste que, même si nous ne connaissons pas leur nature, matière noire et énergie noire existent bel et bien. Ce qui est donc désormais certain, c’est que la matière visible, ordinaire, celle qui compose les étoiles, les galaxies, et est benoîtement constituée d’atomes, n’est en réalité qu’une frange du contenu de l’univers, sa petite écume visible. Elle ne représente que trois ou quatre pour cent du total, pas plus. Voilà de quoi rendre modestes les physiciens du XXe siècle, en dépit des multiples découvertes qu’ils ont faites… La « théorie des supercordes » sera-t-elle confirmée au LHC ? De nombreux physiciens pensent aujourd’hui que le dépassement nécessaire du modèle standard ne pourra se faire qu’en modifiant notre représentation des objets fondamentaux, et aussi celle de l'espace et du temps. Une piste est aujourd’hui à l’étude, celle de la théorie des supercordes. Ses premiers fondements ont été élaborés dans les années 1970, dans le but de bâtir un cadre général capable d’englober la physique quantique, qui décrit les particules élémentaires, et la relativité générale, qui décrit la gravitation. Ces deux théories sont en effet, nous l’avons vu, conceptuellement incompatibles : les particules quantiques sont décrites dans un espace-temps plat, absolu et rigide, alors que l’espace-temps de la relativité générale est souple et dynamique, en permanence déformé par les mouvements de la matière qu’il contient. 55 Dans la théorie des super-cordes, qui se propose de les dépasser l’une et l’autre, les particules ne sont plus représentées par des objets de dimension nulle, mais par des objets longilignes - des supercordes - qui vibrent dans un espace-temps dont le nombre de dimensions est supérieur… à quatre ! Plus précisément, la théorie remplace toutes les particules ponctuelles que nous connaissons par un unique objet étendu, la supercorde, qui vibre dans un espace-temps doté de six dimensions de plus que l’espace-temps ordinaire. Cette supercorde peut être ouverte (c’est-à-dire se terminer par deux extrémités) ou refermée sur ellemême, et ses différents modes de vibration correspondent aux différentes particules possibles : un mode correspond à l’électron, un autre au neutrino, un troisième au quark… Les particules habituelles, celles que nous connaissons, correspondent aux modes de vibration dont les fréquences sont les plus basses. D’autres particules plus lourdes correspondent aux modes dont les fréquences sont plus élevées. Elles restent à découvrir (si elles existent !). Des expériences sont donc indispensables pour valider ou au contraire invalider cette belle construction, qui n’a pour l’instant abouti à aucune prédiction vérifiable. Mais comment mettre en évidence des phénomènes physiques nouveaux liés à l’existence de dimensions supplémentaires de l’espace-temps ? Il y a quelques années, les physiciens imaginaient que la taille des dimensions supplémentaires ne pouvait être que la plus petite longueur qu’on sache décrire en physique et qui est la « longueur de Planck », voisine de 10-35 mètre. Dans ces conditions, toute manifestation d’un phénomène physique qui se déroulerait dans l’une de ces dimensions semblait largement hors de portée de nos moyens d’observation actuels, y compris des accélérateurs de particules les plus puissants. Le LHC sondera des distances de l’ordre de 10-19 mètre « seulement » en provoquant des collisions de deux faisceaux de protons de 7 TeV chacun (un TeV vaut 10 12 électronvolts, soit 1,6 10-7 joule). De telles distances, dix millions de milliards de fois plus grandes que la longueur de Planck, sont encore beaucoup trop importantes pour qu’on puisse voir se manifester auprès du LHC le moindre effet lié à l’existence des supercordes. C’est du moins ce qu’on a longtemps pensé. Car en 1996, coup de tonnerre : les physiciens se convainquent que la taille des dimensions supplémentaires est en réalité un paramètre libre de la théorie et qu’il n’y a donc aucune raison a priori de la fixer égale à la longueur de Planck. 56 Depuis lors, de nombreux théoriciens se passionnent pour l’idée qu’elle pourrait être de l’ordre de 10-18 mètre. S’ils ont raison, alors certains des effets liés aux dimensions supplémentaires de l’espace pourraient être détectés grâce au LHC. En résumé, on peut dire que si des indices en faveur des dimensions supplémentaires apparaissent, cela renforcera les tenants de la théorie des supercordes. Inversement, si la supersymétrie n’était pas confirmée au LHC, la théorie des supercordes serait fragilisée du fait qu’elle la présuppose. 57 UNE TENTATIVE DE PREVISION DES DECOUVERTES AU LHC Il est difficile de prévoir à quel rythme se feront les découvertes du LHC, ni en quoi elles consisteront, et cela pour au moins deux raisons. La première est que nous ne savons pas quelles sont les découvertes que la nature attend secrètement de livrer aux physiciens… La seconde est que le LHC est d’une complexité si extraordinaire que l’« apprivoisement » des détecteurs par les physiciens ne sera pas immédiat. Il est tout aussi difficile de savoir à l’avance quelle sera sa fiabilité et à quelle vitesse il pourra atteindre sa luminosité8 maximale. On peut néanmoins esquisser une sorte de scénario prospectif, basé sur le planning officiel du LHC, qui pourrait être le suivant : 2009 : La supersymétrie est confirmée, à condition qu’elle existe dans la nature et que l’échelle d’énergie à laquelle elle commence à sa manifester (squarks et gluinos) soit de l’ordre du TeV. 2009/2010 : Le boson de Higgs est découvert si sa masse est voisine de 180 GeV. Dans ce cas, il pourrait se désintégrer en paires de bosons W, offrant ainsi une signature aisément détectable, accessible avec une luminosité intégrée modeste. 2010 : Détection de nouvelles dimensions d’espace, si elles correspondent à des énergies de l’ordre de la dizaine de TeV. Elles seront détectées grâce à une production massive de mini-trous noirs qui s’évaporeront presque aussitôt. 2010-2011 : Le boson de Higgs est découvert si sa masse est voisine de 120 GeV. Dans ce cas, il se désintègrera pour partie en photons, comme d’autres particules produites par les collisions du LHC, ce qui obligera à disposer d’une plus grande statistique pour pouvoir l’identifier. 8 La luminosité d’un collisionneur de particules est l’une de ses caractéristiques les plus importantes. Proportionnelle à l’intensité des deux faisceaux qui s’y croisent et inversement proportionnelle à la surface transverse de ces faisceaux à l’endroit où ils se croisent, elle détermine, pour un processus physique donné, le rythme auquel ce processus peut être observé grâce à ce collisionneur : plus la luminosité est élevée, plus la fréquence d’observation du processus est grande. 58 2012 : Si les quarks sont des particules non pas élémentaires, mais composites, cela pourrait se voir à partir d’une statistique suffisante d’événements. 2017 : La supersymétrie est confirmée, dans l’hypothèse où elle ne se manifeste qu’à une énergie de l’ordre de 3 TeV. 59 Remerciements L’auteur tient à remercier très chaleureusement tous les physiciens du « groupe de travail LHC », tous membres de l’IRFU ou de l’IPhT, qui s’est régulièrement réuni de novembre 2007 à mai 2008 : Marc Besançon (SPP), Vincent Bontems (LARSIM), Gilles Cohen-Tannoudji (LARSIM), Frédréric Déliot (SPP), Alexei Grinbaum (LARSIM), Marc Lachièze-Rey (SAp), Alexandre Lefèvre (IPhT), Bruno Mansoulié (SPP), Jean-Yves Ollitrault (IPhT), Nathalie Palanque-Delabrouille (SPP), Hugo Pereira-da-Costa (SPhN), Robert Peschanski (IPhT), Vanina Ruhlmann-Kleider (SPP), Yves Sacquin (SPP), Carlos Savoy (IPhT), Florent Staley (SphN) et Pierre Vanhove (IphT). Leur disponibilité et leurs commentaires éclairés nous ont été très précieux, ainsi que l’intérêt continu qu’ils ont montré pour notre travail. 60 GLOSSAIRE Antiparticule : À toute particule est associée une antiparticule, de même masse et de charge électrique opposée. L’existence des antiparticules, et plus généralement de l’antimatière, avait été prédite dans les années 1930. Elle s’imposait, d’un point de vue théorique, aux yeux des physiciens qui tentaient d’unifier la relativité restreinte et la physique quantique afin de pouvoir décrire les particules très rapides. Atome : Entité composée d'un noyau (assemblage très compact de protons et de neutrons) et d'un nuage périphérique composé d'un cortège d'électrons. Baryon : Particule soumise à l’interaction nucléaire forte et composée de trois quarks. Boson de Higgs : Particule, non encore découverte, dont l’existence permettrait d’expliquer comment les particules ont acquis leur masse. Le boson de Higgs pourrait être détecté grâce au LHC, un puissant collisionneur de protons qui sera mise en service au CERN en 2008. Big bang : Modèle théorique, largement confirmé par les observations, d’après lequel l’univers a d’abord connu des conditions de température et de densités très élevées, qui se sont atténuées au cours de son expansion. Collisionneur de particules : Accélérateur dans lequel on réalise des collisions entre particules provenant de faisceaux circulant en sens inverse. Les collisionneurs actuels sont circulaires. Les prochains seront sans doute linéaires. Électromagnétisme : Science qui décrit les lois des phénomènes électriques et magnétiques, et plus généralement les phénomènes optiques et chimiques. Elle fut fondée au cours du XIXe siècle. C'est au physicien écossais James Maxwell (1831-1879) que l'on doit la première synthèse théorique de l'électromagnétisme, sous la forme des équations qui portent son nom. Électron : Particule élémentaire de charge électrique négative entrant dans la composition des atomes. Les interactions électromagnétiques entre électrons d’atomes voisins déterminent les liaisons chimiques qui associent les atomes en molécules. Électronvolt : Unité d’énergie utilisée en physique des particules. Un électronvolt correspond à 1.6 10-19 joule. Le MeV vaut un million de joules, le GeV un milliard de joules, et le TeV mille milliards de joules. Force électrique : c'est par elle que deux charges électriques se repoussent si elles sont de même signe et s'attirent si elles sont de signe opposé. L'intensité de cette force décroît comme l'inverse du carré de la distance séparant les deux charges. 61 Hadron : Particule sensible à l’interaction nucléaire forte. Il existe deux sortes de hadrons : les baryons, constitués de trois quarks, et les mésons, constitués d’un quark et d’un antiquark. Interaction électromagnétique : interaction qui est à la base de tous les phénomènes électriques, magnétiques, optiques, chimiques. Elle est omniprésente en physique. Interaction gravitationnelle : interaction toujours attractive, de longue portée, mais d’intensité beaucoup plus faible que celle des autres interactions fondamentales. Interaction nucléaire forte : interaction de courte portée qui assure les liaisons entre quarks et maintient ensemble les nucléons (composés de quarks) au sein du noyau des atomes. Interaction nucléaire faible : interaction responsable de certains phénomènes radioactifs, notamment la désintégration du neutron en un proton, un électron et un antineutrino. Lepton : Particule insensible à l’interaction nucléaire forte. Les leptons chargés participent aux interactions faible et électromagnétique. Les leptons neutres (neutrinos) ne subissent que l’interaction faible. Méson : Particule sensible à l’interaction nucléaire forte et composée d’un quark et d’un antiquark. Neutrino : Particule électriquement neutre, de masse très faible, produite lors de certaines réactions nucléaires, et qui n’interagit que très peu avec la matière. Il existe trois espèces de neutrinos. Neutron : Un des constituants du noyau atomique (avec le proton). Il est composé de trois quarks en interaction. Sa charge électrique est nulle. Lorsqu’il est seul, le neutron finit par se désintégrer en un proton, un électron et un antineutrino (au bout de quelques minutes). Noyau atomique : Cœur d’un atome, très dense, qui porte l’essentiel de sa masse. Tout noyau atomique est constitué de protons et de neutrons. Photon : Grain élémentaire de lumière, et plus généralement de rayonnement électromagnétique, la lumière visible n'étant qu'une des formes de ce dernier. Sa masse est nulle. Le photon véhicule l’interaction électromagnétique au niveau élémentaire. Physique quantique : Formalisme mathématique qui sous-tend toute la physique contemporaine, à l’exception de la théorie de la gravitation. Positron : Antiparticule (chargée positivement) de l’électron. Sa masse est exactement égale à celle de l’électron. 62 Proton : Un des constituants du noyau atomique (avec le neutron). Il porte une charge électrique positive. Comme le neutron, il est composé de trois quarks en interaction. Quark : Particule élémentaire composant les hadrons, c’est-à-dire les particules sensibles à l’interaction nucléaire forte. Il existe six sortes de quarks (six « saveurs », disent les professionnels). Relativité restreinte : Théorie élaborée par Einstein en 1905, qui introduit le concept d’espace-temps en remplacement des concepts jusqu’alors séparés d’espace et de temps. Elle a comme conséquence l’équivalence de la masse et de l’énergie. Une particule est dite « relativiste » si sa vitesse n’est pas négligeable devant celle de la lumière. Relativité générale : Théorie de la gravitation élaborée par Einstein en 1916. La gravitation n’y est plus décrite comme une force qui agit dans l’espace, mais comme une déformation de l’espace-temps, qui est courbé par la matière et l’énergie qu’il contient. Spin : Propriété interne des particules, analogue mais non identique au concept habituel de rotation sur soi-même. Le spin d'un électron, lorsqu'on le mesure le long d'une direction arbitraire, ne peut prendre que deux valeurs : soit h/4π, soit –h/4π, où h désigne la constante de Planck. Si l’on imaginait l’électron comme une petite sphère chargée, d’un rayon de l’ordre de 10-15 mètre, et si le spin correspondait à une rotation de cette sphère, alors la vitesse à la surface de celle-ci devrait être supérieure à celle de la lumière. L’existence même du spin oblige donc à renoncer à se faire un modèle de l’électron qui s’inspirerait de la physique classique. 63 Bibliographie - Michel Crozon, L’univers des particules, collection Points-Sciences, Éditions du Seuil, Paris, 2006. - Gordon Kane, Le Jardin des particules, l’univers tel que le voient les physiciens, Paris, Masson, 1996. - Gordon Kane, Super-symétrie, Paris, Le Pommier, 2003. - Étienne Klein, Petit voyage dans le monde des quanta, Paris, coll. « Champs », Flammarion, 2004. - Étienne Klein, Il était sept fois la révolution, Albert Einstein et les autres, Paris, Flammarion, 2005. - Étienne Klein, Les Secrets de la matière, Plon, 2008. - François Vannucci, Les Particules élémentaires, Paris, PUF, coll. « Que sais-je ? », 1992. - Les particules élémentaires, une grande énigme pour la physique, Les Dossiers de la Recherche, N°23, Mai-Juillet 2006. 64 65