1 LA PHYSIQUE DES PARTICULES A LA CROISEE DES CHEMINS

publicité
LA PHYSIQUE DES PARTICULES A LA CROISEE DES CHEMINS
Une introduction aux enjeux théoriques du LHC
Etienne KLEIN
DSM/LARSIM
--------------Mai 2008
----------------
1
Abstract
La physique des particules est une discipline vieille d’à peine un siècle qui nous
transporte, tels des touristes déroutés et hagards, en des mondes étranges où notre
intuition perd ses marques. Elle constitue aujourd’hui une activité à la fois ambitieuse et
discrète, imposante et mal connue : alors qu’elle a produit des résultats fascinants et
mobilise des moyens dont la taille suffit à impressionner, elle fait rarement parler d’elle.
Elle constitue pourtant une discipline frontière : dans son expression théorique, elle fait
appel à des concepts mathématiques très élaborés, fort éloignés des mathématiques
lycéennes. Dans son versant expérimental, elle se situe toujours à la limite des
possibilités technologiques du moment. Le monde de « l’infiniment petit », souvent
considéré comme impalpable, exige en effet une physique lourde. C’est même le prix à
payer pour espérer le prendre en filature.
Le savoir que les physiciens des particules ont accumulé n’est pas d’accès facile, et il est
de ce fait délicat à transmettre et à enseigner: foisonnant et parfois aride, il garnit les
rayons des bibliothèques des laboratoires, caché derrière des barricades de reliures.
Comment en délivrer les messages les plus importants aux non-physiciens ? Au LARSIM,
avec l’aide de physiciens nucléaires et de physiciens des particules du CEA, théoriciens
aussi bien qu’expérimentateurs, nous avons saisi l’occasion du démarrage prochain, au
CERN, du LHC (à la fin de 2008) pour nous poser cette question. L’enjeu est de taille,
puisque l’on sait d’ores et déjà que grâce à ce nouveau collisionneur de particules, plus
puissant
que
tous
les
autres
construits
auparavant,
des
découvertes
seront
immanquablement faites. Mais à quelles questions ces découvertes viendront-elles
apporter des éléments de réponse ? En d’autres termes, quels sont les enjeux théoriques
des gigantesques expériences qui se préparent ? Telles sont les interrogations que nous
avons voulu expliciter dans ce document, en gardant à l’esprit cette leçon laissée par
James Clerk Maxwell, le père des équations de l’électromagnétisme, il y a plus d’un siècle
et demi : « Tout développement de la science physique, écrivait-il, est susceptible de
produire une modification des méthodes et des concepts généraux de la pensée, en
d’autres termes de féconder la culture, mais à la condition impérieuse que ces nouvelles
idées soient rendues aussi intelligibles que possible. »1
1
Cité par Jacques Bouveresse dans Prodiges et vertiges de l’analogie, Editions Raisons
d’agir, 1999, p.55.
2
SOMMAIRE
INTRODUCTION
(p. 5)
DE L’INTERET D’ACCELERER DES PARTICULES (p. 9)
E= mc2, là où tout commence
Comment « voir » une particule ?
LES FORCES EN PRESENCE (p. 14)
Quelles sont les interactions « fondamentales » de l’univers ?
-
la gravitation
l’électromagnétisme
l’interaction nucléaire faible
l’interaction nucléaire forte
Pourra-t-on « unifier » les forces fondamentales ?
LES PARTICULES MISES EN JEU (p. 23)
Qu’appelle-t-on une particule de « haute » énergie ?
Lors d’une collision, les particules se brisent-elles en plusieurs morceaux ?
Qu’est-ce qu’un lepton ?
Qu’est-ce que l’antimatière ?
Qu’est-ce qu’un quark ? Et un gluon ?
Sur quels principes les détecteurs du LHC fonctionnent-ils ?
LES PARTICULES ET L’UNIVERS (p. 37)
Par quoi les collisions de particules révèlent-elles les débuts de l’univers ?
La question de l’origine de l’univers
LES QUESTIONS OUVERTES EN PHYSIQUE DES PARTICULES (p. 43)
D’où vient que les particules ont une masse ?
Qu’est l’antimatière devenue ?
Existe-t-il des « sparticules » ?
De quoi est faite la matière noire ?
D’où provient l’accélération de l’expansion de l’univers ?
3
La « théorie des supercordes » sera-t-elle confirmée au LHC ?
UNE TENTATIVE DE PREVISION DES DECOUVERTES AU LHC (p. 58)
Remerciements
GLOSSAIRE (p. 61)
Bibliographie
4
INTRODUCTION
Tout le monde n’a pas le bonheur de parler
chinois dans sa propre langue.
Jacques Lacan
En matière de physique des particules, nous devons nous attendre à des
surprises dans les années qui viennent, notamment grâce aux expériences du
LHC qui exploreront des conditions physiques encore jamais produites sur
Terre. Simple affaire de récurrence : tout au long de son histoire, la physique
des particules a régulièrement détruit des préjugés, démonté des certitudes,
ouvert des perspectives inédites. De ce fait, elle a pu s’incruster dans certains
débats fondamentaux. Il lui est même arrivé de faire des « découvertes
philosophiques négatives »2, au sens où elle a parfois modifié les termes en
lesquels certaines questions se posent à propos de la matière, de l’espace ou
du temps. Ses résultats les plus nets et les plus importants apportent en effet
des contraintes, des conditions aux limites, voire des démentis à des
conceptions métaphysiques qui prétendent décrire de façon trop précise les
lois du monde physique.
Mais qu’est-ce précisément que le LHC, le Large Hadron Collider, qui va
entrer en service à la fin de l’année 2008 ? Tout simplement la plus grande
expérience de physique jamais réalisée. Il s’agit d’un collisionneur de particules
de 27 kilomètres de circonférence, érigé par le CERN de part et d’autre de la
frontière franco-suisse, qui permettra de réaliser des collisions entre protons de
très haute énergie. On devine déjà la prouesse technique que constitue un tel
projet : deux faisceaux de dimensions infimes, parcourant en sens inverse et
2
On doit cette expression à deux des pères fondateurs de la physique quantique, Fritz
London et Edmond Bauer.
5
11245 fois par seconde un anneau de 27 kilomètres de circonférence à une
vitesse quasiment égale à la vitesse de la lumière, se percuteront frontalement,
et régulièrement, en des lieux parfaitement déterminés. Répartis tout au long de
l’anneau, 1252 aimants dipolaires supraconducteurs de 15 mètres de long,
refroidis à l’hélium superfluide, au champ magnétique très élevé, guideront les
protons sur leur trajectoire circulaire, tandis que des cavités radiofréquence
supraconductrices leur conféreront l’énergie requise.
Les collisions de protons à très haute énergie qui se produiront dans la machine
recréeront, de façon très localisée et très fugitive, les conditions physiques qui
furent celles de l’univers primordial, c’est-à-dire immédiatement après le big
bang. Grâce à ces chocs très violents et aux interactions entre particules qu’ils
engendreront, les physiciens pourront, entre autres choses, partir à la chasse
d’une particule dont ils pensent qu’elle existe sans l’avoir jamais vue : le boson
de Higgs, « inventé » dans les années 1960 par trois physiciens théoriciens3 dans
le but d’expliquer l’origine de la masse de toutes les particules de l’univers, y
compris la sienne propre. La confirmation expérimentale de l’existence de cette
particule viendrait parachever un vaste corpus de résultats théoriques et
expérimentaux obtenus depuis des décennies dans plusieurs grandes branches
de la physique.
Mais la quête du « Higgs » n’est pas tout, tant les questions ouvertes restent
nombreuses en physique des particules : comment dépasser le cadre théorique
actuel, appelé le « modèle standard », de façon à pouvoir y inclure la
gravitation ? Où est passée l’antimatière qui était présente dans l’univers
primordial ? Quels sont les « objets » constitutifs de la matière noire, qui semble
agir gravitationnellement sur les galaxies mais n’émet ni n’absorbe aucune
lumière ?
Et
qu’est-ce
qui
est
à
l’origine
de
l’accélération,
récemment
découverte, de l’expansion de l’univers ?
Afin de tenter de répondre à tout ou partie de ces questions, quatre expériences,
toutes de taille impressionnante, seront installées auprès du LHC pour analyser
les particules secondaires nées des chocs entre protons :
-
CMS
(Compact
Muon
Solenoid)
est
doté
d’un
calorimètre
électromagnétique constitué de plus de 80000 cristaux de tungstate de
plomb. Avec ses 12500 tonnes, le détecteur complet est plus massif que la
3
Ces trois physiciens sont deux belges, Robert Brout et François Englert, et un écossais,
Peter Higgs.
6
Tour Eiffel. Il devrait détecter, entre autres choses, le boson de Higgs, à
condition bien sûr que ce dernier existe.
-
ATLAS (A Toroidal LHC Apparatus) a lui aussi été conçu pour détecter le
boson de Higgs. En son sein, le champ magnétique qui permet de courber
les trajectoires des particules est produit par trois solénoïdes et huit longs
bobinages supraconducteurs en rectangle. Avec ses 46 mètres de long et
ses 25 mètres de diamètre, cette expérience est la plus grande du LHC.
-
ALICE (A Large Ion Collider Experiment) permettra d’observer en
laboratoire
l’état
dans
lequel
se
trouvait
la
matière
quelques
microsecondes après le big bang : un plasma de quarks et de gluons.
-
LHCb (Large Hadron Collider beauty) permettra de mieux comprendre
l’origine du déséquilibre entre matière et antimatière dans l’univers, grâce
à la détection de particules appelées les « mésons beaux ».
Il existe de nombreuses théories, souvent concurrentes, quant aux résultats
des collisions que ces expériences permettront d’analyser. Les paris sont donc
ouverts et le suspense s’annonce intenable. Toutes les théories ne pouvant pas
avoir raison en même temps, certaines seront falsifiées par les résultats
expérimentaux à venir, et les autres seront « encouragées ». Les physiciens
s’attendent donc à ce que le démarrage du LHC ouvre une nouvelle ère de la
physique en apportant de nouvelles connaissances sur le fonctionnement de
l’Univers. Depuis plus de trente ans, les physiciens se sont appuyés sur le
modèle standard de la physique des particules pour essayer de rendre compte
des lois fondamentales de la nature. Ce modèle a fait montre d’une remarquable
robustesse et d’une très grande cohérence, aussi bien dans le domaine théorique
que sur le plan expérimental. Mais il n’est pas l’ultime théorie, et donc pas la fin
de l’histoire. Les données expérimentales obtenues grâce aux énergies très
élevées du LHC permettront d’explorer ses limites, et sans doute de le dépasser
en repoussant les frontières du savoir, mettant au pied du mur ceux qui
cherchent à confirmer les théories actuelles aussi bien que ceux qui rêvent à de
nouveaux paradigmes. Après le LHC le visage de la physique ne sera
certainement plus le même.
Tout au long du siècle dernier, la connaissance de la structure de la
matière a progressé à pas de géant. Toutefois, la matière est loin d’avoir livré
ses ultimes secrets. Pour comprendre les questions qui demeurent ouvertes et
7
que le LHC pourrait éclairer, voire trancher, il faut d’abord jeter un regard en
arrière et saisir ce qui a déjà été accompli. C’est ce que ce rapport se propose de
faire, de la façon la plus claire possible, c’est-à-dire sans équation ni excès de
jargon. Un autre rapport, également produit par le LARSIM et intitulé « On the
eve of the LHC : conceptual questions in high energy physics », est d’un abord
plus difficile : il explore quant à lui, de façon beaucoup plus profonde, les
implications théoriques et épistémologiques que pourraient avoir les expériences
du LHC.
Nous allons commencer par rappeler la signification d’une formule simple
de la théorie de la relativité, E = mc2, qui, surtout lorsqu’on l’associe à une autre
formule célèbre de la physique quantique, E = hν, résume de façon presque
iconique, pour ce qui est de la physique, le siècle qui vient de s’écouler. Cette
équation a à voir avec notre sujet, à plus d’un titre : elle permet de comprendre
pourquoi une particule massive ne peut pas se déplacer plus vite que la lumière
dans le vide ; elle rend compte de la façon dont l’énergie des particules est
susceptible de se transformer en d’autres particules ; et enfin, elle permet de
saisir l’intérêt que présentent les collisionneurs de particules pour comprendre les
lois de l’infiniment petit.
8
DE L’INTERET D’ACCELERER LES PARTICULES
C’est très facile :
tu n’as qu’à enfoncer la pédale jusqu’au bout.
Louis Lachenal, vainqueur de l’Annapurna
E = mc2, là où tout commence….
En septembre 1905, un jeune homme de vingt-six ans, Albert Einstein,
rédige un article long de seulement trois pages, qui contient l’équation E = mc2,
la plus célèbre de toute l’histoire de la physique. Ce papier se présente comme
un prolongement de la théorie de la relativité restreinte que le même Einstein
vient tout juste de publier.
Les calculs qu’on trouve dans cet article démontrent une seule chose : un corps
émettant des ondes électromagnétiques perd aussi, nécessairement, de la
masse. Mais Einstein attribue à ce résultat une portée universelle. La masse
inertielle d’un corps représente, explique-t-il, une mesure de son contenu en
énergie. En conséquence, si ce corps perd de l’énergie, sous n’importe quelle
forme, il perd aussi de la masse inertielle.
D’un point de vue conceptuel, il s’agit d’un résultat révolutionnaire. La masse
inertielle, qui jusqu’alors ne mesurait que la quantité de matière contenue dans
un corps, mesure donc aussi son contenu en énergie. Tout corps massif, même
immobile, au repos, se voit ainsi doté d’une « énergie de masse », c’est-à-dire
d’une énergie qu’il doit au seul fait d’avoir une masse. Et cette équivalence entre
masse inertielle et énergie, précise Einstein, fait intervenir la vitesse de la
lumière
c
(élevée
au
carré),
qui vient
unifier
deux
concepts
jusque-là
parfaitement séparés. Mais dans cette mise en correspondance, le statut de la
vitesse de la lumière change irrémédiablement : elle intervient désormais dans
tous les processus physiques, y compris ceux dans lesquels la lumière ne joue
aucun rôle. Grâce à la formule d’Einstein, la vitesse de la lumière devient une
véritable constante universelle de la physique.
9
Mais si l’équivalence entre la masse et l’énergie est si constitutive du monde
physique, et si l’équation d’Einstein est si universelle, pourquoi ne percevonsnous pas ses effets dans la vie quotidienne ? Tout simplement parce qu’elle est
disproportionnée au regard des ordres de grandeur dont nous sommes familiers.
Le moindre grain de poussière est bien un prodigieux réservoir d’énergie, mais
cette énergie contenue dans sa masse nous est en général cachée.
Si la formule d’Einstein a pu devenir le symbole de la physique du vingtième
siècle, c’est parce que, depuis 1905, les physiciens sont parvenus à explorer, et
parfois à exploiter de façon industrielle, des situations dans lesquelles la formule
d’Einstein a des effets tangibles : celles dans lesquelles une fraction notable de la
masse peut se convertir en énergie et celles dans lesquelles c’est l’énergie qui
devient matière.
Songeons aux noyaux d’uranium 235 qu’on trouve dans les réacteurs nucléaires.
Lorsqu’ils sont percutés par un neutron, ils s’agitent soudain, se déforment et
s’étirent au point de trouver une forme nettement plus stable, celle composée de
deux fragments distincts. Autrement dit, ils subissent une fission qui produit
deux noyaux plus légers, dont la somme des masses est toujours plus petite que
la masse du noyau de départ. Ce défaut de masse, donc cette perte d’énergie de
masse, se traduit en vertu de la formule d’Einstein par une libération d’énergie,
qui est à l’origine de « l’énergie nucléaire ». Cette énergie, récupérée sous forme
de chaleur, peut être transformée en courant électrique.
Un raisonnement du même type, mais mettant en jeu la fusion des noyaux
légers plutôt que la fission des noyaux lourds, permet de comprendre le
processus par lequel les étoiles rayonnent de la lumière. Ainsi, le soleil passe le
plus clair de son temps à transformer de la masse en énergie, par le biais de
réactions de fusion nucléaire qui produisent fabriquent de l’hélium à partir
d’hydrogène. En son cœur, ce ne sont pas moins de 620 millions de tonnes
d’hydrogène (atomes constitués d’un seul proton) qui, à chaque seconde, sont
transformées en 615 millions de tonnes d’hélium (pour être plus précis, deux
noyaux de deutérium, composés d’un proton et d’un neutron, fusionnent pour
donner un noyau d’hélium constitué de deux protons et d’un neutron, et un
second neutron dont l’énergie cinétique est à l’origine de l’énergie nucléaire).
Cette différence de masse est convertie en énergie rayonnée vers l’extérieur.
C’est ainsi que le soleil brille.
10
Mais il existe aussi, bien sûr, des situations dans lesquelles c’est l’énergie qui se
transforme en masse, et non plus l’inverse. Là encore, deux exemples devraient
suffire. Le premier est emprunté à la cinématique, plus exactement au lien qui
existe entre vitesse et énergie cinétique (qui est, rappelons-le, l’énergie liée au
mouvement des corps). Lorsque nous circulons en voiture ou même voyageons
en avion, l’énergie cinétique du véhicule qui nous transporte croît comme le carré
de sa vitesse. L’accélérer, c’est donc augmenter à la fois sa vitesse et son
énergie cinétique. Mais dans le contexte de la relativité restreinte, qui envisage
des déplacements beaucoup plus rapides que ceux à notre portée, une certaine
vitesse apparaît comme indépassable pour une particule qu’on tente d’accélérer.
Cette vitesse est identifiée à la vitesse de la lumière dans le vide.
Ce phénomène provient de ce que, au fur et à mesure que sa vitesse et son
énergie augmentent, la particule oppose à toute modification supplémentaire de
son mouvement une inertie de plus en plus grande (précisément égale à E/c2).
Autrement dit, la particule résiste de plus en plus à l’effort fait pour l’accélérer :
plus elle va vite, plus il est difficile de la faire aller encore plus vite. Sa masse
demeure rigoureusement constante, mais son inertie (qui ne lui est plus égale
comme en physique classique) augmente avec son énergie.
Si la vitesse d’une particule en vient à presque atteindre celle de la lumière,
comme cela se produit couramment dans les accélérateurs de particules dont
nous allons bientôt parler, on peut même lui conférer de l’énergie cinétique sans
modifier
notablement
sa
vitesse.
En
somme,
on
« l’accélère
à
vitesse
constante ».
Le deuxième exemple concerne la dynamique des chocs très violents que
peuvent subir les particules, par exemple au sein des collisionneurs qu’utilisent
aujourd’hui les physiciens. Presque toute l’énergie cinétique des particules qui
entrent en collision est convertie en matière : elle se transforme en de
nombreuses autres particules massives, à durées de vie généralement très
courtes, qui sont elles-mêmes dotées d’une certaine énergie cinétique. Il se
produit là quelque chose qui défie le sens commun : une propriété d’un objet, en
l’occurrence l’énergie liée à la vitesse des particules incidentes, est capable de se
transformer en d’autres objets, en l’occurrence de nouvelles particules. C’est un
peu comme si la hauteur de la tour Eiffel, qui n’est qu’un attribut de cette tour,
pouvait se transformer en d’autres monuments, par exemple en l’Arc de
Triomphe et en colonnes de Buren…
11
Comment voir une particule ?
Pour étudier une particule, il faut, d’une façon ou d’une autre, l’éclairer, c’est-àdire envoyer sur elle un faisceau de particules, pas nécessairement de lumière.
Des particules « sondes » doivent donc être violemment projetées sur des
particules « cibles ». Mais pourquoi les particules sondes doivent-elles avoir
beaucoup d’énergie ? Pour le comprendre, il faut invoquer et mettre ensemble
deux lois de la physique. La première est un principe fondamental de la physique
quantique qui indique qu’à toute particule est associée une longueur d’onde
d’autant plus courte que la particule est plus énergétique. La deuxième stipule
qu’un phénomène ondulatoire n’interagit qu’avec des objets de dimension
supérieure à sa longueur d’onde. La houle de l’océan n’est pas affectée par la
présence d’un baigneur, car la taille de celui-ci est petite par rapport à la
distance séparant deux vagues successives. En revanche, elle est perturbée par
la présence d’un paquebot. Si la particule que nous choisissons pour cible est
petite, les particules devront avoir une longueur d’onde plus petite encore. Il
faudra donc leur donner une énergie élevée, d’autant plus élevée que la particule
cible est plus petite. C’est essentiellement cette tâche-là qui incombe aux
accélérateurs de particules. Ce sont des sortes de microscopes géants, capables
de distinguer les constituants infimes de la matière.
Comme cela s’est fait de façon exclusive dans un premier temps (jusque dans les
années 1960), après l’avoir accéléré, on peut envoyer le faisceau de particules
sur des cibles fixes. Lors de l’impact, l’énergie cinétique et la masse des
particules incidentes sont redistribuées et des particules nouvelles, fruits de la
collision, apparaissent. Plus l’énergie de la collision est élevée, plus ces nouvelles
particules peuvent être massives, exhibant la structure ou le comportement
normalement caché de la matière.
Mais l’utilisation de cibles fixes pose un problème d’énergie perdue. Car
lorsqu’une particule en mouvement heurte une particule immobile, la majeure
partie de son énergie cinétique est transférée à la cible sous forme d’énergie
cinétique (comme lorsqu’un véhicule en mouvement percute un véhicule à
l’arrêt, qui se trouve propulsé par le choc). Cette énergie cinétique transférée à
la cible ne se convertit pas en matière. Elle est en quelque sorte « gâchée ».
12
Il est beaucoup plus rentable de faire entrer en collision frontale deux faisceaux
de particules circulant en sens opposé. Car dans ce cas, toute l’énergie des
particules qui entrent en collision est convertible en matière. C’est pourquoi
les collisionneurs, accompagnés de leurs détecteurs, sont devenus les principaux
instruments de la physique des particules. Le LHC est le plus puissant de tous.
13
LES FORCES EN PRESENCE
Si le fruit tombe, si le soleil brille, si notre corps tient, la table aussi, si le
filament de l’ampoule éclaire et si le timbre humide adhère, c’est qu’un jeu de
forces assure la cohésion des choses et organise leur mouvement.
En physique classique, une force entre deux particules se transmet dans l’espace
par l’entremise d’un « champ ». Ce concept n’a ici que peu à voir avec l’entité
rurale, paisible et vouée à la culture à laquelle l’identifie le langage commun. Il
est utilisé à chaque fois qu’une grandeur peut être définie en tous point de
l’espace, ou du moins sur une portion de celui-ci. Quand une particule agit sur
une autre, on imagine qu’un champ, engendré par la première, se propage dans
l’espace puis agit sur l’autre. Mais cette conception classique, qui fait du champ
le relais d’une interaction, a dû être revue d’une façon qui tienne compte à la fois
de la physique quantique et de la théorie de la relativité restreinte. Car dans ce
nouveau cadre, pour qu’il y ait interaction entre deux particules, il faut que
« quelque chose » soit échangé, quelque chose de substantiel. Ce « quelque
chose » est un quantum, c’est-à-dire une particule caractéristique du champ
associé à l’interaction. En d’autres termes, une interaction ne s’exerce entre deux
particules que par l’échange d’une troisième, ce qui établit une sorte de
correspondance entre forces et particules. La particule qui transporte l’interaction
s’appelle le « boson de jauge » de l’interaction, pour des raisons qui apparaitront
plus claires par la suite.
Cette conception, toute abstraite qu’elle semble, peut s’illustrer d’une façon très
concrète. Imaginons deux barques sur un lac. L’occupant de chaque barque est
démuni de toute espèce d’objet qui pourrait l’aider à diriger son embarcation. Ni
rames ni pagaies ni planches ni perches. Supposons que les deux barques se
dirigent l’une vers l’autre, selon deux directions ayant entre elles un certain
14
angle, de telle sorte que la collision paraisse inévitable. Inévitable ? Pas tout à
fait. Car si l’un des occupants dispose d’un objet massif, par exemple d’un ballon,
et qu’il le lance avec vigueur au passager de l’autre barque, qui le lui renvoie et
ainsi de suite, les deux embarcations s’écarteront peu à peu l’une de l’autre. La
succession des lancers créera une force répulsive capable de modifier les
trajectoires. Il y aura interaction des deux barques par l’entremise d’un
médiateur, ici le ballon.
Cette métaphore, bien qu’elle soit approximative, permet de comprendre une
autre chose très importante : puisqu’un ballon lourd oblige à faire des passes
courtes, la portée d’une interaction sera d’autant plus faible que la masse de ses
particules médiatrices sera plus élevée. Cette propriété, ici évoquée à partir de
considérations intuitives, peut être démontrée de façon parfaitement rigoureuse
en physique quantique.
Quelles sont les interactions « fondamentales » de l’univers ?
Pour rendre compte de tous les phénomènes auxquels ils ont accès, les
physiciens ont besoin de ne faire intervenir que quatre forces, qu’ils jugent
« fondamentales ». Quelles sont-elles ? La gravitation, bien sûr, identifiée par
Newton il y a plus de trois siècles ; l’interaction électromagnétique, identifiée en
tant que telle par Maxwell dans la seconde moitié du XIXe siècle, et qui rend
compte de la cohésion de la matière à notre échelle ; l’interaction nucléaire
faible, découverte dans les années 1930, qui gère certains processus radioactifs,
notamment la radioactivité bêta ; l’interaction nucléaire forte - découverte à peu
près au même moment que l’interaction nucléaire faible - qui lie très solidement
entre eux les constituants des noyaux atomiques.
Voyons plus en détail leurs caractéristiques.
La gravitation d’abord. C’est elle qui nous permet de nous asseoir, et qui nous
fait mal quand nous tombons. Mais elle gouverne bien d’autres phénomènes, de
la chute des corps au mouvement des planètes. Elle est également à l’origine de
la formation des étoiles à partir du gaz primordial, qu’elle oblige à se contracter.
Et, grâce à elle encore, les étoiles, une fois formées, s’attirent les unes les
autres, formant ainsi des galaxies.
15
L’interaction gravitationnelle est attractive et de portée infinie (c’est-à-dire que la
force qui existe entre deux masses n’est nulle que si ces deux masses sont
séparées d’une distance infinie). Nul écran ne pouvant en stopper l’influence, il
est vain d’espérer l’amoindrir ou la supprimer.
Son intensité est beaucoup plus faible que celle des autres interactions, si bien
qu’on peut négliger ses effets à l’échelle des particules, soumises par ailleurs à
des forces beaucoup plus intenses. Mais alors, comment se fait-il qu’elle soit si
importante pour nous, à l’échelle macroscopique ? C’est que, étant toujours
attractive, l’interaction gravitationnelle est cumulative : elle est d’autant plus
grande que le nombre de particules mises en jeu est important. L’interaction
gravitationnelle entre un proton de notre corps et un proton de la terre est
infime, certes, mais les protons de notre corps étant très nombreux, et ceux de
la terre encore plus, les innombrables petites forces qui les lient s’ajoutent les
unes aux autres et finissent par faire une force globale importante, précisément
égale à … notre poids.
La gravitation est donc ce par quoi l’union fait la force.
La particule censée transporter la gravitation – son ballon – s’appelle le graviton.
Il est de masse nulle. Du moins est-ce ainsi que nos connaissances actuelles
nous conduisent à le concevoir, car la vérité oblige à dire qu’il n’a pas encore été
découvert en tant que particule.
C’est à Einstein qu’on doit la théorie de la gravitation aujourd’hui utilisée par les
physiciens. Elle s’appelle la « théorie de la relativité générale ».
L’interaction électromagnétique est beaucoup plus intense que la gravitation.
Elle agit de façon manifeste autour de nous puisqu’elle fait fonctionner tous nos
appareils… électroménagers, de l’aspirateur à la cafetière en passant par le
réfrigérateur et en repassant par le fer à repasser. Mais à un niveau plus
fondamental, elle assure surtout la cohésion des atomes et des molécules,
gouverne toutes les réactions chimiques et aussi les phénomènes optiques (la
lumière, rappelons-le, est constituée d’ondes électromagnétiques, structurées en
photons). À l’instar de l’interaction gravitationnelle, elle a une portée infinie, au
sens où elle agit sur des objets quelle que soit la distance qui les sépare. En
d’autres termes, il n’existe pas de limite à la longueur du trajet que peuvent
parcourir les photons qui la propagent (à la vitesse de la lumière). Mais, étant
tantôt attractive, tantôt répulsive (selon le signe des charges électriques en
16
présence), les effets cumulatifs de l’interaction électromagnétique au sein de la
matière sont annulés à grande distance du fait de la neutralité électrique globale
de la matière.
L’interaction électromagnétique est aujourd’hui bien décrite par une théorie
qu’on appelle l’« électrodynamique quantique ». Elle procède de l’échange de
photons, qui sont donc ses médiateurs, ses ballons. Ils ont une masse nulle. Ces
photons sont qualifiés de « virtuels », non parce qu’ils seraient artificiels, mais
parce qu’ils sont impossibles à détecter en tant que tels lorsqu’ils sont échangés
entre deux particules chargées.
L’interaction nucléaire faible
a une
portée
très
courte, d’environ un
milliardième de milliardième de mètre, soit une fraction de la dimension d’un
noyau d’atome. Autant dire qu’il s’agit, comme la colle, d’une interaction de
contact : deux particules ne peuvent interagir par elle que si elles se touchent
quasiment. Elle est notamment responsable de la radioactivité bêta, par laquelle
un neutron se désintègre en un proton et un électron (avec émission conjointe
d’un antineutrino). Comme son nom l’indique, l’interaction faible est caractérisée
par une très faible intensité qui la rend difficile à observer. Mais cela ne
l’empêche par de jouer un rôle capital, notamment dans le soleil, où elle régit les
réactions de fusion des noyaux d’hydrogène4. Si elle disparaissait de l’univers,
notre étoile cesserait de briller…
Les particules qui médiatisent l’interaction faible sont au nombre de trois. On les
appelle les « bosons intermédiaires » et on les note W+, W- et Z0. Comme la
portée de l’interaction nucléaire faible est très courte, la masse de ces
« ballons » doit être très grande. Effectivement, elle l’est, presque cent fois plus
grande que celle d’un proton. Les trois médiateurs de l’interaction faible ont été
mis en évidence en 1984, au CERN, grâce à un collisionneur de protons et
d’antiprotons conçu à cette fin.
L’interaction nucléaire forte est la plus intense des quatre interactions
fondamentales, mais elle nous est restée longtemps cachée. Sa portée effective
est très courte, de l’ordre de la taille d’un noyau, soit quelques 10-15 mètre. Les
4
En réalité, il ne s’agit pas d’une « fusion » à proprement parler de deux protons. L’un
des deux doit d’abord se transformer en neutron (par une désintégration bêta inverse),
ce qui permet ensuite qu’il fusionne avec le second.
17
physiciens sont devenus certains de son existence dans les années 1930,
lorsqu’ils ont pris pleinement conscience que la stabilité des noyaux atomiques
avait quelque chose d’étonnant. Puisqu’ils portent des charges électriques de
même signe, les protons au sein d’un noyau atomique se repoussent du fait de la
force électrique qui tend à les séparer. Et pourtant, ils semblent très solidement
attachés les uns aux autres. Par quoi donc est combattue leur répulsion
électrique ? Aucune force classique ne pouvait expliquer cette cohésion nucléaire.
De là l’hypothèse, vérifiée depuis, qu’il existe au sein des noyaux atomiques une
force très intense, l’interaction nucléaire forte justement, de portée très courte,
environ un millionième de milliardième de mètre…
Cette force agit comme une sorte de glu qui colle deux nucléons (proton ou
neutron, peu importe pour elle) en contact l’un avec l’autre, mais dont la force
s’affaiblit très rapidement dès qu’on les écarte un tant soit peu l’un de l’autre.
Cela ne l’empêche pas d’être incroyablement puissante. Elle est par exemple
capable d’arrêter, sur quelques millionièmes de milliardième de mètres, un
proton lancé à cent mille kilomètres par seconde…
Quels sont les ballons de l’interaction forte ? Nous traiterons cette question plus
tard, lorsque nous aurons parlé des « quarks ». Retenons pour l’instant le nom
de la théorie qu’utilisent les physiciens pour décrire cette interaction : la
« chromodynamique quantique ».
Toutes les particules ne subissent pas l’interaction nucléaire forte. Celles qui y
sont sensibles, tels les protons, les neutrons ou les pions, s’appellent les
hadrons. Celles qui ne la subissent pas s’appellent les leptons. On connaît plus de
350 hadrons différents. Ils sont tous instables à l’exception peut-être du proton.
Cela signifie que très rapidement, ils se désintègrent en d’autres particules plus
légères. Leur durée de vie (c’est-à-dire la durée moyenne au bout de laquelle
leur désintégration intervient) peut être très brève. Certains hadrons très
fugaces ont même une durée de vie qui n’est que de quelques 10-23 seconde, ce
qui fait d’eux les phénomènes les plus brefs connus dans la nature.
18
Pourra-t-on « unifier » les forces fondamentales ?
Durant ces dernières décennies, les physiciens ont accompli des progrès
extraordinaires en matière d'unification des interactions fondamentales. Durant
les
années
1970,
notamment,
ils
ont
pu
démontrer
que
la
force
électromagnétique et la force nucléaire faible, bien que très dissemblables en
apparence, n’étaient pas indépendantes l'une de l'autre : dans un passé très
lointain de l’univers, elles ne faisaient qu’une seule et même force, qui s’est par
la suite dissociée. Cette démarche unificatrice a pu être étendue pour partie à
l’interaction nucléaire forte, au sens où l’on est parvenu à la faire cohabiter avec
l’interaction faible
et
l’interaction électromagnétique
au sein
d’un même
formalisme mathématique. Le résultat obtenu est d’une puissance considérable.
Il constitue ce que l’on appelle le « modèle standard » de la physique des
particules, qui a été très finement testé grâce à de gigantesques collisionneurs
de particules.
Ce modèle théorique s’appuie d'une part sur la physique quantique, qui décrit le
comportement de la matière à très petite échelle, d'autre part sur la théorie de la
relativité restreinte d'Einstein, qui rend compte des situations dans lesquelles les
vitesses des particules ne sont pas négligeables devant celle de la lumière.
Moyennant
l'introduction
d'un
certain
nombre
de
paramètres
déterminés
empiriquement, il rend compte de tous les phénomènes microscopiques connus
aujourd'hui, jusqu'à
une
énergie
de
l'ordre
de
la centaine
de
milliards
d'électronvolts.
Ce succès du modèle standard de la physique des particules vient illustrer
l’aboutissement d’une utilisation très astucieuse du concept de symétrie. D’une
façon générale, on dit d’une chose qu’elle est symétrique si, après avoir été
soumise à une certaine transformation, son apparence n’est pas modifiée. Quand
nous pensons à cette définition, ce sont d’abord les symétries géométriques,
celles de la sphère ou du cylindre par exemple, qui nous viennent d’abord à
l’esprit. Prenons l’exemple de la sphère : nous pouvons la faire tourner selon
n’importe quel angle par rapport à n’importe quel axe sans la modifier. L’effet de
telles rotations peut être décrit mathématiquement, de même que la sphère peut
être décrite par une équation. La symétrie parfaite de la sphère se traduit par le
fait que son équation après n’importe quelle rotation est la même qu’avant. En
19
particulier, l’angle de rotation n’y figure pas. On dit que les équations décrivant
une sphère soumise à des rotations sont invariantes.
Mais d’autres symétries, plus abstraites que les symétries géométriques et d’une
plus grande portée théorique, peuvent également être utilisées en physique.
Elles s’appuient sur le concept mathématique de « groupe de symétrie », terme
par lequel on désigne l’ensemble des transformations qui, appliquées à un objet,
le laissent invariant. On dira d’un phénomène physique particulier qu’il respecte
une certaine symétrie, associée à un certain groupe de symétrie, si les lois qui le
gouvernent sont invariantes lorsqu’on applique au système l’une quelconque des
transformations du groupe de symétrie. Mais comment utiliser pratiquement ces
notions ? Soit un système physique décrit par la physique quantique, s’il est
invariant selon un certain groupe de symétrie, alors l’espace de Hilbert contenant
les
vecteurs
d’état
susceptibles
de
décrire
ce
système
est
l’une
des
« représentations » de son groupe de symétrie. Pour dire les choses de façon
simplifiée, le groupe correspond à l’ensemble des opérations qui laissent le
système invariant, et la représentation est la « chose » qui subit ces opérations.
Les groupes qui jouent un rôle important en physique sont le groupe des
translations et des rotations, mais aussi des groupes faisant appel à des nombres
complexes, tels U(1), le groupe des nombres complexes de module égale à 1, ou
SU(2), le groupe des matrices unitaires à coefficients complexes de dimension
2x2 et de déterminant égal à 1, ou encore SU(3) (dont la définition est la même
que celle de SU(2), sauf que la dimension des matrices est 3x3).
Cette « extension » du concept de symétrie vers l’abstraction a permis de
montrer qu’on peut déduire la structure d’une interaction entre particules de
leurs seules propriétés de symétrie. Plus précisément, en identifiant les groupes
de symétrie associés respectivement aux interactions électromagnétique (U(1))
et nucléaire faible (SU(2)), les physiciens ont été capables de les décrire de façon
élégante, dans un même cadre mathématique. Cela leur a permis ensuite de les
« unifier », c’est-à-dire les faire cohabiter au sein d’un même formalisme
mathématique, qu’en termes savants on appelle « les théories de jauge ». Par la
suite, cette procédure a pu être étendue à l’interaction nucléaire forte, car elle
aussi peut être dérivée d’un groupe de symétrie particulier, qui n’est autre que
SU(3). Considérée globalement, cette réussite a une portée considérable. Cette
portée est d’abord philosophique puisque qu’elle permet d’affirmer que les forces
ne sont pas des ingrédients qu’il faut introduire de façon arbitraire dans les
20
théories, aux côtés des particules qui y sont soumises, mais qu’elles apparaissent
plutôt comme des conséquences des propriétés de symétrie auxquelles obéissent
ces particules : il existe donc un lien très profond entre les forces et les
particules. Mais cette portée est également physique, au sens où elle susceptible
de conduire à la prédiction de l’existence de nouvelles particules : par exemple,
c’est grâce à la structure des représentations du groupe SU(3) que Gell-Mann a
pu conjecturer, dès 1964, l’existence des quarks.
La messe est-elle dite pour autant ? Les physiciens sont les premiers à
reconnaître que non. Car le modèle standard bute sur plusieurs problèmes
d’ordre conceptuel. D’abord, à des énergies plus élevées que celles accessibles
avec les collisionneurs de particules actuellement en service, les principes sur
lesquels il s’appuie entrent eux-mêmes en collision violente les uns avec les
autres, de sorte que les équations ne fonctionnent plus. C’est l’indice que le
cadre conceptuel en usage ne permet pas de décrire les phénomènes qui se sont
déroulés à plus haute énergie, dans l’univers primordial. Ensuite, le modèle
standard de la physique des particules laisse de côté la quatrième force, la
gravitation, seulement prise en compte par la relativité générale (qui ne décrit
qu’elle). Comment l’intégrer ? Ou, à défaut, comment construire une théorie
permettant de décrire à la fois la gravitation et les trois autres forces ?
L’affaire s’annonce plus que délicate, notamment en raison du fait que ces
deux théories ne se représentent pas l’espace-temps de la même façon. Pour le
modèle standard de la physique des particules, il est plat, rigide et statique ;
pour la relativité générale, il est courbe, souple et dynamique. Or l’espace-temps
est indispensable à toute démarche physique, pour rendre compte de la présence
des objets et du déroulement des phénomènes. Concevoir un espace-temps dont
la structure soit compatible avec les lois quantiques aussi bien qu’avec celles de
la relativité générale amène à remettre à plat les deux formalismes en vigueur et
leur façon de représenter l’espace et le temps. Mais sur quoi s’appuyer pour
construire une théorie quantique de la gravitation ? S’agit-il d’appliquer les
procédures de la physique quantique à la relativité générale ? Ou bien de
procéder à un mariage qui impliquerait une modification de la physique
quantique standard ? Ou encore de mettre sur pied une nouvelle théorie qui
dépasse, en les incluant, la physique quantique et la relativité générale ?
Plusieurs pistes sont à l’étude. Nous ne les détaillerons pas ici, nous contenant de
signaler qu’elles se répartissent en trois groupes :
21
•
Les procédures qui appliquent les règles de quantification à la relativité
générale ordinaire, telle la théorie dite « de la gravité quantique à
boucles »5.
•
La théorie des supercordes, qui envisagent un cadre radicalement neuf
(les objets physiques sont des cordes, mais l’espace-temps est défini a
priori) à partir duquel on espère retrouver le modèle standard comme
limite à basse énergie.
•
L’ensemble des approches qui ne relèvent d’aucune des deux premières
(par exemple les géométries non commutatives d’Alain Connes).
5
Cette piste théorique, proposée par Abhay Ashtekar, Carlo Rovelli et Lee Smolin, est
basée sur la quantification canonique de la relativité générale dans une formulation
hamiltonienne, les trois autres interactions fondamentales n’étant pas considérées dans
un premier temps. L’une de ses prédictions est que l’espace doit présenter une structure
discrète, par opposition au continuum d’espace-temps de la relativité générale : les aires
et les volumes sont quantifiés. Cette théorie est en concurrence avec la théorie des
supercordes, au moins pour la gravitation. Elle ne prévoit pas l’existence de particules
supplémentaires.
22
LES PARTICULES MISES EN JEU
Qu’appelle-t-on une particule de « haute » énergie ?
Une énergie se mesure d’ordinaire en joules. Mais pour quantifier celle de
leurs particules, les physiciens utilisent une autre unité, qui leur convient mieux :
l’électronvolt (qui est l’énergie gagnée par un électron accéléré par une
différence de potentiel de un volt). Les particules qui circulent au sein des
accélérateurs de particules les plus puissants ont des énergies qui sont de l’ordre
du millier de milliards d’électronvolts. Voilà un chiffre impressionnant ! Les
accélérateurs de particules seraient-ils des bombes déguisées ?
Pour en avoir le cœur net, comparons l’énergie de ces particules à celle d’un
moustique en vol. Choisissons un moustique de 2 milligrammes se déplaçant à
un mètre par seconde (il s’agit donc d’un moustique non relativiste). Son énergie
cinétique est égale à la moitié de sa masse multipliée par le carré de sa vitesse.
Exprimée en électronvolts, cette énergie s’élève, tous calculs faits, à 6250
milliards électronvolts. Elle est donc environ six fois plus grande que celle d’une
particule circulant dans un gros accélérateur. Dès lors, pourquoi ne pas faire des
collisions de moustiques, ou de grains de riz propulsés par des sarbacanes,
puisque les uns et les autres sont plus énergétiques que les particules des
physiciens ? Cela permettrait de se rapprocher encore plus de ce qui se passait
dans les premiers instants de l’univers, et puis ce serait beaucoup moins cher…
Mais l’argument que nous venons d’utiliser n’est pas valide. Une collision de
moustiques ne nous apprendrait rien d’intéressant. Car dans ces affaires, ce n’est
pas l’énergie qui compte, mais la densité d’énergie, c’est-à-dire la quantité
d’énergie par unité de volume. Or un moustique est constitué d’un nombre
faramineux d’atomes et de molécules qui se partagent son énergie totale, de
sorte que l’énergie portée par chacun de ses constituants est ridiculement faible.
Une particule élémentaire, elle, est quasiment ponctuelle : si on l’accélère, son
23
énergie augmente et vient se concentrer sur son volume, qui est minuscule. De
très fortes densités d’énergie sont ainsi atteintes, qui permettent, lors des
collisions que les particules ont les unes avec les autres, de donner naissance à
des phénomènes extraordinaires, par exemple de créer de nouvelles particules
qui certes peuvent être produites par certaines collisions entre le rayonnement
cosmique et les hautes couches de l’atmosphère, mais n’existent pas de façon
courante autour de nous…
Lors d’une collision, les particules incidentes se brisent-elles en
plusieurs morceaux ?
Nous avons l’habitude de dire que la matière, « c'est ce qui se conserve ».
Cette idée n'est pas spécialement neuve. C'était déjà le sens du fameux « rien ne
se crée, rien ne se perd, tout se transforme » de Lavoisier. Ce principe permet
notamment de fonder le droit de propriété : si le vélo que j’avais garé dans la
rue n’est plus là lorsque je viens le récupérer, je suis en droit de conclure qu’on
me l’a volé. Je ne conçois même pas qu’il ait pu se « volatiliser », qu’il soit
devenu « rien ». J’imagine simplement que la matière qui le constitue existe
toujours mais a été déplacée ailleurs.
24
Or cette loi de conservation ne vaut justement pas pour la matière à l'échelle
microscopique. À notre échelle, lorsque deux objets, par exemple deux verres, se
percutent, ils volent en éclats. Ces éclats sont précisément formés des fragments
issus des objets entrés en collision. Nulle matière n'apparaît alors qui n'était déjà
présente au départ. Mais dans le monde microscopique, les choses ne se passent
pas ainsi : une particule ne se brise pas au sens où nous entendons
ordinairement ce mot. Le concept même de morceaux de particules n'a d'ailleurs
guère de sens, ce qui fait que la métaphore des poupées russes dont
l'emboîtement simulerait la structure de la matière trouve ici ses limites.
Les particules que nous voyons surgir d’un choc entre deux particules de haute
énergie n’étaient pas « déjà là » avant la collision. Elles ne peuvent donc pas
être considérées comme les débris des particules initiales. C'est l'énergie même
du choc, portée par les deux particules incidentes, qui s’est brutalement
matérialisée sous la forme de nouvelles particules, tout droit sorties du vide. Le
vide n’est donc pas le néant, mais plutôt une sorte de prologue de la matière :
pour peu qu’on lui donne de l’énergie, il est capable de produire des particules
qu’en fait il contenait déjà, mais sous une forme larvée, virtuelle, seulement
potentielle.
Dans les processus qu’on observe grâce aux détecteurs placés auprès des grands
accélérateurs de particules, la matière (la masse) ne se conserve pas. Seule
l'énergie globale reste invariante : celle des particules qui entrent en collision est
égale à la somme des énergies portées par toutes les particules qui surgissent du
choc.
Le modèle standard s'appuie sur l'existence d'un petit nombre de particules
élémentaires, c'est-à-dire sans structure interne connue et insécables. Ces
particules se classent en deux catégories, les leptons d’un côté, les quarks de
l’autre.
Qu’est-ce qu’un lepton ?
On appelle leptons les particules insensibles à l'interaction nucléaire forte qui
assure la cohésion des noyaux atomiques. On sait aujourd’hui qu’il en existe de
six sortes. Les trois premiers sont des leptons de charge électrique nulle et de
masse très faible : ce sont les neutrinos. Les trois autres sont des leptons
25
massifs et électriquement chargés : l'électron, le muon et le lepton tau, qui se
présentent comme des particules identiques sous tous leurs aspects sauf leur
masse et leur durée de vie. Le muon, 206 fois plus lourd que l’électron, se
désintègre au bout de quelques microsecondes en un électron, un neutrino et un
antineutrino. Le lepton tau, lui, est encore plus lourd et sa durée de vie est très
brève, de l’ordre de 10-13 seconde.
Tout laisse penser aujourd’hui que les leptons sont des particules véritablement
élémentaires, c’est-à-dire qu’ils ne sont pas formés d’entités plus petites. Grâce
aux accélérateurs de particules, on peut frapper sur l’électron avec une énergie
énorme, supérieure à cent mille fois celle qu’il doit à sa propre masse, et
pourtant, on n’a jamais réussi à le « casser » en morceaux ni à sentir la structure
granulaire qu’il pourrait dissimuler en son sein.
Comme toute particule, chaque lepton possède son antiparticule, de même
masse que lui et de charge électrique opposée. L’antiparticule de l’électron
s’appelle
le
positron.
Existent
aussi
l’antimuon,
l’antitau
et
trois
sortes
d’antineutrinos.
Qu’est-ce que l’antimatière ?
En 1927, un physicien alors âgé de 25 ans, Paul Dirac, s’attaque, avec son
intellect et un crayon pour seuls outils, à un grand problème qui se pose alors en
physique. Ce grand problème est facile sinon à résoudre, du moins à énoncer.
Les physiciens disposent depuis la fin de l’année 1925 d’une équation - l’équation
de
Schrödinger
-
qui
permet
de
décrire,
dans
diverses
situations,
le
comportement d’une particule élémentaire comme l’électron. Typiquement
quantique, cette équation donne de bons résultats lorsqu’il s’agit, par exemple,
de calculer les niveaux d’énergie accessibles à l’électron unique qui se trouve
dans tout atome d’hydrogène. Mais cette précision vient de ce que la vitesse de
cet électron ne représente qu’un petit centième de la vitesse de la lumière. Pour
des électrons beaucoup plus rapides, comme ceux que l’on trouve au sein du
rayonnement cosmique, rien ne va plus. Car l’équation de Schrödinger ne
respecte pas les principes de la relativité d’Einstein : elle n’est valide que pour
les particules dont la vitesse est beaucoup plus faible que celle de la lumière. Or
26
un électron, objet minuscule s’il en est, peut être également très véloce, et
même se déplacer pratiquement à la vitesse de la lumière. En toute logique, ce
double statut impose que l’équation susceptible de le décrire en toutes
circonstances soit une sorte de mariage de la physique quantique, qui traite des
objets minuscules, et de la théorie de la relativité restreinte, qui traite des objets
très rapides. Cette équation à la fois quantique et relativiste, qui permettrait de
disposer d’une description cohérente du monde microscopique, voilà ce que Paul
Dirac décide de chercher.
Un soir de l’hiver 1928, il écrit une équation, qui porte depuis son nom, avec la
certitude qu’elle est « la bonne ». Mais certaines solutions de cette équation sont
étranges : elles correspondent à des particules d’énergie négative, qui ne
semblent pas pouvoir exister. Après un laborieux travail d’interprétation, il finit
par entrevoir, en 1931, que ces énergies négatives décrivent en réalité une
nouvelle particule, jamais observée, de même masse que l’électron et de charge
électrique positive. Il prédit ainsi l’existence d’un nouvel objet microscopique, le
positron, qui est l’antiparticule de l’électron.
Des positrons furent détectés en 1932 dans le rayonnement cosmique par Carl
Anderson, un physicien américain. On sait aujourd’hui qu’à toute particule est
associée une antiparticule de même masse qu’elle et de charge électrique
opposée. Lorsqu’une particule rencontre son antiparticule, leurs deux masses se
transforment aussitôt en une sorte d’énergie pure, qui se « matérialise » ensuite
(en fait très rapidement) en d’autres particules et antiparticules.
L’antimatière s’appelle ainsi non pas parce qu’elle serait « contre » ou hostile à la
matière
habituelle, mais parce
qu’elle
en représente
une
sorte
d’image
« miroir ». Le préfixe anti n’a donc pas ici le même sens que dans anticolonialiste
ou antipelliculaire, mais plutôt celui qu’il a dans antipode : le pôle nord est certes
à l’antipode du pôle sud, mais il ne semble pas lui être spécialement hostile.
Les physiciens ont finalement compris que l’existence de l’antimatière est liée à
un principe fondamental de la physique, peut-être le plus important de tous : le
principe de causalité, qui ordonne les événements dans le temps selon un
enchaînement irrémédiable et interdit toute possibilité de modifier un événement
dès lors que celui appartient au passé. L’apparition des énergies négatives dans
les solutions de l’équation de Dirac ne faisait, en définitive, rien d’autre que
manifester certaines conséquences de ce principe. Elle exprimait, dans le cadre
27
certes particulier de la physique des particules, une impossibilité radicale (qui
vaut peut-être pour toute la physique) : celle de remonter dans le passé.
Qu’est-ce qu’un quark ? Et un gluon ?
Nous avons rappelé plus haut qu’il existe plus de 350 hadrons détectés à
ce jour, c’est-à-dire 350 particules connues pour être sensibles à l’interaction
forte. La plupart de ces particules ont été détectées soit dans le rayonnement
cosmique, soit par des expériences à haute énergie menées auprès des grands
accélérateurs de particules après la Seconde Guerre Mondiale.
Au début des années 1960, certains physiciens ont imaginé que des
particules aussi nombreuses et aussi diverses avaient peu de chances d’être
élémentaires, c’est-à-dire sans structure interne. Énoncée pour la première fois
en 1964 par Murray Gell-Mann et indépendamment par Georges Zweig, la théorie
des quarks vint donner à cette intuition l’honneur d’une première formalisation.
Elle
partait
du principe
que
les
hadrons pourraient
être
des particules
composites, constituées de grains plus petits qu’eux-mêmes, les quarks. Certains
hadrons, appelées les baryons, seraient constitués de trois quarks. Les autres,
appelés des mésons, seraient constituées d’un quark et d’un antiquark.
Cette invention de théoricien acquit peu à peu ses lettres de noblesse, au
fur et à mesure qu’elle fut corroborée par les expériences, notamment au cours
des années 1970. Finalement, elle permit de comprendre très finement la
structure des hadrons.
On sait aujourd’hui qu’il existe six sortes de quarks, chacune étant
caractérisée par ce qu’on appelle une « saveur ». Les six saveurs des quarks
sont désignées par les lettres u, d, s, c, b et t (correspondant aux initiales des
mots anglais up, down, strange, charm, beauty et top). À partir d’elles, on peut
reconstituer la structure de tous les hadrons connus. Par exemple, le proton est
formé de deux quarks u et d’un quark d, ce qui donne le triplet (uud). Quant au
neutron, il contient un quark u et deux quarks d, ce qui donne (udd). Si l’on
prend comme unité de charge la charge électrique d’un proton, celle du quark u
vaut 2/3 et celle du quark d vaut -1/3, ce qui donne bien au total une charge
égale à un pour le proton (2/3 + 2/3 – 1/3 = 1) et égale à zéro pour le
neutron (2/3 -1/3 -1/3 = 0).
28
La saveur d’un quark n’est pas seulement une étiquette permettant de le
distinguer des autres. D’abord parce qu’elle est directement liée à la masse des
quarks : les quarks u, d, s, c, b et t ont tous des masses différentes, qui se
répartissent selon un spectre très large (de quelques MeV/c2 pour le quark u à
172 GeV/c2, c’est-à-dire près de 100 000 fois plus, pour le quark t). Ensuite et
surtout parce qu’elle caractérise la façon dont les quarks interagissent par le
biais de l’interaction nucléaire faible, de la même façon que leur charge
électrique
détermine
leur
façon
d’interagir
par
le
biais
de
la
force
électromagnétique. Par exemple, l’interaction faible peut transformer un quark d
en un quark u, et c’est d’ailleurs ce qui se passe lors d’une désintégration bêta
par laquelle un neutron (udd) devient un proton (uud).
Outre la saveur, les quarks ont une autre propriété, tout aussi importante, qui
porte le nom de « couleur ». Le sens que les physiciens des particules donnent à
ce mot n’a pas plus à voir avec la couleur réelle d’un objet que la saveur d’un
quark n’en a avec l’arôme d’un bon plat. Les quarks ne sont nullement colorés
au sens habituel de ce terme. Leur couleur désigne simplement une étiquette
qu’ils portent et qui pilote leur façon d’interagir par le biais de l’interaction
nucléaire forte. Elle est à l’origine du nom de « chromodynamique quantique »
qui a été donné à la théorie de l’interaction forte. Il existe trois couleurs
possibles pour les quarks, arbitrairement choisies : le rouge, le bleu et le vert.
Dans un proton ou un neutron, les trois quarks ont chacun une couleur
différente : il y a donc un quark rouge, un quark vert et un quark bleu. En
moyenne, le proton ou le neutron sont donc « blancs » puisque le blanc peut être
considéré comme l’addition de toutes les couleurs. Les mésons, qui sont quant à
eux constitués d’un quark et d’un antiquark respectivement porteurs d’une
couleur et d’une anticouleur, forment eux aussi des édifices « blancs ».
La théorie des quarks explique que seules les particules blanches sont
détectables en laboratoire. Les quarks étant porteurs d’une couleur bien définie,
ils sont inobservables isolément. On ne détecte que des hadrons, composés soit
des trois quarks (ce sont alors des baryons), soit d’un quark et d’un antiquark
(ce sont alors des mésons), mais jamais des quarks seuls. Ces derniers
demeurent toujours « confinés » au sein des hadrons.
L’interaction nucléaire forte lie entre eux les quarks par l’échange de gluons, qui
sont donc les médiateurs de cette interaction, ses ballons. Les gluons, qui se
comportent comme des sortes d’élastiques incassables, ont une fonction simple :
29
ils « engluent » les quarks au sein des hadrons. Il en existe de huit sortes. Ils
portent eux aussi une couleur (en fait une couleur et une « anti-couleur »), qu’ils
échangent en permanence avec celle des quarks avec lesquels ils interagissent :
ils les font ainsi passer du bleu au rouge ou du vert au bleu et ainsi de suite, tels
des feux tricolores furieusement agités. Cet échange incessant de couleur produit
une sorte d’enchevêtrement entre quarks et gluons capable d’assurer la stabilité
(toute provisoire) des hadrons.
Ajoutons que le fait que les gluons sont eux-mêmes porteurs d’une couleur,
c’est-à-dire qu’ils sont eux-mêmes « chargés » du point de vue de l’interaction
forte, impliquent deux choses : les gluons subissent la force qu’ils transportent,
et ils interagissent entre eux. Ces caractéristiques, qui n’existent pas dans le cas
de l’électromagnétisme (les photons, n’ayant pas de charge électrique, ne
subissent pas l’interaction électromagnétique qu’ils véhiculent), expliquent à elles
seules la complexité des calculs de la chromodynamique quantique.
Les quarks et les gluons, même affublés de propriétés désignées par des mots du
langage courant (par lesquels les physiciens espèrent peut-être faire pendant au
raffinement conceptuel de leur discipline), demeurent des êtres bien étranges. En
effet, ils subissent d’autant moins la présence de leurs voisins qu’ils sont très
tassés les uns contre les autres, dans une zone très exiguë au sein de laquelle la
force qui les lie devient quasiment nulle. Ils deviennent libres à courte distance,
en quelque sorte (c’est cette propriété qu’on appelle la « liberté asymptotique »).
De quoi faire pâlir d’envie ceux qui prennent le métro aux heures de pointe…
Mais cette liberté n’est pas parfaite, car les quarks ne peuvent pas s’échapper
hors des systèmes composites auxquels ils appartiennent. Tout se passe comme
s’ils étaient libres au sein d’une prison dont ils ne pourraient jamais sortir. Car
lorsqu’on veut séparer un quark et l’isoler des autres quarks et gluons avec
lesquels il interagit, l’énergie qu’il faut fournir augmente très vite avec la
distance de séparation6. Économe, la nature préfère utiliser cette énergie pour
créer d’autres quarks et antiquarks : tout quark qui s’échappe s’enrobe
immédiatement d’un manteau de partenaires avec lesquels il forme un nouvel
hadron. Autrement dit, les quarks s’habillent toujours pour sortir, de sorte qu’on
ne les voit jamais nus.
6
On peut comparer cette situation à celle d’un élastique. Si l’on rapproche les deux
extrémités de l’élastique, on ne ressent aucune force. Mais plus on tire, et plus l’énergie
30
Lorsqu’on tente de séparer des quarks, l’énergie que l’on apporte sert en effet à
créer des paires réelles de quarks et d’antiquarks à partir de paires virtuelles
contenues dans le vide. Cela vient de ce qu’il faut moins d’énergie pour créer une
paire de quarks que pour les séparer. C’est du moins ce qu’on observe auprès
des accélérateurs : lorsqu’on projette des protons les uns contre les autres, on
crée des centaines de hadrons. Pour reprendre l’analogie de l’élastique (voir note
3), c’est comme si, en tirant sur un élastique, on en créait beaucoup d’autres. Si
l’on porte la température à plusieurs centaines de millions de degrés, les
expériences et la théorie indiquent que tous les protons « fusionnent », donnant
naissance à une nouvelle phase de la matière, appelée « plasma quark-gluon »,
dans lequel les quarks et les gluons sont libres. Cette phase a dû exister dans
l’univers primordial, avant que les quarks et les gluons ne s’agrègent pour former
les nucléons. Le détecteur ALICE a été conçu pour la mettre en évidence. Environ
un mois par an, le LHC changera de visage : à la place des protons, on y fera
circuler des ions de plomb 208 (qui contiennent au total 208 protons et
neutrons). Le nombre de nucléons étant dans ce cas beaucoup plus important,
les collisions de noyaux qui se produiront au centre du détecteur atteindront des
énergies colossales. En effet, puisque le LHC est réglé pour porter l’énergie d’un
proton à 7 TeV, les ions de plomb, qui contiennent 82 protons, atteindront une
énergie de 82x7 TeV, soit 574 TeV, à partager entre les 208 nucléons du plomb,
ce qui donne 2,76 TeV/nucléon. Ainsi, au moment de la collision entre deux ions
de plomb, une énergie totale de 1148 TeV sera mise en jeu. Elle sera suffisante
pour qu’un plasma de quarks et de gluons se forme et puisse être étudié grâce
aux données enregistrées par ALICE.
Une dernière chose à propos de ces particules élémentaires : le modèle standard
regroupe les quarks et les leptons en trois familles structurées de façon
identique. Chacune d'elle est en effet composée de deux quarks et de deux
leptons. En fait, une seule famille (la première, composée de l'électron, de son
neutrino, et des deux quarks u et d) serait suffisante pour rendre compte de la
matière qui nous entoure (les atomes, par exemple, sont constitués d'électrons
tournant autour d'un noyau, lui-même composé de protons et de neutrons, c'està-dire in fine de quarks u et d). Mais alors, à quoi servent les deux autres
familles ? Pourquoi la nature a-t-elle choisi d’ainsi « bégayer » en créant trois
de l’élastique est grande. Il faudrait une énergie infinie pour éloigner les deux extrémités
à l’infini (en supposant que l’élastique soit assez solide, bien sûr).
31
fois quasiment la même chose ? Et d’où vient la hiérarchie des masses des
particules élémentaires ? Pourquoi certaines sont-elles très lourdes, et d’autres
beaucoup plus légères ? Voilà quelques questions auxquelles les physiciens ne
savent pas (encore ?) répondre.
Le tableau ci-dessous illustre la classification des particules élémentaires
actuellement connues.
Sur quels principes les détecteurs du LHC fonctionnent-ils ?
La fonction d’un détecteur est d’enregistrer et de visualiser les gerbes de
particules résultant des collisions dans les accélérateurs. Les informations
recueillies sur la vitesse, la masse et la charge d’une particule permettent de
l’identifier.
Le travail les physiciens pour identifier la particule qui a laissé une trace dans le
détecteur s’apparente à celui du naturaliste qui étudie les traces laissées par des
animaux sur le sol. Pour les empreintes d'animaux, la taille, la direction, la
profondeur et la forme des traces, la longueur du pas et le motif général peuvent
donner des indications sur le type d’animal qui les a laissées. De la même
manière, les particules laissent dans les détecteurs des signes révélateurs qui
permettent de les identifier.
32
Un détecteur de particules moderne est composé de couches de sous-détecteurs,
chacun étant spécialisé dans un type de particule ou une propriété. Il existe trois
grands types de sous-détecteurs :
Les trajectographes, qui rendent manifeste la trajectoire d'une particule chargée.
Les calorimètres, qui arrêtent une particule ou absorbent une partie de son
énergie, ce qui permet de mesurer celle-ci.
Les identificateurs de particules, qui identifient le type de la particule à l'aide de
diverses techniques.
Afin de permettre l’identification des particules produites lors de collisions,
l’ensemble du volume du détecteur doit être soumis à un champ magnétique.
Lorsqu’elle n’est soumise à aucune force, une particule se déplace en ligne
droite, mais mise dans un champ magnétique, et si elle porte une charge
électrique, sa trajectoire se courbe. À partir de la courbure de la trajectoire, on
peut calculer la charge électrique et l’impulsion de la particule, ce qui aide à
l’identifier. Au sein d’un détecteur, les particules de grande impulsion se
déplacent quasiment en ligne droite, alors que celles à impulsion plus faible
décrivent de petites spirales.
Les trajectographes
Les trajectographes, ou détecteurs de traces chargées, révèlent la trajectoire des
particules chargées électriquement, à travers les traces qu’elles laissent. Des
effets similaires surviennent dans notre vie quotidienne : les avions volant à
haute altitude semblent invisibles, mais si les conditions s’y prêtent, leur traînée
est visible. Pour obtenir des traces, on amène les particules à traverser une
substance afin de visualiser leurs interactions avec les atomes du milieu traversé.
Le détecteur baigne en général dans un champ magnétique intense qui courbe
les trajectoires des particules chargées et permet ainsi de mesurer leur charge
électrique et leur impulsion.
La plupart des trajectographes modernes ne rendent pas les traces des particules
directement visibles. Ils permettent de reconstruire le chemin de particules
chargées tout près du lieu de leur production, en produisant de faibles signaux
électriques enregistrés comme des données informatiques. La configuration des
traces décelées par le détecteur est ensuite reconstituée par ordinateur.
33
Les calorimètres
Un calorimètre mesure l’énergie perdue par la ou les particules qui le traversent.
Il est généralement conçu pour stopper totalement ou « absorber » la plupart
des particules résultant d'une collision, les forçant à déposer toute leur énergie à
l’intérieur du détecteur. En général, les calorimètres sont constitués de couches
d'un matériau de haute densité « passif » ou « absorbant » (du plomb par
exemple) intercalées avec des couches d'un milieu « actif » tel que du verre au
plomb solide ou de l'argon liquide.
Les calorimètres électromagnétiques mesurent avec une grande précision
l'énergie des particules légères - électrons et photons - qui interagissent avec les
particules chargées à l'intérieur de la matière. Le calorimètre de CMS, par
exemple, est constitué de 83000 cristaux de tungstate de plomb longs d’une
vingtaine de centimètres. Ces cristaux très denses (98% de leur masse provient
des métaux qui les composent) sont transparents à la lumière visible.
Les calorimètres hadroniques échantillonnent l'énergie des hadrons (protons,
pions, kaons…) qui interagissent avec les noyaux des atomes. Ils associent un
matériau dense qui absorbe ces particules (du fer en général) avec un milieu de
détection (constitué de « scintillateurs ») pour mesurer leur énergie.
Les calorimètres stoppent la plupart des particules connues, à l'exception des
muons et des neutrinos. Ces derniers ne se manifestent que par un déficit dans
le bilan d’énergie. Quant aux muons, ils n’interagissent que très peu avec la
matière et peuvent se déplacer sur de longues distances, même à travers
plusieurs mètres d’un matériau très dense. Ils sont détectés par des « chambres
à muons », qui sont un élément clé des détecteurs, car les muons fournissent
des indications particulièrement « propres » sur certaines collisions, et sont de ce
fait susceptibles d’identifier de nouveaux phénomènes physiques attendus aux
énergies étudiées par le LHC.
Les identificateurs de particules
Il existe
deux méthodes d’identification des particules par détection du
rayonnement émis par les particules chargées :
34
•
le rayonnement Tchérenkov : il s’agit d’une lumière émise lorsqu’une
particule chargée se déplace dans un milieu donné plus vite que la vitesse de la
lumière dans ce même milieu. La lumière Tchérenkov est émise à un certain
angle, qui dépend de la vitesse de la particule. Si l’on connaît l’impulsion de la
particule, on peut, à partir de cette vitesse, déterminer sa masse, et donc
l’identifier.
•
le rayonnement de transition : ce rayonnement est produit par une
particule rapide chargée lorsqu'elle traverse la limite entre deux matériaux
présentant des résistances électriques différentes. Ce phénomène est corrélé à
l’énergie d’une particule et permet d’en distinguer les différents types.
35
Schéma des détecteurs ATLAS ET CMS
36
LES PARTICULES ET L’UNIVERS
Aujourd’hui, les physiciens des particules et les astrophysiciens, dont les
objets d’études sont pourtant fort différents – le monde du « très petit » pour
les premiers, le monde du « très grand » pour les seconds - collaborent
étroitement. Comment cela s’explique-t-il ?
Par quoi les particules révèlent-elles les débuts de l’univers ?
La physique s’attache à rechercher des relations fixes entre les
phénomènes, des rapports soustraits au changement. Même lorsqu’elle
s’applique à des processus qui ont une histoire ou une évolution, elle les décrit
à partir de formes, de lois, de règles qui sont indépendantes du temps. Ainsi
espère-t-elle construire une « législation invariable des métamorphoses », un
« protocole fixe des modifications » s’appuyant sur des notions insoumises au
temps.
La physique avait-elle le choix ? Pouvait-elle dire l’historicité des phénomènes
sans convoquer des lois échappant à l’histoire ? Si, dans le flux perpétuel qui
emporte tout, rien ne demeurait fixe, le monde ne cesserait-il pas d’être
connaissable et tout ne se perdrait-il pas dans la confusion ? Le fait est qu’il
n’existe pas d’équations de la physique fondamentale dont les concepts
intègrent d’emblée le changement ou le devenir. Sans doute parce qu’il serait
impossible d’exprimer le changement en n’invoquant que des grandeurs qui
changent. Réfléchissons : si les notions figurant dans l’énoncé des lois
physiques n’étaient pas supposées invariables, si elles ne cessaient de changer
au fil du temps, que deviendrait le statut de ces lois ? Permettraient-elles
encore de décrire, de comprendre, de prévoir ? S’agirait-il encore de lois ?
37
Un théorème fondamental, démontré en 1918 par la mathématicienne Emmy
Noether, donne toute sa force à cette idée. Postulons, par exemple, que les lois
de la physique sont invariantes par translation du temps, c’est-à-dire qu’elles
ne changent pas si l’on modifie le choix de l’instant de référence, « l’origine » à
partir de laquelle sont mesurées les durées. Cela revient à dire que les lois
régissant toute expérience de physique ne sauraient dépendre du moment
particulier où l'expérience est réalisée : tout instant en vaut un autre, le temps
n’est pas lui-même soumis au devenir, de sorte qu’il n’existe aucun instant
particulier qui puisse servir de référence absolue pour les autres. Ce que
démontre Emmy Noether, c’est que, dès lors qu’on la postule, cette invariance
des lois physiques par translation du temps a pour corollaire direct une loi de
conservation, en l’occurrence la loi de conservation de l'énergie.
Prenons un exemple pour illustrer ce résultat : imaginons que la force de
pesanteur varie de façon périodique dans le temps, qu’elle soit par exemple
très faible chaque jour à midi et très forte à minuit. On pourrait alors monter
quotidiennement une charge au sommet d’un immeuble à midi, puis la projeter
dans le vide à minuit. L’énergie ainsi gagnée serait plus élevée que l’énergie
dépensée. Il n’y aurait donc plus conservation de l’énergie.
La loi de conservation de l’énergie a donc une signification qui dépasse
largement sa formulation habituelle : elle exprime rien de moins que la
pérennité des lois physiques, c'est-à-dire leur invariance au cours du temps.
On objectera que l’univers d’aujourd’hui ne ressemble guère à l’univers
primordial. Certes, mais en réalité, ce sont les conditions physiques qui ont
changé, et non les lois. En tous ses points d’espace-temps, l’univers conserve
la mémoire de ce qu’il a été ainsi que la possibilité d’y rejouer le scénario de
ses premiers instants. Ainsi, lorsque des physiciens provoquent de très
violentes collisions de particules dans leurs accélérateurs de haute énergie, ils
obtiennent des indications sur ce que fut le passé très lointain de l’univers. En
effet, ils créent - ou plutôt recréent - dans un tout petit volume et pendant une
durée très brève, les conditions physiques extrêmes qui étaient celles de
l’univers primordial (très haute température et très grande densité d’énergie).
De ces chocs sortent de très nombreuses particules qui proviennent de la
matérialisation de l’énergie des particules incidentes. La plupart de ces
particules
n’existent
plus
dans
l’univers :
trop
fugaces,
elles
se
sont
38
rapidement transformées en d’autres particules plus légères et plus stables qui
constituent
la
matière
d’aujourd’hui.
Mais
l’univers
n’en
a
pas
moins
intimement conservé la possibilité de faire réapparaître en son sein, selon des
lois physiques invariables, ces objets qu’il ne contient plus.
Ce point est capital, car il permet à lui seul de comprendre pourquoi les
physiciens des particules et les astrophysiciens en sont venus à collaborer
étroitement : en provoquant aujourd’hui des collisions de particules à très
haute énergie, on découvre ce que fut le passé lointain de l’univers…
La question de l’origine de l’univers : une question sans fin ?
Les physiciens disent parfois que les collisions réalisées à haute énergie
permettent de comprendre « l’origine de l’univers ». Qu’entendent-ils par là ? La
physique la plus contemporaine serait-elle vraiment devenue capable d’envisager
la façon dont les choses ont effectivement accédé à l’existence ? Lorsqu’ils
parlent en ces termes, les scientifiques font-ils preuve d’arrogance, ou ne font-ils
que traduire en mots ce que leurs recherches dévoilent ?
Un bouleversement profond et discret s’est déroulé au cours du siècle
dernier : toutes les disciplines scientifiques ont fini par prendre acte que les
objets qu’elles étudient n’ont pas toujours été comme nous les observons
aujourd’hui. La Terre n’a pas toujours existé et la vie n’y a pas toujours été
présente. Les étoiles ne sont pas immuables : elles se forment, évoluent, se
transforment. Les atomes eux-mêmes ont une histoire : l’univers primordial ne
contenait que des particules élémentaires furieusement agitées.
Progressivement, la description de l’univers est apparue aux scientifiques comme
un grand récit, le plus long de tous. Ce récit parle de la matière inerte, celle des
étoiles et des galaxies, celle de notre planète, mais aussi celle dont est
constituée la matière vivante, y compris nous-mêmes. Dans le prolongement de
cette narration à rebrousse-temps, on voudrait penser que les sciences sont
devenues capables de saisir l’origine même des choses. Et l’on ne concède plus
que du bout des lèvres que les questions d’origine puissent conserver quelque
chose de leurs anciennes amarres métaphysiques.
Pourtant, la prudence s’impose. Car lorsque les scientifiques dissertent sur
l’origine de tel ou tel système, on découvre vite qu’il s’agit plutôt d’un discours
sur ses métamorphoses, parfois de sa généalogie.
39
Ainsi les modèles cosmologiques actuels affirment que, dans un passé lointain,
l’univers était beaucoup plus dense et beaucoup plus chaud qu’aujourd’hui, et
que depuis il ne cesse de se dilater, de se diluer, de se refroidir, à un rythme
dont on vient de constater l’accélération. Ainsi ces modèles retracent comment,
dans un passé très lointain, l’agglomération de particules élémentaires, les
quarks, a engendré protons et neutrons, premiers systèmes structurés à être
apparus dans le déroulement de l’histoire cosmique. Ils expliquent aussi
comment ces premières briques se sont ensuite assemblées pour former les
premiers noyaux d’atomes, puis comment ces derniers se sont associés aux
électrons pour former les atomes proprement dits... Aux échelles astronomiques,
ils retracent comment la gravitation a rassemblé la matière éparse pour former
les étoiles dont la lumière inonde peu à peu l’univers et comment les réactions
nucléaires se déroulant en leur sein ont engendré la plupart des noyaux
atomiques. Ceux de carbone, si importants pour la vie, ont résulté de la fusion
de noyaux plus légers.
Tous ces résultats, vertigineux et cruciaux, ont obligé la cosmologie à intégrer
une dimension historique. Ce n’est pas pour autant que nous comprenons mieux
l’origine proprement dite de l’univers. Le commencement du récit n’est pas le
commencement de l’histoire, encore moins l’origine du monde. Le récit n’inclut
pas d’instant « zéro », encore moins quoi que ce soit qui l’aurait précédé ou qui
pourrait être considéré comme sa cause. Décliner une partie de l’évolution
cosmique, et la généalogie des métamorphoses qui l’ont jalonnée, n’implique
nullement le dévoilement d’une quelconque genèse, au sens fort du terme.
L’« âge de l’univers » évoqué par les cosmologues ne court pas depuis sa
création, mais seulement depuis la plus ancienne étape, baptisée ère de Planck,
auquel notre arsenal théorique nous donne accès.
Les « origines » dont parle la science apparaissent toujours comme relatives : ce
sont des processus qui évoquent la structuration de constituants (particules,
nuages de gaz,…) en systèmes plus complexes (atomes, étoiles,…). Autrement
dit, il s’agit toujours d’une transition d’un état à un autre que nous interprétons
comme l’apparition d’un nouvel objet, le commencement de son histoire.
La science ne semble donc pas pouvoir aborder la notion d’origine dans un sens
absolu, car ce qu’elle décrit n’est jamais une création ex nihilo, un passage du
non-être (rien, absolument rien n’existe) à l’être (quelque chose existe). Elle ne
40
traite donc pas de l’origine proprement dite de l’univers, que le mot origine soit
pris dans son acception chronologique ou causale.
La science se construit à partir de principes, en définissant ses lois et ses objets.
De ces derniers, elle prétend décrire les évolutions, les transformations, donnant
parfois un nouveau nom (atome plutôt qu’agglomérat de particules élémentaires)
à un nouvel arrangement qui apparaît et se stabilise. Elle ne possède aucune
capacité à décrire une transition de l’absence d’objet à la présence d’objet, à
décrire l’apparition d’un objet premier, en particulier de l’univers primordial. Rien
n’y permet de traiter de son apparition à partir de rien : en l’absence de l’espacetemps, en l’absence de substance originelle, la physique n’a plus d’objet ; il n’y
a plus de processus qui relève de sa description.
Le mot big bang – au demeurant bien mal choisi - ne désigne pas une origine
(qui, on l’aura compris, échappe par nature à la science) mais le récit historique
dont, malgré parfois quelques excès de langage, les scientifiques connaissent la
portée limitée. On nous opposera quelques articles scientifiques « sérieux » qui
évoquent la création de l’univers à partir de rien. Nous répondrons en évoquant
l’abus de langage. Le « rien » qu’évoquent ces articles, au demeurant très
spéculatifs, est bel et bien quelque chose : la physique moderne le qualifie de
« vide »,
mais c’est un objet précis de la théorie, qui possède des attributs
spatio-temporels, une énergie, qui obéit à des lois précises. Et qui évolue. Ce qui
lui permet précisément d’engendrer une phase ultérieure, processus que les
articles mentionnés assimilent à une « création ». D’autres versions évoquent
l’explosion d’un trou noir originel mais peu importe, on retrouve toujours un
objet préexistant, obéissant aux lois de l’univers, et dont on ne peut donc
aucunement considérer qu’il serait hors de ce dernier.
Contrairement à ce que leur appellation laisse accroire, ces remarques valent
également pour les modèles dits « de pré-big bang » qui tentent aujourd’hui de
décrire la phase (hypothétique) qui aurait précédé l’expansion de l’univers, c’està-dire celle antérieure à ce que nous appelons le big bang. Différentes versions
de ces modèles ont été proposées à partir de certains principes de la théorie des
supercordes, notamment par Gabriele Veneziano et Maurizio Gasperini. L’idée sur
laquelle ils s’appuient est qu’avant le big bang l’univers aurait connu une
évolution symétrique de celle qu’il a eue après le big bang : au cours de cette
phase de pré-big bang, la densité de matière, au lieu de décroître comme dans
l’univers actuel, devient de plus en plus élevée, la température augmente, tandis
41
que les dimensions de l’univers diminuent, jusqu’à ce que la densité d’énergie et
la température atteignent les valeurs maximales permises par la théorie des
supercordes. À ce moment-là, l’univers rebondit en quelque sorte sur lui-même :
au lieu de se contracter, il se dilate ; toutes les grandeurs qui augmentaient se
mettent à décroître, et vice versa. Ce phénomène de renversement, ou de
rebond, c’est ce que nous appelons le big bang. L’univers antérieur au big bang
peut être vu comme une sorte d’image « miroir » de l’univers postérieur au big
bang, qui lui-même n’est plus qu’une transition entre deux phases distinctes de
l’univers.
Ces théories permettent de donner corps à l’idée d’un univers qui aurait précédé
notre univers actuel. Mais elles ne parviennent à le faire qu’en mettant en place
de nouvelles notions qui, loin de répondre à la question de l’origine, ne font que
l’évacuer, la déplacer, ou la démultiplier : comment est apparu l’univers
antérieur à notre univers actuel ? Et quelle est son origine, et l’origine de son
origine, et ainsi de suite ? La question du début est donc sans fin. Car même si
de futures lois physiques nous permettaient un jour de décrire l’origine de
l’univers, nous nous demanderions aussitôt, puis indéfiniment : qu’est-ce qui est
à l’origine de ces lois ? Et à l’origine de l’origine de ces lois ?
42
LES QUESTIONS QUI RESTENT OUVERTES
EN PHYSIQUE DES PARTICULES
Si l’on pouvait mettre des lunettes à la nature,
on y verrait clair, les jours de brume.
Jorge Luis Borges
Au cours du XXe siècle, les « conquérants du minuscule » qui, il y a cent
ans, doutaient encore de l’existence de l’atome, ont accompli des progrès
spectaculaires. Ils sont d’abord parvenus à identifier puis à classifier de très
nombreuses
particules.
Et
puis
surtout,
ils
ont
démontré
que
la
force
électromagnétique et la force nucléaire faible, bien que très dissemblables en
apparence, n’étaient pas indépendantes l'une de l'autre : dans un passé très
lointain de l’univers, elles ne faisaient qu’une seule et même force, qui s’est par
la suite dissociée.
Cette démarche unificatrice a pu être étendue, dans une certaine mesure, à
l’interaction nucléaire forte, responsable de la cohésion des noyaux atomiques.
Le résultat obtenu, qui permet de décrire trois des quatre forces fondamentales
grâce
à
des
principes
mathématiques
semblables,
est
d’une
puissance
considérable. Il constitue le « modèle standard » de la physique des particules,
qui a été très finement testé grâce à de gigantesques collisionneurs de
particules.
Mais les physiciens savent que, même si sa consistance et sa robustesse sont
aujourd’hui bien établies, des problèmes d’ordre conceptuel apparaissent dans le
modèle standard lorsqu’il s’agit pour d’affronter des conditions physiques plus
extrêmes que celles qui ont été explorées expérimentalement jusqu’à ce jour.
D’abord, à très petite distance, les principes sur lesquels le modèle standard
s’appuie entrent en collision violente les uns avec les autres, de sorte que les
43
équations ne fonctionnent plus. C’est l’indice qu’un nouveau cadre conceptuel
devient nécessaire pour décrire les phénomènes qui se sont déroulés à plus
haute énergie, dans l’univers primordial : « nous sommes dans une pièce avec
une porte dans un coin, mais personne ne sait ce qu’il y a derrière », résume
John Ellis, un éminent théoricien du CERN. Ensuite, le modèle standard laisse à la
marge la quatrième force, la gravitation, qui elle est décrite, toute seule dans
son coin, par la relativité générale. Comment l’intégrer ? Ou, si on ne peut pas
l’intégrer, comment construire un cadre synthétique permettant de décrire à la
fois la gravitation et les trois autres forces ? L’affaire s’annonce plus que délicate,
car, comme nous l’avons déjà dit, l’espace-temps du modèle standard de la
physique des particules est plat et rigide tandis que celui de la relativité générale
est souple et dynamique.
Mais ce n’est pas la seule question. D’autres difficultés d’ordre théorique
persistent et certaines questions cruciales attendent des réponses précises. Nous
nous proposons, dans les pages qui vont suivre, d’expliciter certaines des
interrogations des physiciens, à propos desquelles ils attendent des éclairages
dans les dix ou vingt années qui viennent, en provenance de la théorie, de
l’expérience (notamment du LHC), ou de l’observation astrophysique.
D’où vient que les particules possèdent une masse (inertielle) ?
Souvent, le public se pose la question de savoir comment des particules sans
masse, tel le photon, peuvent exister7. Les physiciens, quant à eux, se pose la
question inverse : comment des particules ont-elles pu acquérir de la masse ?
Plus précisément, ils essaient aujourd’hui de comprendre l’origine de la masse
des particules en étudiant la manière dont celles-ci se propagent dans le vide
quantique. L’idée qu’ils explorent consiste à considérer que la masse des
particules ne serait pas une propriété intrinsèque des particules elles-mêmes :
elle serait liée à la manière dont celles-ci interagissent avec la structure
7
La théorie de la relativité rend cette existence possible, en attribuant une énergie y
compris aux particules sans masse. Seulement, de tels objets ne peuvent pas connaître
le repos. En effet, s’ils étaient immobiles, leur inertie serait nulle et ils pourraient être
accélérés instantanément jusqu’à la vitesse limite, c’est-à-dire jusqu’à la vitesse de la
lumière. Ce paradoxe disparaît si l’on admet que de tels objets se déplacent toujours à la
vitesse limite : ils ne peuvent alors être ni accélérés ni ralentis, mais ils peuvent gagner
ou perdre de l’énergie sans que cela affecte leur vitesse….
44
quantique du vide. Pour traiter les interactions, le modèle standard s'appuie,
comme nous l’avons dit, sur un certain nombre de principes de symétrie très
efficaces du point de vue des prédictions qu’ils permettent de faire. Mais ils
posent aussi un problème irritant. Ils impliquent en effet que les particules
d'interaction doivent avoir… une masse nulle, c’est-à-dire n’opposer aucune
résistance au mouvement ! En effet, au vu des équations, la nature même des
champs
de
jauge
semblent
garantir
leur
caractère
non
massif.
C'est
effectivement le cas du photon, le médiateur de l’interaction électromagnétique,
mais pas du tout celui des particules W+, W- et Z0 qui médiatisent l’interaction
nucléaire faible : leur masse, dûment mesurée, est très élevée. Elle vaut même
près de cent fois la masse d’un proton. Cette contradiction flagrante entre la
théorie et l’expérience a pu être résolue au cours des années 1960. La solution,
qui n’est encore que théorique, a été proposée par trois physiciens, d’abord par
deux belges, François Englert et Robert Brout, puis, de façon indépendante, par
un écossais, Peter Higgs. Elle consiste à invoquer une « brisure spontanée de
symétrie », phénomène bien connu en physique de la matière condensée et qui,
appliquée à la physique des particules, permet d’avancer dans la compréhension
des forces à courte portée.
Mais
qu’est-ce
donc
qu’une
« brisure
spontanée
de
symétrie » ?
Considérons cette analogie : une table ronde est dressée de telle sorte que
chaque verre se situe à égale distance entre chaque assiette. Or les convives
sont ambidextres : pour eux, se saisir d’un verre, plutôt que d’un autre, revient
au même. Supposons également qu’aucune règle de politesse ou de savoir-vivre
ne vienne imposer l’une ou l’autre des deux possibilités. L’ensemble forme donc
un système parfaitement symétrique. Pourtant, si une personne choisit de
prendre le verre placé à sa droite, les autres devront faire de même pour
disposer de leur propre verre. Ce résultat final est le fruit du hasard. C’est
exactement ce qui se produit dans les phénomènes physiques de brisure
spontanée de symétrie. Ils se manifestent notamment dans les ferromagnétiques
tels que le fer ou le nickel. Ces matériaux sont constitués de petits aimants
microscopiques qui ont tendance à s’aligner parallèlement les uns aux autres. À
haute température, ils s’orientent toutefois dans toutes les directions de l’espace
sous l’effet de l’agitation thermique. Lorsque la température diminue en dessous
d’un certain seuil, les aimants s’alignent dans la même direction, et le matériau
45
devient aimanté. Si le matériau est suffisamment grand pour que les effets de
surface
soient
négligeables, et
si
celui-ci
n’est
soumis à aucun champ
magnétique extérieur, il est impossible de déterminer à l’avance quelle sera sa
direction : il suffit que deux aimants microscopiques interagissent et s’alignent
pour que tous les autres fassent de même dans cette direction particulière là. La
brisure de symétrie est bien spontanée dans ce cas, car indépendante de toutes
considérations énergétiques.
On peut risquer une seconde analogie, qui aidera à mieux saisir de quoi il
est question : posons une bille au fond d’une bouteille, dont le profil ressemble à
celui d’une bosse ; parmi toutes les positions possibles, la plus symétrique est
celle située au centre, c’est-à-dire à l’endroit le plus haut ; mais cette position
est si instable que, si on la pose là, la bille roulera vite vers le bord, en suivant
une direction quelconque (soit vers la droite, soit vers la gauche, soit vers
l’avant, soit vers l’arrière) ; la position finale qu’elle occupera sera moins
symétrique que sa position initiale (elle aura suivi une direction particulière alors
que toutes les directions étaient au départ équivalentes), et son énergie finale
sera aussi plus faible qu’au départ (puisqu’en tombant vers une position plus
basse, elle aura perdu de l’énergie potentielle). On a donc là l’exemple d’un
système dont la dynamique a tendance à réduite la symétrie qu’il avait au
départ : l’état final, celui de moindre énergie, est moins symétrique que l’état
initial. Il ya donc eu « brisure spontanée de symétrie ».
Armés de cette nouvelle idée, revenons à notre problème de masses : l’idée des
trois physiciens que nous venons de citer a été d’imaginer qu’une brisure
spontanée de symétrie, semblable à ce qui se produit avec l’aimantation des
corps ferromagnétiques, a pu façonner la structure des forces à courte portée. Le
mécanisme de cette brisure aurait structuré l’espace vide de particules (ce qu’on
appelle le « vide quantique »), de manière à conférer une masse aux bosons de
jauge couplés à cette structure. Une force à longue portée se transformerait ainsi
en une force à faible portée. Les bosons de jauge massifs conservent alors
certaines propriétés des bosons de jauge de masse nulle. Mais pour cela, il
faut introduire l’existence d’une nouvelle particule, le boson de Higgs,
qui fournit la dynamique nécessaire à cette brisure de symétrie. Cette
particule est elle-même massive. Contrairement aux bosons de jauge, elle est
46
qualifiée de « « scalaire », ce qui signifie que le champ qui la transporte ne
comporte pas de direction de polarisation.
Lorsque cette brisure spontanée s’est produite dans l’univers primordial,
l’interaction
électromagnétique
et
l’interaction
nucléaire
faible,
jusque-là
confondues et médiatisées par quatre ballons de masse nulle (trois plus un), se
seraient brusquement différenciées ; elles seraient devenues, l’une et l’autre,
telles que nous les connaissons aujourd’hui, la première avec une portée infinie,
transmise par un seul ballon médiateur dépourvu de masse, la seconde avec une
portée très courte, transmise par trois ballons médiateurs de masse non nulle.
Il a été démontré que ce mécanisme de Higgs serait capable de conférer, sinon
une masse non nulle, du moins l’apparence d’une masse non nulle aux particules
W+, W- et Z0, qui étaient initialement dépourvues de masse. Ce faisant, ce
mécanisme devrait avoir réduit, de façon drastique, la portée de l’interaction
nucléaire faible. Il pourrait par extension expliquer l’origine de la masse de
toutes les particules constitutives de la matière, car l’idée sous-jacente à cette
conjecture est que les particules de l’univers heurtent sans cesse des bosons de
Higgs, qui sont présents dans tout l’espace, ce qui ralentit leurs mouvements de
la même façon que si elles avaient une masse. Dans ce contexte, dire d’une
particule qu’elle est très massive revient à dire qu’elle interagit très fortement
avec le boson de Higgs. Bien sûr, les particules qui n’interagissent pas avec ce
champ ne possèdent aucune masse.
Cette idée constitue une solution satisfaisante et est en parfaite adéquation avec
les théories et les phénomènes établis. Le problème est que personne n’a jamais
observé le boson de Higgs lors d'une expérience pour confirmer cette théorie. Il
faut dire qu’il y a une difficulté : le modèle standard ne fournit que des
indications très vagues sur la masse
possible du boson de Higgs. Les
accélérateurs de particules doivent donc balayer des gammes d’énergie très
importantes, ce qui est laborieux sur le plan de l’analyse des résultats et prend
beaucoup de temps. Mais la difficulté principale est que cette particule semble
être très lourde. Pour espérer la détecter, il faut donc atteindre des niveaux
d’énergie très élevés. Grâce aux résultats du LEP, la précédente machine du
CERN, et à ceux du Tevatron, on sait que sa masse est supérieure à 114 GeV.
Des considérations théoriques suggèrent par ailleurs qu’elle ne dépasse pas 180
GeV. Grâce au LHC et aux quarante millions de collisions de particules par
47
seconde qu’il sera capable de produire, les physiciens pourront explorer toute la
gamme de masses dans laquelle le boson de Higgs est censé se trouver.
Autrement dit, si le boson de Higgs existe, le LHC finira par en apporter la
preuve. Mais si ce boson s’avère introuvable, les physiciens auront le champ libre
pour élaborer une théorie complètement nouvelle afin d’expliquer l’origine de la
masse des particules, par exemple en proposant qu’existent des dimensions
supplémentaires d’espace, ou bien une nouvelle force, ou bien encore en faisant
l’hypothèse que le boson de Higgs serait une particule non pas élémentaire mais
composite.
Le LHC n’est pas un outil de précision au sens où il permet de faire des collisions
de protons, qui sont des particules composites : se produiront en réalité des
collisions quark-quark, avec des énergies très variables. Pour parvenir à produire
le boson de Higgs, il faudra donc faire des milliards de collisions pour en extraire
quelques-unes, ce qui pourrait prendre plusieurs années. Mais en tout état de
cause, nous devrions finir par savoir si le boson de Higgs est un objet bien réel,
comme le sont les autres particules décrites par le modèle standard, ou bien s’il
ne s’agit que d’un artifice mathématique qui aurait abusivement séduit les
physiciens. Car l’énergie des collisions du LHC, donc la masse disponible pour
produire des particules, a en effet été choisie pour couvrir tout le domaine
possible pour le boson de Higgs. Mais il ne faut pas oublier que le Tevatron est
toujours en fonctionnement. Dans ce dernier, des protons entrent en collision
avec des antiprotons (à la différence du LHC où les seules particules en collision
seront des protons), et avec une énergie maximale sept fois moindre qu’au LHC.
Le Tevatron explore donc un domaine de masses pour le Higgs plus faibles que le
LHC, mais il n’est pas tout à fait exclu qu’il lui « vole » la découverte. La plus
faible énergie du Tevatron est en effet compensée en partie par un bruit de fond
moins grand : la présence des antiquarks de l’antiproton pourrait permettre de
produire le boson de Higgs dans des conditions plus favorables, et plus faciles à
distinguer du tout-venant des collisions.
Dans tous les cas, l’affaire ne sera pas simple : on ne reconnaîtra certainement
pas le boson de Higgs comme on reconnaît sa voisine dans la rue. Et surtout, il
n’apparaîtra pas « d’un seul coup ». En effet, rien n’est plus indirect que la
détection d’une telle particule. Pareille prise scientifique nécessitera l’analyse
statistique
d’un très grand nombre
d’événements, qui ne
pourront
être
48
accumulés qu’au bout de longues périodes d’acquisition.
En d’autres termes,
cette particule, si elle existe, ne se donnera à « voir » qu’au prix de multiples
médiations de toutes
sortes, théoriques aussi bien qu’instrumentales ou
expérimentales, qui prendront nécessairement du temps.
Qu’est l’antimatière devenue ?
On sait
aujourd’hui que
la matière de l’univers est
constituée
presque
exclusivement de particules, et non pas d’antiparticules : en d’autres termes, il
n’existe pratiquement pas d’antimatière en dehors des laboratoires dans lesquels
des physiciens en fabriquent. Mais on sait également qu’il n’en a pas toujours été
ainsi : dans son passé lointain, l’univers contenait presque autant d’antiparticules
que de particules. La question qui se pose est donc la suivante : étant donné que
particules et antiparticules ont des propriétés symétriques et qu’elles subissent
exactement les mêmes forces, comment se fait-il que notre monde soit constitué
des premières plutôt que des secondes ?
On sait que les galaxies sont des îlots de matière dans l’espace. Certaines d’entre
elles ne pourraient-elles pas être exclusivement composées d’antimatière ? Cette
hypothèse n’a pas résisté aux observations, car l’existence de collisions entre
galaxies de matière et galaxies d’antimatière devrait produire, par annihilation,
un rayonnement très énergétique et très intense, occupant toutes les directions
du ciel mais qui n’a jamais été observé. En outre, personne n’est parvenu à
imaginer un processus qui aurait
pu séparer totalement
la matière
de
l’antimatière de façon à ce qu’elles puissent former ensuite de grandes structures
homogènes. Nous sommes donc condamnés à admettre l’existence d’une
dissymétrie dans notre univers : la matière y domine, l’antimatière y a été
éliminée.
Le modèle standard de la cosmologie prédit que l’univers primordial devait
contenir autant de matière que d’antimatière, toutes deux à l’équilibre,
s’annihilant et se créant en permanence au sein d’un gaz de photons.
L’expansion de l’univers est venue refroidir progressivement ce milieu, diminuant
l’énergie disponible dans un volume donné. Les particules les plus massives, qui
requièrent davantage d’énergie pour se matérialiser, ont disparu les premières,
donnant naissance par leur désintégration à d’autres particules moins lourdes.
Les
plus
légères
ont
subsisté,
leurs
distances
mutuelles
augmentant
49
progressivement du fait de l’expansion. Leur densité a décru corrélativement,
rendant les annihilations de moins en moins fréquentes. Mais tout cela n’a pas
suffi à déséquilibrer les quantités de matière et d’antimatière. Reste donc à
imaginer un mécanisme par lequel la seconde a pu disparaître au profit de la
première dans un passé très lointain de l’univers.
C’est un futur prix Nobel de la paix, Andreï Sakharov qui, le premier (en 1967)
envisagea la possibilité d’un excédent ténu de matière sur l’antimatière,
indiquant au passage les trois conditions nécessaires à l’apparition d’une telle
dissymétrie (parmi elles figure le fait que certaines particules doivent ne pas se
comporter, en toutes circonstances, exactement comme leurs antiparticules :
c’est ce qu’on appelle la « violation de la symétrie CP », déjà observées sur
certaines particules, telles les kaons neutres ou les mésons beaux). Il expliqua
que si les trois conditions qu’il a énoncées ont bien été satisfaites, le nombre de
protons et de neutrons produits au début de l’univers (et qui constituent notre
matière actuelle) a pu être très légèrement supérieur à celui des antiprotons et
des antineutrons. Après l’annihilation de l’antimatière par la matière, toute
l’antimatière aurait disparu, ainsi que la plus grande partie de la matière, mais
l’excédent de matière, qui était extrêmement faible (dans la proportion d’un pour
un milliard environ) aurait subsisté : il constituerait la matière que nous
observons aujourd’hui ainsi que celle dont nous sommes faits. La matière de
l’univers actuel serait donc l’improbable rescapée d’un gigantesque carnage.
C’est cette conjecture qu’il convient désormais de confirmer ou d’infirmer.
Pendant longtemps, les physiciens se sont demandés si les petites différences de
comportements entre quarks et antiquarks permettraient d’expliquer pourquoi la
matière a fini par triompher. Mais aucun élément de réponse n’a été apporté et
leur espoir se porte maintenant sur les neutrinos. Cette nouvelle piste pourrait
être prometteuse, mais les résultats expérimentaux font encore défaut. De plus,
sur le plan théorique, le lien entre ces hypothétiques différences et l’absence
d’antimatière dans l’univers n’a pas été fait.
Existe-t-il des « sparticules » ?
Qu’est-ce donc que cette « supersymétrie » dont parlent aujourd’hui les
physiciens des particules ? Nous connaissons déjà les symétries qui régissent les
interactions électromagnétiques et faibles, ainsi que les interactions fortes. Il y a
50
aussi les symétries d’espace-temps : translations, rotations et transformations de
Lorentz (qui font jouer des rôles symétriques à l’espace et au temps dans
l’espace-temps à quatre dimensions de la relativité restreinte). La supersymétrie
est, quant à elle, une symétrie d’un type spécial. Proposée dans les années 1970,
il s’agit d’une structure mathématique permettant en principe d’associer des
particules ayant des spins différents. Plus précisément, elle doit associer les
bosons, de spins entiers, aux fermions, de spins demi-entiers, et ce alors même
que leurs comportements statistiques sont par essence très différents. La
supersymétrie peut-elle être véritablement une symétrie des lois fondamentales
de la nature ? Si tel est le cas, il serait naturel de chercher à l’utiliser pour relier
les bosons de spin 1 dont les échanges sont responsables des interactions (c’està-dire le photon, les bosons intermédiaires et les gluons) aux constituants de la
matière (c’est-à-dire les leptons et les quarks) qui, eux, sont des fermions de
spin ½. On tiendrait là une très attirante unification entres la matière et ses
interactions. C’est d’ailleurs l’espoir qui a avait été formulé au départ, lors de
l’ébauche de la théorie. Mais en réalité, les choses ne sont pas aussi simples.
On a imaginé par la suite que chaque particule connue a sa propre image par
supersymétrie, mais que celle-ci nous soit inconnue. Le photon serait ainsi
associé au « photino », les gluons aux « gluinos », le graviton au « gravitino »,
l’électron au
« sélectron », les quarks aux « squarks », et ainsi de suite. Plus
généralement, on est amené à supposer l’existence, pour toutes les particules
connues, d’hypothétiques superpartenaires, aussi appelées « sparticules », dont
les spins diffèrent de ceux des particules ordinaires d’une demi-unité de moment
cinétique. Cette opération a évidemment pour effet immédiat de doubler l’effectif
total des particules élémentaires.
Bien qu’aucune preuve expérimentale ne soit encore venue l’étayer (aucun
partenaire
supersymétrique
des
particules
aujourd’hui
connues
n’a
été
découvert), la supersymétrie a séduit un grand nombre de physiciens. Quels sont
leurs arguments ? D’abord, parce qu’elle semble nécessaire à une grande
unification des interactions électromagnétiques et faibles avec les interactions
fortes. Ensuite, parce que la supersymétrie, qui constitue une extension des deux
grands cadres conceptuels que sont la physique quantique et la relativité
générale, s’exprime de façon naturelle dans le cadre d’un enrichissement de
l’espace-temps par de
nouvelles coordonnées, dites « fermioniques » : la
relativité générale, où l’espace-temps est courbe, conduit à une description de la
51
gravitation liée aux déformations de cet espace. La supersymétrie apparaît enfin
indispensable à la cohérence de la théorie des cordes et autres objets étendus,
que beaucoup considèrent comme pouvant conduire à une théorie unifiée de
toutes les interactions, y compris la gravitation.
Les sparticules se distinguent des particules ordinaires par une caractéristique
appelée R-parité, intimement liée à leur spin, ainsi qu’à leurs nombres
baryoniques et leptoniques. Elles ont toutes une R-parité négative (égale à -1),
alors que les particules ordinaires ont une R-parité positive (égale à +1). La
plupart
de
ces
sparticules
doivent
se
désintégrer
au
bout
d’un
temps
extrêmement court. Seule la plus légère doit rester stable, si la R-parité est bien
conservée. On l’appelle le « « neutralino ». Ses caractéristiques en font le
candidat privilégié pour former la majeure partie de la matière noire (voir ciaprès). Il devrait notamment être une trentaine de fois plus lourd que le proton.
Pour confirmer cette hypothèse, il serait intéressant de pouvoir détecter la
production directe, artificielle, de ce neutralino dans des collisions de haute
énergie. Pour ce faire, il faut accélérer des particules « normales » (par exemple
des protons comme ceux du LHC) jusqu’à ce que leur énergie soit si élevée que
des particules super-symétriques pourront apparaître à l’issue de collisions très
violentes. La théorie
précise
même
que ces particules supersymétriques
devraient apparaître par paires, puis que chacune d’elle devrait se désintégrer en
une
particule
ordinaire
et
une
autre
particule
supersymétrique. De
tels
phénomènes, s’ils ne sont pas des hallucinations de théoriciens et si leur masse
n’est pas trop élevée, devraient pouvoir être observés grâce au LHC.
De quoi est faite la matière noire ?
Depuis plusieurs décennies, l’observation de plus en plus minutieuse des
galaxies sème le trouble. Car la seule façon de comprendre les valeurs des
vitesses qu’ont les étoiles au sein d’une galaxie, si l’on fait l’hypothèse que les
lois de la gravitation sont celles que nous connaissons, est de supposer que la
partie visible des galaxies est enveloppée par une masse énorme de matière
invisible, la matière « noire ». Tout récemment, d’autres phénomènes sont venus
renforcer le crédit qu’il faut accorder à cette idée. Par exemple, on sait que la
lumière est déviée par des masses élevées. Or, pour nous parvenir, la lumière
issue de certaines galaxies lointaines a dû passer à proximité d’un amas de
52
galaxies. Sa trajectoire a donc été distordue en cours de route, comme si elle
était passée au travers d’un système optique. La galaxie nous apparaît dès lors
non plus comme un point brillant, mais comme un arc lumineux (on parle de
« mirages gravitationnels »). De la forme et des dimensions de ces arcs, on peut
déduire la masse de l’amas de galaxies responsable de cette déformation. Et le
résultat est sans ambiguïté : la masse de l’amas ainsi mesurée est en réalité dix
fois supérieure à sa masse apparente, c’est-à-dire à la masse que révèlent les
étoiles visibles qu’il contient. Il y a donc bien de la masse invisible, une matière
noire qui agit gravitationnellement mais n’émet pas de lumière. Notons que le
choix du qualificatif « noire » pour désigner cette nouvelle sorte de matière n’est
pas idéal. Certes, cette matière est noire au sens où elle demeure mystérieuse,
où son statut est obscur, mail elle n’est nullement noir au sens physique du
terme. Il s’agit d’une matière qui n’émet ni n’absorbe de lumière, et qui est
même parfaitement transparente à la lumière. En somme, sa présence est
perçue par les gravitons, mais pas par les photons.
De quoi cette matière noire est-elle faite ? Se pourrait-il qu’elle soit constituée de
particules que nous connaissons déjà, par exemple de neutrinos ? Beaucoup de
physiciens l’ont pensé dans un premier temps, mais cette hypothèse est
aujourd’hui de moins en moins probable. S’agit-il alors d’une matière composée
de particules radicalement
nouvelles ?
Sans doute. Mais lesquelles ? Les
neutralinos que nous venons d’évoquer pourraient-ils faire l’affaire ? Sans doute,
mais à la condition qu’ils… existent, ce qui n’a pas encore pu être démontré.
D’où provient l’accélération de l’expansion de l’univers ?
Grâce à la mise en service de nouveaux moyens de détection, de très
nombreuses données ont pu être recueillies ces dernières années en provenance
de
l’univers.
précisément
Les
la
astrophysiciens
lumière
émise
sont
par
notamment
certaines
étoiles
parvenus
lointaines
à
analyser
en
cours
d’explosion, qu’on appelle des « supernovae ». Et ce qu’ils ont découvert n’a pas
manqué de les étonner.
Les supernovae lointaines qu’ils ont observées correspondent à des explosions
d’une extraordinaire brillance. Elles sont constituées d’une petite étoile très
dense, appelée naine blanche, accouplée à une étoile compagnon plus massive.
Les naines blanches ont une masse à peu près égale à celle du Soleil, mais
53
concentrée dans un volume égal à celui de la Terre, de sorte que leur champ
gravitationnel est très intense. D’où leur terrible voracité : elles arrachent puis
absorbent la matière de leur compagne. Cette orgie augmente leur masse et leur
densité, jusqu’à provoquer une explosion nucléaire gigantesque. Celle-ci est
rendue visible par l’émission d’une lumière très intense qui persiste pendant
plusieurs jours. L’objet brille alors autant qu’un milliard de soleils.
L’intérêt cosmologique de tels événements vient de ce qu’ils servent d’étalons
lumineux. Ils constituent des « bougies standard » permettant d’arpenter
l’univers à grande échelle. Cette vertu vient de ce que leurs « courbes de
lumière » se ressemblent étroitement, avec d’abord un pic de brillance qui dure
quelques semaines, suivi d’un affaiblissement plus lent. Toute différence
observée entre deux courbes de lumière ne peut donc venir que de la distance :
plus la supernova est éloignée, plus la lumière que nous recevons d’elle est
faible. À partir d’une mesure de l’intensité de cette lumière, on peut donc calculer
la distance de l’étoile qui l’a émise, de la même façon qu’on peut évaluer la
distance d’une voiture en comparant la luminosité apparente de ses phares à leur
luminosité intrinsèque.
Les résultats obtenus ont montré que ces supernovae sont plus éloignées que ce
que prévoyaient les modèles cosmologiques « classiques » ! Ils ont permis de
démontré que l’expansion de l’univers, contrairement à ce qu’on avait imaginé
jusque là, est en phase d’accélération depuis plusieurs milliards d’années.
Qu’est-ce à dire ? Dans le processus d’expansion, la gravitation, toujours
attractive, fait office de frein : elle tend à rapprocher les objets massifs les uns
des autres, de sorte que la matière ne peut que ralentir l’expansion. Mais ce que
semble montrer les mesures dont nous parlons, c’est qu’un autre processus
s’oppose à elle en jouant au contraire un rôle d’accélérateur. Tout se passe
comme si une sorte d’anti-gravité avait pris la direction des affaires, obligeant
l’univers à augmenter sans cesse la vitesse de son expansion.
Quel est le moteur de cette accélération ? Personne ne le sait de façon certaine.
Alors, bien conscients de leur ignorance, les physiciens parlent d’une mystérieuse
« énergie noire ».
Les plus courageux avancent quand même quelques hypothèses sur sa nature.
L’énergie noire pourrait par exemple être la « constante cosmologique ». Ce
paramètre, qu’Einstein avait introduit en 1917, correspond en effet à une sorte
de répulsion de l’espace vis-à-vis de lui-même. Dès lors, si sa valeur est non
54
nulle, il devrait imprimer une accélération de l’expansion de l’univers. Mais
d’autres pistes sont évoquées. Par exemple, on ne peut pas exclure que l’énergie
noire provienne d’une « matière exotique », capable, au contraire de la matière
habituelle,
d’accélérer
l’expansion.
Cette
matière
exotique,
radicalement
différente de la matière que nous connaissons, représenterait jusqu’à soixantedix pour cent de la masse de l’univers. Mais de quoi est-elle faite ? La question,
là aussi, reste posée. Enfin, certains physiciens évoquent, comme autres
candidats possibles, le vide quantique, même si rien ne permet d’affirmer qu’il
exerce une influence gravitationnelle sur l’univers, ou bien des dimensions
d’espace supplémentaires, ou bien une mystérieuse « quintessence », ou bien
suggèrent des modifications des lois de la gravitation, ou bien disent que le
champ associé au boson de Higgs pourrait à lui seul faire l’affaire...
Reste que, même si nous ne connaissons pas leur nature, matière noire et
énergie noire existent bel et bien. Ce qui est donc désormais certain, c’est que la
matière visible, ordinaire, celle qui compose les étoiles, les galaxies, et est
benoîtement constituée d’atomes, n’est en réalité qu’une frange du contenu de
l’univers, sa petite écume visible. Elle ne représente que trois ou quatre pour
cent du total, pas plus. Voilà de quoi rendre modestes les physiciens du XXe
siècle, en dépit des multiples découvertes qu’ils ont faites…
La « théorie des supercordes » sera-t-elle confirmée au LHC ?
De
nombreux
physiciens
pensent
aujourd’hui
que
le
dépassement
nécessaire du modèle standard ne pourra se faire qu’en modifiant notre
représentation des objets fondamentaux, et aussi celle de l'espace et du temps.
Une piste est aujourd’hui à l’étude, celle de la théorie des supercordes. Ses
premiers fondements ont été élaborés dans les années 1970, dans le but de bâtir
un cadre général capable d’englober la physique quantique, qui décrit les
particules élémentaires, et la relativité générale, qui décrit la gravitation. Ces
deux théories sont en effet, nous l’avons vu, conceptuellement incompatibles :
les particules quantiques sont décrites dans un espace-temps plat, absolu et
rigide, alors que
l’espace-temps de
la relativité générale est
souple et
dynamique, en permanence déformé par les mouvements de la matière qu’il
contient.
55
Dans la théorie des super-cordes, qui se propose de les dépasser l’une et l’autre,
les particules ne sont plus représentées par des objets de dimension nulle, mais
par des objets longilignes - des supercordes - qui vibrent dans un espace-temps
dont le nombre de dimensions est supérieur… à quatre ! Plus précisément, la
théorie remplace toutes les particules ponctuelles que nous connaissons par un
unique objet étendu, la supercorde, qui vibre dans un espace-temps doté de six
dimensions de plus que l’espace-temps ordinaire. Cette supercorde peut être
ouverte (c’est-à-dire se terminer par deux extrémités) ou refermée sur ellemême, et ses différents modes de vibration correspondent aux différentes
particules possibles : un mode correspond à l’électron, un autre au neutrino, un
troisième au quark…
Les particules habituelles, celles que nous connaissons, correspondent aux
modes de vibration dont les fréquences sont les plus basses. D’autres particules
plus lourdes correspondent aux modes dont les fréquences sont plus élevées.
Elles restent à découvrir (si elles existent !).
Des expériences sont donc indispensables pour valider ou au contraire invalider
cette belle construction, qui n’a pour l’instant abouti à aucune prédiction
vérifiable. Mais comment mettre en évidence des phénomènes physiques
nouveaux liés à l’existence de dimensions supplémentaires de l’espace-temps ? Il
y a quelques années, les physiciens imaginaient que la taille des dimensions
supplémentaires ne pouvait être que la plus petite longueur qu’on sache décrire
en physique et qui est la « longueur de Planck », voisine de 10-35 mètre. Dans
ces conditions, toute manifestation d’un phénomène physique qui se déroulerait
dans l’une de ces dimensions semblait largement hors de portée de nos moyens
d’observation actuels, y compris des accélérateurs de particules les plus
puissants. Le LHC sondera des distances de l’ordre de 10-19 mètre « seulement »
en provoquant des collisions de deux faisceaux de protons de 7 TeV chacun (un
TeV vaut 10 12 électronvolts, soit 1,6 10-7 joule). De telles distances, dix millions
de milliards de fois plus grandes que la longueur de Planck, sont encore
beaucoup trop importantes pour qu’on puisse voir se manifester auprès du LHC
le moindre effet lié à l’existence des supercordes. C’est du moins ce qu’on a
longtemps pensé.
Car en 1996, coup de tonnerre : les physiciens se convainquent que la taille des
dimensions supplémentaires est en réalité un paramètre libre de la théorie et
qu’il n’y a donc aucune raison a priori de la fixer égale à la longueur de Planck.
56
Depuis lors, de nombreux théoriciens se passionnent pour l’idée qu’elle pourrait
être de l’ordre de 10-18 mètre. S’ils ont raison, alors certains des effets liés aux
dimensions supplémentaires de l’espace pourraient être détectés grâce au LHC.
En résumé, on peut dire que si des indices en faveur des dimensions
supplémentaires apparaissent, cela renforcera les tenants de la théorie des
supercordes. Inversement, si la supersymétrie n’était pas confirmée au LHC, la
théorie des supercordes serait fragilisée du fait qu’elle la présuppose.
57
UNE TENTATIVE DE PREVISION DES DECOUVERTES AU LHC
Il est difficile de prévoir à quel rythme se feront les découvertes du LHC, ni en
quoi elles consisteront, et cela pour au moins deux raisons. La première est que
nous ne savons pas quelles sont les découvertes que la nature attend
secrètement de livrer aux physiciens… La seconde est que le LHC est d’une
complexité si extraordinaire que l’« apprivoisement » des détecteurs par les
physiciens ne sera pas immédiat. Il est tout aussi difficile de savoir à l’avance
quelle sera sa fiabilité et à quelle vitesse il pourra atteindre sa luminosité8
maximale. On peut néanmoins esquisser une sorte de scénario prospectif, basé
sur le planning officiel du LHC, qui pourrait être le suivant :
2009 : La supersymétrie est confirmée, à condition qu’elle existe dans la nature
et que l’échelle d’énergie à laquelle elle commence à sa manifester (squarks et
gluinos) soit de l’ordre du TeV.
2009/2010 : Le boson de Higgs est découvert si sa masse est voisine de 180
GeV. Dans ce cas, il pourrait se désintégrer en paires de bosons W, offrant ainsi
une signature aisément détectable, accessible avec une luminosité intégrée
modeste.
2010 : Détection de nouvelles dimensions d’espace, si elles correspondent à des
énergies de l’ordre de la dizaine de TeV. Elles seront détectées grâce à une
production massive de mini-trous noirs qui s’évaporeront presque aussitôt.
2010-2011 : Le boson de Higgs est découvert si sa masse est voisine de 120
GeV. Dans ce cas, il se désintègrera pour partie en photons, comme d’autres
particules produites par les collisions du LHC, ce qui obligera à disposer d’une
plus grande statistique pour pouvoir l’identifier.
8
La luminosité d’un collisionneur de particules est l’une de ses caractéristiques les plus
importantes. Proportionnelle à l’intensité des deux faisceaux qui s’y croisent et
inversement proportionnelle à la surface transverse de ces faisceaux à l’endroit où ils se
croisent, elle détermine, pour un processus physique donné, le rythme auquel ce
processus peut être observé grâce à ce collisionneur : plus la luminosité est élevée, plus
la fréquence d’observation du processus est grande.
58
2012 : Si les quarks sont des particules non pas élémentaires, mais composites,
cela pourrait se voir à partir d’une statistique suffisante d’événements.
2017 : La supersymétrie est confirmée, dans l’hypothèse où elle ne se manifeste
qu’à une énergie de l’ordre de 3 TeV.
59
Remerciements
L’auteur tient à remercier très chaleureusement tous les physiciens du
« groupe de travail LHC », tous membres de l’IRFU ou de l’IPhT, qui s’est
régulièrement réuni de novembre 2007 à mai 2008 : Marc Besançon (SPP), Vincent
Bontems (LARSIM), Gilles Cohen-Tannoudji (LARSIM), Frédréric Déliot (SPP), Alexei
Grinbaum (LARSIM), Marc Lachièze-Rey (SAp), Alexandre Lefèvre (IPhT), Bruno
Mansoulié (SPP), Jean-Yves Ollitrault (IPhT), Nathalie Palanque-Delabrouille (SPP),
Hugo Pereira-da-Costa (SPhN), Robert Peschanski (IPhT), Vanina Ruhlmann-Kleider
(SPP), Yves Sacquin (SPP), Carlos Savoy (IPhT), Florent Staley (SphN) et Pierre Vanhove
(IphT).
Leur disponibilité et leurs commentaires éclairés nous ont été très précieux,
ainsi que l’intérêt continu qu’ils ont montré pour notre travail.
60
GLOSSAIRE
Antiparticule : À toute particule est associée une antiparticule, de même masse
et de charge électrique opposée. L’existence des antiparticules, et plus
généralement de l’antimatière, avait été prédite dans les années 1930. Elle
s’imposait, d’un point de vue théorique, aux yeux des physiciens qui tentaient
d’unifier la relativité restreinte et la physique quantique afin de pouvoir décrire
les particules très rapides.
Atome : Entité composée d'un noyau (assemblage très compact de protons et
de neutrons) et d'un nuage périphérique composé d'un cortège d'électrons.
Baryon : Particule soumise à l’interaction nucléaire forte et composée de trois
quarks.
Boson de Higgs : Particule, non encore découverte, dont l’existence permettrait
d’expliquer comment les particules ont acquis leur masse. Le boson de Higgs
pourrait être détecté grâce au LHC, un puissant collisionneur de protons qui sera
mise en service au CERN en 2008.
Big bang : Modèle théorique, largement confirmé par les observations, d’après
lequel l’univers a d’abord connu des conditions de température et de densités
très élevées, qui se sont atténuées au cours de son expansion.
Collisionneur de particules : Accélérateur dans lequel on réalise des collisions
entre particules provenant de faisceaux circulant en sens inverse. Les
collisionneurs actuels sont circulaires. Les prochains seront sans doute linéaires.
Électromagnétisme : Science qui décrit les lois des phénomènes électriques et
magnétiques, et plus généralement les phénomènes optiques et chimiques. Elle
fut fondée au cours du XIXe siècle. C'est au physicien écossais James Maxwell
(1831-1879)
que
l'on
doit
la
première
synthèse
théorique
de
l'électromagnétisme, sous la forme des équations qui portent son nom.
Électron : Particule élémentaire de charge électrique négative entrant dans la
composition des atomes. Les interactions électromagnétiques entre électrons
d’atomes voisins déterminent les liaisons chimiques qui associent les atomes en
molécules.
Électronvolt : Unité d’énergie utilisée en physique des particules. Un
électronvolt correspond à 1.6 10-19 joule. Le MeV vaut un million de joules, le
GeV un milliard de joules, et le TeV mille milliards de joules.
Force électrique : c'est par elle que deux charges électriques se repoussent si
elles sont de même signe et s'attirent si elles sont de signe opposé. L'intensité de
cette force décroît comme l'inverse du carré de la distance séparant les deux
charges.
61
Hadron : Particule sensible à l’interaction nucléaire forte. Il existe deux sortes
de hadrons : les baryons, constitués de trois quarks, et les mésons, constitués
d’un quark et d’un antiquark.
Interaction électromagnétique : interaction qui est à la base de tous les
phénomènes
électriques,
magnétiques,
optiques,
chimiques.
Elle
est
omniprésente en physique.
Interaction gravitationnelle : interaction toujours attractive, de longue
portée, mais d’intensité beaucoup plus faible que celle des autres interactions
fondamentales.
Interaction nucléaire forte : interaction de courte portée qui assure les
liaisons entre quarks et maintient ensemble les nucléons (composés de quarks)
au sein du noyau des atomes.
Interaction nucléaire faible : interaction responsable de certains phénomènes
radioactifs, notamment la désintégration du neutron en un proton, un électron et
un antineutrino.
Lepton : Particule insensible à l’interaction nucléaire forte. Les leptons chargés
participent aux interactions faible et électromagnétique. Les leptons neutres
(neutrinos) ne subissent que l’interaction faible.
Méson : Particule sensible à l’interaction nucléaire forte et composée d’un quark
et d’un antiquark.
Neutrino : Particule électriquement neutre, de masse très faible, produite lors
de certaines réactions nucléaires, et qui n’interagit que très peu avec la matière.
Il existe trois espèces de neutrinos.
Neutron : Un des constituants du noyau atomique (avec le proton). Il est
composé de trois quarks en interaction. Sa charge électrique est nulle. Lorsqu’il
est seul, le neutron finit par se désintégrer en un proton, un électron et un
antineutrino (au bout de quelques minutes).
Noyau atomique : Cœur d’un atome, très dense, qui porte l’essentiel de sa
masse. Tout noyau atomique est constitué de protons et de neutrons.
Photon : Grain élémentaire de lumière, et plus généralement de rayonnement
électromagnétique, la lumière visible n'étant qu'une des formes de ce dernier. Sa
masse est nulle. Le photon véhicule l’interaction électromagnétique au niveau
élémentaire.
Physique quantique : Formalisme mathématique qui sous-tend toute la
physique contemporaine, à l’exception de la théorie de la gravitation.
Positron : Antiparticule (chargée positivement) de l’électron. Sa masse est
exactement égale à celle de l’électron.
62
Proton : Un des constituants du noyau atomique (avec le neutron). Il porte une
charge électrique positive. Comme le neutron, il est composé de trois quarks en
interaction.
Quark : Particule élémentaire composant les hadrons, c’est-à-dire les particules
sensibles à l’interaction nucléaire forte. Il existe six sortes de quarks (six
« saveurs », disent les professionnels).
Relativité restreinte : Théorie élaborée par Einstein en 1905, qui introduit le
concept d’espace-temps en remplacement des concepts jusqu’alors séparés
d’espace et de temps. Elle a comme conséquence l’équivalence de la masse et de
l’énergie. Une particule est dite « relativiste » si sa vitesse n’est pas négligeable
devant celle de la lumière.
Relativité générale : Théorie de la gravitation élaborée par Einstein en 1916.
La gravitation n’y est plus décrite comme une force qui agit dans l’espace, mais
comme une déformation de l’espace-temps, qui est courbé par la matière et
l’énergie qu’il contient.
Spin : Propriété interne des particules, analogue mais non identique au concept
habituel de rotation sur soi-même. Le spin d'un électron, lorsqu'on le mesure le
long d'une direction arbitraire, ne peut prendre que deux valeurs : soit h/4π, soit
–h/4π, où h désigne la constante de Planck. Si l’on imaginait l’électron comme
une petite sphère chargée, d’un rayon de l’ordre de 10-15 mètre, et si le spin
correspondait à une rotation de cette sphère, alors la vitesse à la surface de
celle-ci devrait être supérieure à celle de la lumière. L’existence même du spin
oblige donc à renoncer à se faire un modèle de l’électron qui s’inspirerait de la
physique classique.
63
Bibliographie
- Michel Crozon, L’univers des particules, collection Points-Sciences, Éditions
du Seuil, Paris, 2006.
-
Gordon Kane, Le Jardin des particules, l’univers tel que le voient les
physiciens, Paris, Masson, 1996.
-
Gordon Kane, Super-symétrie, Paris, Le Pommier, 2003.
-
Étienne Klein, Petit voyage dans le monde des quanta, Paris, coll.
« Champs », Flammarion, 2004.
-
Étienne Klein, Il était sept fois la révolution, Albert Einstein et les autres,
Paris, Flammarion, 2005.
-
Étienne Klein, Les Secrets de la matière, Plon, 2008.
-
François Vannucci, Les Particules élémentaires, Paris, PUF, coll. « Que
sais-je ? », 1992.
-
Les particules élémentaires, une grande énigme pour la physique, Les
Dossiers de la Recherche, N°23, Mai-Juillet 2006.
64
65
Téléchargement