Accélérateur - indico in2p3

publicité
Accélérateur
Les premiers accélérateurs électrostatiques
Pour observer le monde qui nous entoure, nous nous servons en priorité
de nos yeux. Que nous regardions une fleur près de nous ou une étoile
par un télescope, la vision est fondamentale pour ces études qui utilisent
la lumière comme principale source d’information. Or, les particules
élémentaires n’émettent pas de tels rayonnements : comment les «voir»
quand même ? Dans l’obscurité, il faut utiliser d’autres sens comme l’ouÏe
ou le toucher. Ainsi, pour étudier une cloche dans le noir, on pourrait
imaginer de la faire sonner ; l’analyse de ses vibrations nous renseignerait
ensuite sur sa structure. Le même raisonnement est valide pour l’étude de
l’infiniment petit : pour étudier la matière atomique et subatomique, les
physiciens secouent, font vibrer et même cassent ses consituants. Pour
cela, ils utilisent des accélérateurs de particules.
Une fois accélérées, ces dernières entrent en collision et, plus l’énergie
délivrée est importante, plus l’échelle de distance à laquelle on pourra
examiner la matière sera courte. On pourrait, en simplifiant à l’extrême,
dire que les accélérateurs de particules sont des microscopes géants.
Cependant, s’ils servent bien à observer «l’infiniment petit», ils sont basés
sur des principes très différents.
Ce besoin de chocs de plus en plus violents entre particules a donné
naissance à une discipline à part entière, appelée la physique des
accélérateurs. Dans ce numéro et dans les suivants, nous souhaitons
présenter les principaux développements dans ce domaine en les reliant
aux découvertes qu’ils ont permises. Cette perspective historique nous
conduira aux accélérateurs actuels et... futurs, de véritables bijoux
technologiques, bien loin de simples «casse-particules».
L’accélération et le guidage, à des énergies toujours plus importantes,
de particules ou de noyaux chargés repose sur l’utilisation de champs
électrique et magnétique. Dans cet article, nous allons décrire les
principes de l’accélération des particules par des champs électriques, ce
qui nous permettra d’évoquer les accélérateurs «électrostatiques».
Louis de Broglie (1892-1987)
(prononcer « De Breuil ») s’est
d’abord orienté vers les Lettres.
Licencié en Histoire en 1910, il s’est
ensuite intéressé aux sciences, et
plus particulièrement à la physique
théorique, sur les conseils de son
frère aîné Maurice – physicien
autodidacte qui fonda un laboratoire
dans son propre hôtel particulier ! Sa
thèse, publiée en 1924, « Recherche
sur la Théorie des Quanta », postule
l’existence d’une longueur d’onde
associée à chaque particule et il la
relie à l’énergie cinétique de celle-ci.
D’abord accueillie avec scepticisme
par la communauté scientifique,
sa théorie est confirmée de manière
éclatante par des expériences menées
en 1927. Pour ses travaux, il reçoit
le prix Nobel de Physique en 1929.
Du tube de Crookes à la télévision
La science des accélérateurs s’appuie beaucoup sur l’électromagnétisme,
en particulier sur ses développements
fulgurants au XIXe siècle, de Volta à
Pourquoi toujours chercher à augmenter l’énergie des accélérateurs ?
Maxwell en passant par Faraday, Oersted
et Ampère. On s’intéressait beaucoup
Augmenter l’énergie des particules accélérées dans les accélérateurs a deux
avantages :
alors à la production d’étincelles entre
• plus l’énergie E est grande, plus on peut créer des particules de masses M
deux plaques métalliques chargées.
élevées – c’est la célèbre relation d’Einstein montrant l’équivalence masse – énergie
William Crookes construisit en 1875
(voir la rubrique «La question qui tue») : E = M × c2
un appareil – voir figure 1 – pour étudier
• en optique, la longueur d’onde de la lumière (proportionnelle à l’inverse
l’influence de la densité d’air sur la
de sa fréquence) donne l’ordre de grandeur des détails que l’on peut discerner avec
différence de potentiel à appliquer entre
cet éclairage particulier. L’un des grands succès initiaux de la Mécanique Quantique
les plaques pour créer une décharge
a été de postuler, puis de démontrer l’existence d’une longueur d’onde associée à
électrique. En un certain sens, il s’agissait
une particule en mouvement – ce résultat est dû en particulier aux travaux de Louis
du premier accélérateur.
de Broglie. Cette longueur d’onde varie comme l’inverse de l’énergie, c’est « l’effet
page 36
microscope ».
ÉLÉMENTAÍRE
Sous l’effet de la différence de potentiel, des charges négatives (des
électrons) sont émises à la cathode et attirées par l’anode. Lorsque le
voltage est suffisamment élevé, une circulation continue d’électrons se
met en place : c’est comme si le circuit était «fermé» par un «vrai» fil
métallique : l’air est devenu conducteur. Aujourd’hui, on utilise toujours
une cathode pour obtenir des faisceaux d’électrons mais ceux-ci sont
maintenant produits par chauffage.
La pompe à vide permit à Crookes de faire varier la pression de l’air
contenue dans le tube ; il trouva que moins il y avait d’air, moins il
fallait créer de différence de potentiel – appelée également tension de
claquage – pour «fermer» le circuit. Ce phénomène est dû à l’ionisation
des molécules composant l’air par les électrons accélérés entre les deux
plaques : la circulation de charges qui se met en place est alors similaire
à celle qui a lieu dans un fil conducteur. C’est pour éviter cette interaction
entre l’air résiduel et les faisceaux de particules que les accélérateurs
fonctionnent aujourd’hui dans un vide presque parfait. Cela permet de
contrôler au mieux l’énergie et la trajectoire des particules lors de leur
trajet dans l’accélérateur.
Plus tard, on se rendit compte qu’on pouvait modifier un peu l’expérience de
Crookes pour visualiser les «rayons cathodiques» (le faisceau d’électrons)
– voir figure 2. En donnant à l’anode la forme d’un anneau, on permit
aux électrons de passer à travers et d’aller taper sur un écran recouvert
d’une surface sensible : un point lumineux apparaissait alors, signant la
présence des électrons. Ce principe est à la base de l’oscilloscope, un
instrument permettant de visualiser la tension et l’intensité d’un courant,
mais également de la… télévision cathodique ! Chacun des bons vieux
écrans bombés que nous connaissons tous contient en effet un canon à
électron qui balaye toute sa surface à haute fréquence, générant ainsi 24
images par seconde.
© B. Mazoyer
Les premiers accélérateurs électrostatiques
figure 1 : Schéma d’un tube de
Crookes
Pour conclure sur les tubes de Crookes, on peut rappeler qu’un dispositif
similaire, couplé à un aimant, permit à Joseph John («J.-J.») Thomson (1856-
William Crookes (1832-1919)
Encadré 1
Pourquoi des particules chargées sont-elles accélérées dans un champ électrique ?
La relation fondamentale de la dynamique relie la variation de la quantité de mouvement
->
->
p=m×v
->
->
à la force exercée sur une particule de charge électrique q : F = q × E
-> ->
Cette relation s’écrit : dp
—=F
dt
Un champ électrique E uniforme est par exemple créé par une différence de potentiel ∆V
entre deux plaques métalliques situées à une distance D. L’intensité du champ électrique
est alors donnée par :
->
|E|= ∆V
—
D
© B. Mazoyer
La variation d’énergie de la particule->correspond au->travail de la force électrique à laquelle
elle est soumise, soit :
∆E=|F| × D=|q| × |E| x D = |q| × ∆V
ÉLÉMENTAÍRE
page 37
Pour obtenir une variation d’énergie cinétique de 1 GeV (1 MeV) pour une particule de
charge ± e, il faut donc une différence de potentiel ∆V de 1 milliard (million) de volts.
Les premiers accélérateurs électrostatiques
Qu’est qu’un électron-volt ? Pourquoi utilise-t-on des unités particulières en physique des particules ?
A notre échelle, le kilogramme et le joule sont des unités bien adaptées pour mesurer des masses et des énergies. Il en va tout
autrement dans le monde des particules élémentaires. Par exemple, les masses de l’électron et du proton exprimées en kg
sont ridiculement faibles, respectivement me = 9,1 × 10-31 et mp = 1,7 × 10-27 kg. La situation est similaire pour les énergies.
Donc, pour éviter d’avoir en permanence à gérer des grandeurs aussi petites, il est d’usage d’utiliser un autre système d’unités.
L’unité de base pour l’énergie est l’électron-Volt (en abrégé eV) défini par :
1 eV = 1,6 × 10-19 J
C’est l’énergie d’un électron (de charge électrique -e = -1,6 × 10-19 coulomb) accéléré par une différence de potentiel de 1 Volt.
D’après la formule d’Einstein liant masse et énergie (E = m × c2), une quantité exprimée en « eV / c2 » est donc homogène
à une masse (voir rubrique «La question qui tue»). C’est cette unité qui est utilisée dans notre discipline pour « peser » les
particules ; le facteur de conversion entre eV / c2 et kg est :
1 eV / c2 ≈ 1,8 × 10-36 kg
figure 2 : Tube de Crookes modifié :
l’ancêtre de la télévision !
Entre deux plaques parallèles soumises
à une différence de potentiel, un champ
électrique est créé dans la direction
perpendiculaire. On obtient un champ
de même nature en remplaçant la
plaque anode par un anneau. Dans ce
cas-là, les électrons émis par la cathode
ne sont pas absorbés par l’anode mais la
traversent.
© B. Mazoyer
Cette fois-ci, c’est un peu « faible » par rapport aux masses des particules : on parlera donc le plus souvent de Méga-eV
(« MeV », un million d’eV), de Giga-eV (« GeV », un milliard d’eV) voire de Téra-eV (« TeV », mille milliards d’eV) en
divisant ou non par le facteur c2 selon que l’on parle de masse ou d’énergie. Avec ces unités, on a : me = 0,511 MeV / c2 et mp
= 938 MeV / c2. Généralement on omet d’écrire «/ c2» dans le cas des masses, qui sont donc exprimées en MeV ou TeV.
page 38
1940) de découvrir en 1897 que le faisceau émis de la cathode vers l’anode
était formé de particules de charges négatives qui furent baptisées « électrons »
– terme forgé de toutes pièces. La déviation du faisceau cathodique sous
l’action de l’aimant montra d’abord qu’il s’agissait de particules de charges
négatives, puis Thomson l’utilisa pour en déduire le rapport entre la charge
et la masse de l’électron. Ce n’est qu’en 1909 que la charge de l’électron fut
mesurée par Robert Millikan (1868-1953) en observant la chute de gouttelettes
d’huile chargées négativement. Tous deux reçurent le prix Nobel pour leurs
travaux, Thomson en 1906 et Millikan en 1923.
ÉLÉMENTAÍRE
Les premiers accélérateurs électrostatiques
© B. Mazoyer
Champ électrique E
Sir John D. Cockcroft (à gauche) et
Ernest T. S. Walton (à droite) dans leur
laboratoire à Cambridge dans les années
1930.
figure 3. Schéma d’un accélérateur électrostatique Cockcroft-Walton : les particules créées
(par exemple des protons) sont accélérées par la différence de potentiel régnant dans le tube
à vide avant d’entrer en collision avec une cible (par exemple du lithium).
Les accélérateurs électrostatiques
Transmutation
Lors de réactions chimiques «classiques», on retrouve toujours les mêmes
quantités d’éléments avant et après la
réaction. Par exemple, dans :
H2 + ½ O2—> H2O
Dans les premiers accélérateurs, l’énergie acquise par une particule
chargée est proportionnelle à la différence de potentiel établie entre une
anode et une cathode. Grâce à ces accélérateurs, dits électrostatiques
(ou de Cockcroft-Walton du nom de leurs inventeurs, voir figure 3 pour
un schéma), plusieurs découvertes furent possibles. Ainsi, en 1931, des
particules alpha (noyaux d’hélium) de 17 MeV furent produites à partir
d’un faisceau de protons de 0,125 MeV envoyés sur une plaque de lithium.
La réaction était la suivante :
il y a autant d’atomes d’hydrogène (H)
et d’oxygène (O) à la gauche et à la droite
de la flèche symbolisant la réaction, ici la
formation de l’eau (H2O). Au contraire,
une transmutation est une réaction dans
laquelle on transforme les éléments : les
produits de la réaction ne contiennent
pas les mêmes éléments chimiques que
les réactifs ! C’est par exemple le cas de
la réaction :
4
4
7
p + 3Li—> 2He + 2He
L’idée de transmutation est très
ancienne : de l’antiquité aux temps
modernes, la motivation principale des
alchimistes fut la recherche de la « pierre
philosophale », substance capable
en particulier de changer le plomb
en or. Si leur quête fut infructueuse,
leurs rêves plutôt « intéressés » sont
aujourd’hui devenus réalité grâce aux
physiciens nucléaires – pour rencontrer
les alchimistes d’aujourd’hui, voir la
rubrique «Centre ». Dans ces réactions,
le nombre de protons et de neutrons
sont séparément conservés.
p + 73Li—> 42He + 42He
Pour la première fois, un phénomène de transmutation avait eu lieu dans
un accélérateur !
Accélérateurs de Cockcroft-Walton
ÉLÉMENTAÍRE
page 39
Un accélérateur électrostatique Cockcroft-Walton est chargé par
l’intermédiaire d’une chaîne complexe de condensateurs reliés par des
systèmes ne permettant le passage du courant que dans un seul sens.
Ainsi, bien que la source initiale de tension soit alternative – comme notre
« secteur » – les condensateurs se chargent mais ne se déchargent pas.
Le fait d’avoir plusieurs condensateurs consécutifs permet de multiplier
la charge finale de l’accélérateur qui, en première approximation, est
directement proportionnelle au nombre de condensateurs. En fait, des
effets d’oscillation limitent la longueur de la chaîne ; typiquement, on
utilise une dizaine de niveaux de condensateurs.
Les premiers accélérateurs électrostatiques
Accélérateurs de Van de Graaff
Un autre type d’accélérateur électrostatique, dit « Van de Graaff » utilise une
méthode de charge différente : les charges sont émises par un générateur
de courant continu sous une tension de quelques dizaines de kilovolts.
Ensuite, elles sont capturées par une courroie isolée et emportées jusqu’à
l’une des électrodes de l’accélérateur, exactement comme des pierres
amenées par un tapis roulant sur un chantier de génie civil. On pourrait
dire que, dans un « Van de Graaff », les charges prennent l’escalier roulant
alors que, dans un Cockcroft-Walton, elles passent plutôt par l’escalier !
Néanmoins, cette image est imparfaite car, dans les deux cas, les efficacités
sont similaires et les technologies très avancées !
L’accélérateur original construit
par Cockcroft et Walton. Le
tube à vide visible ici mesure
2,50 m de long pour un potentiel
accélérateur de l’ordre de 800 kV.
page 40
Dispositif créant la différence de potentiel
nécessaire à l’accélération des particules
dans un accélérateur de type Van de
Graaff. En particulier, on peut voir la
courroie qui transporte les charges du
générateur au dôme métallique où elles
sont amassées. Celui-ci a une forme
sphérique pour éviter les «effets de
pointe»: un champ électrique est toujours
plus intense au voisinage d’une pointe
et la présence d’un tel défaut pourrait
provoquer des décharges intempestives du
conducteur. Cet «effet de pointe» se vérifie
en particulier lors des orages : la foudre
frappe préférentiellement les éléments en
relief : arbres, pylônes, toits etc.
© B. Mazoyer
En physique nucléaire, l’accélérateur « Van de Graaff » a été
considérablement amélioré par la technologie « Tandem » qui présente
deux étapes d’accélération. On part d’un faisceau d’ions positifs (pour
lesquels les sources sont plus intenses que les ions négatifs) que l’on fait
passer au travers d’un gaz à faible pression dans lequel les ions capturent
un ou deux électrons. Ensuite, un aimant permet de séparer les particules
neutres ou chargées positivement des nouveaux ions négatifs qui pénètrent
alors dans un premier accélérateur « Van de Graaff » où ils sont accélérés.
Au bout du dispositif, les ions traversent une fine couche de carbone ;
comme ils ont une énergie élevée – de l’ordre de quelques MeV – la
plupart de leurs électrons sont éjectés lors de ce passage. Les ions ainsi
ÉLÉMENTAÍRE
« épluchés » acquièrent une charge très positive et entrent dans un second
accélérateur « Van de Graaff » dont le champ électrique est orienté en
sens contraire du précédent. Lors de sa traversée, ils sont à nouveau
accélérés et atteignent finalement une énergie bien plus élevée que dans
la première phase puisque, comme nous l’avons vu précédemment, le
gain d’énergie d’une particule chargée est proportionnel à sa charge.
Depuis ces travaux pionniers, les études menées dans la recherche des
constituants fondamentaux de la matière ont nécessité l’exploration
de domaines d’énergie de plus en plus élevée. Pour les accélérateurs
électrostatiques la possibilité d’atteindre des valeurs de l’ordre du GeV
nécessite la réalisation et la stabilisation des différences de potentiel très
importantes, de l’ordre du milliard de volts. Ces décharges électriques
formidables représentent la principale limitation de ces appareils et
expliquent pourquoi ils ne sont presque plus utilisés dans les complexes
accélérateurs actuels – une exception notable est l’accélérateur de
Fermilab, situé près de Chicago aux États-Unis, qui utilise toujours un
Cockcroft-Walton comme injecteur.
© Nobelprize
Les premiers accélérateurs électrostatiques
Sir John Douglas Cockcroft (18971967) et Ernest Thomas Sinton Walton
(1903-1995) ont partagé le prix Nobel
de Physique 1951 «pour leurs travaux
pionniers sur la transmutation des
noyaux atomiques au moyen de particules
artificiellement accélérées».
© IPN
L’accélérateur tandem installé à l’Institut
de Physique Nucléaire à Orsay. Sa tension
maximale est de 15 MV.
On pourra consulter le site web animé http://
ipnweb.in2p3.fr/activitech/frame_actech.html
pour avoir plus de détails sur la technologie
Tandem.
ÉLÉMENTAÍRE
page 41
L’accélérateur électrostatique Cockcroft-Walton de Fermilab, utilisé
comme première étape d’accélération du faisceau d’ions hydrogène
négatifs (un proton et deux électrons) à partir duquel les protons
sont produits. Le dôme électriquement chargé contient la source des
particules injectées dans l’accélérateur : des atomes d’hydrogène sont
ionisés (gain d’une charge négative) puis injectés dans la ligne de
transfert du Cockcroft-Walton. À la sortie de cet accélérateur, les ions
ont une énergie (750 keV) trente fois supérieure à celle des électrons
d’un tube de télévision.
Accélérateur
Les débuts des accélérateurs linéaires et circulaires
© SLAC
La principale manière d’accélérer des particules chargées consiste à
les plonger dans un champ électrique convenablement orienté (voir
« Élémentaire » n°1). Plus ce dernier est intense, plus les particules
acquièrent une énergie élevée en le traversant. Pour créer ce champ
électrique, les premiers accélérateurs ont utilisé un condensateur dont les
plaques étaient chargées progressivement, puis brusquement déchargées.
Les particules accélérées avaient alors une énergie de l’ordre du million
d’électron-volt (MeV).
Comment aller plus loin et explorer une gamme d’énergie plus large ?
Comme l’énergie fournie est directement proportionnelle à la différence
de potentiel à l’origine du champ électrique, une simple règle de trois
nous montre que pour passer d’une énergie de 1 MeV à une énergie de
1 GeV (1 milliard d’électron-volt) il faudrait disposer de différences de
potentiel énormes, de l’ordre du milliard de volt !
Photo aérienne du Stanford Linear
Accelerator Center (Californie). Le
tube blanc visible sur l’image abrite
le plus grand accélérateur linéaire
du monde (3,2 km environ).
© IPNO
Cette valeur colossale est impossible à obtenir dans un accélérateur
électrostatique du type de ceux présentés dans notre précédent numéro.
En effet, une telle tension rendrait l’air conducteur et les plaques se
déchargeraient instantanément, phénomène appelé « claquage ». Pour
sortir de cette impasse, les physiciens ont mis au point dès les années
1930 d’autres modèles d’accélérateurs : les accélérateurs linéaires, puis
circulaires. Ces machines, largement perfectionnées grâce aux progrès
technologiques, forment toujours la base des accélérateurs d’aujourd’hui ;
c’est pourquoi nous nous proposons de décrire leurs premiers pas dans
la suite. En particulier, nous verrons que ces deux techniques (linéaire
et circulaire) apportent une solution différente à la même constatation :
« puisqu’un seul champ électrique ne peut pas fournir une accélération
suffisante, utilisons-en plusieurs ! »
ÉLÉMENTAÍRE
page 33
© IPNO
L’accélérateur d’ions lourds Alice. Construit en
1970, il fonctionna jusqu’à 1985 à l’Institut de
Physique Nucléaire d’Orsay.
Les débuts des accélérateurs linéaires et circulaires
Les premiers accélérateurs linéaires
Pourquoi utilise-t-on du courant
alternatif plutôt que du courant
continu ?
Schématiquement, un accélérateur linéaire est constitué de plusieurs
condensateurs mis bout à bout : chacun d’entre eux génère un champ
électrique qui apporte de l’énergie aux particules chargées qui le
traversent. En plaçant ces éléments perpendiculairement à la direction
initiale du faisceau de particules, ces dernières ne sont accélérées que
dans le sens de leur mouvement et il suffit de disposer les condensateurs
l’un derrière l’autre, en ligne droite… D’où le nom donné à ce type
d’accélérateur !
Ce choix est motivé par deux
raisons principales. Tout d’abord,
utiliser un courant alternatif permet
de changer au cours du temps le
signe des charges déposées sur
chacune des électrodes métalliques
formant les cavités accélératrices.
En synchronisant précisément
ces variations, on s’arrange pour
que les particules soient toujours
accélérées : elles sont repoussées
par l’électrode qu’elles viennent de
traverser – dont la charge a le même
signe que celles des particules – et
attirées par l’électrode suivante, de
charge opposée. Au fur et à mesure
de la progression des particules
dans l’accélérateur, les charges des
électrodes sont basculées comme le
montre la figure 1. La seconde raison
est beaucoup plus pragmatique : le
courant alternatif est bien moins
coûteux à transporter que le courant
continu, ce qui explique pourquoi
l’électricité fournie aux particuliers
comme aux entreprises l’est sous
forme alternative.
F
En pratique, on utilise une succession d’électrodes cylindriques et creuses,
connectées à une même source de tension alternative, similaire à notre
alimentation d’électricité domestique (le « secteur ») mais nettement plus
puissante. Le câblage électrique est réalisé de manière à ce que deux
électrodes voisines portent toujours une charge opposée. Ainsi, des
différences de potentiel apparaissent et génèrent un champ électrique
entre chaque paire de conducteurs, responsable de l’accélération des
particules. Au contraire, à l’intérieur des électrodes, le champ est nul.
Le champ électrique suit les variations du courant qui est synchronisé
avec le passage des particules, regroupées en « paquets ». La contrainte à
vérifier est simple : lorsque que des particules subissent l’influence d’un
champ électrique en traversant l’espace séparant deux électrodes (on parle
alors de « cavité »), celui-ci doit être accélérateur. Le mode opératoire
permettant de satisfaire cette condition est présenté sur la figure 1.
La fréquence du courant alternatif (fixe) est liée aux longueurs des
cavités (ajustables). Pour des particules non relativistes dont les vitesses
sont très inférieures à celle de la lumière, le gain d’énergie va de pair
F
pas de champ
1
paquet
d'électrons
Accélération
charge -
charge +
F
charge -
F
2
charge -
charge +
charge -
F
F
charge +
charge +
charge -
page 34
© B. Mazoyer
3
Accélération
figure 1 : Oscillations des champs électriques dans un accélérateur
linéaire pour optimiser l’accélération des particules chargées.
① Le paquet de particules, des électrons chargés négativement, est
dans une cavité. La première électrode porte une charge négative et la
seconde une charge positive. Ainsi, le champ est accélérateur. Les charges
des conducteurs étant alternées, la troisième électrode est négative.
② Le paquet d’électrons est maintenant à l’intérieur de la seconde
électrode (creuse !) où il ne règne aucun champ électrique. Il continue
donc sa route en ligne droite à vitesse constante.
③ Au moment où le paquet d’électrons sort de la seconde électrode,
les charges des conducteurs basculent. Ainsi, le nouveau champ, dont
les particules subissent l’influence, est également accélérateur. Si la
configuration des charges ② avait été conservée, le champ aurait au
contraire freiné les électrons.
Le même phénomène se répète tout au long de l’accélérateur linéaire
dans chaque cavité.
ÉLÉMENTAÍRE
© B. Mazoyer
Les débuts des accélérateurs linéaires et circulaires
figure 2 : Principe d’un accélérateur linéaire utilisé pour des particules non relativistes (dont la vitesse est très petite par rapport à celle
de la lumière) pour lesquelles l’énergie et la vitesse croissent de concert. La taille des électrodes augmente proportionnellement à la vitesse
des particules pour assurer la synchronisation des champs électriques alternatifs. Lorsque les particules accélérées sont ultra-relativistes
(c’est-à-dire lorsque leur vitesse a presque atteint celle de la lumière, la vitesse limite indépassable), le gain d’énergie ne s’accompagne pas
d’une variation notable de la vitesse et le problème de longueur précédent ne se pose plus : les cavités ont une taille constante, entièrement
dictée par la fréquence du champ accélérateur oscillant.
avec un accroissement de la vitesse. On doit alors augmenter la taille
des électrodes pour tenir compte de la synchronisation en fréquence du
champ électrique. Cette idée fut utilisée par l’ingénieur norvégien Rolf
Wideröe en 1928. Il inventa et construisit le premier accélérateur linéaire
(ou LINAC) à Karlsruhe, dont un schéma simplifié est représenté sur la
figure 2.
L’accélérateur de Wideröe pouvait accélérer des ions positifs jusqu’à
une énergie d’environ 50 keV. Il lui servit de sujet pour sa thèse, qu’il
publia dans le journal allemand d’ingénierie électrique « Archiv für
Elektrotechnik » avant de se tourner vers l’industrie.
© Pedro Waloscheck
Au début des années 1930, il y eut d’autres avancées dans le domaine
des accélérateurs linéaires. En particulier, David Sloan construisit en
1931 un nouveau prototype capable d’accélérer des ions de mercure
jusqu’à 1 MeV, soit un gain d’un facteur 20 par rapport à l’accélérateur
de Wideröe. Néanmoins, le concept d’accélérateur linéaire fut mis entre
parenthèses par la suite, à cause des coûts prohibitifs induits à l’époque
par la multiplication du nombre de cavités accélératrices et aussi à cause
du… cyclotron, objet de la deuxième partie de notre article !
Rolf Wideröe (1902-1996)
Pour récompenser son apport décisif
à la physique des accélérateurs, Rolf
Wideröe a reçu en 1991 le prix de
l’U.S. Particle Accelerator School,
« en reconnaissance spéciale pour
l’invention de l’accélération à
radiofréquence ».
ÉLÉMENTAÍRE
page 35
Après la seconde guerre mondiale, les accélérateurs linéaires redevinrent
cependant d’actualité : le développement des technologies liées au radar
avait permis la mise au point de cavités accélératrices haute fréquence
d’encombrement plus réduit. Celles-ci rendirent possible l’accélération à
de plus hautes énergies, tout en limitant la taille des machines.
Les débuts des accélérateurs linéaires et circulaires
Aujourd’hui, les accélérateurs linéaires sont toujours utilisés, y compris
dans les très gros complexes d’accélérateurs circulaires. En effet les
particules produites – à l’aide d’une cathode chauffée pour les électrons
ou à partir d’atomes d’hydrogène, pour des protons – commencent
toujours leur parcours par un trajet rectiligne au cours duquel elles
reçoivent une accélération initiale avant d’être envoyées vers d’autres
systèmes d’accélération.
Trajectoire d’une particule dans un
champ magnétique
Placée dans un champ magnétique
uniforme, une particule chargée dont
la vitesse est initialement dans une
direction perpendiculaire au champ,
décrit une trajectoire circulaire dont
le rayon est d’autant plus grand que
la particule a une impulsion élevée et
d’autant plus petit que le champ est
intense.
Comme le gain d’énergie par cavité accélératrice est limité par des effets
variés (en particulier relativistes), il faut un grand nombre de cavités pour
obtenir des énergies élevées. Ainsi, les accélérateurs linéaires actuels ont
des dimensions de l’ordre du kilomètre et celui de la prochaine génération
– dont les caractéristiques viennent juste d’être définies au niveau
mondial après de nombreuses années de débat dans la communauté
scientifique concernée – devrait être encore dix fois plus long. Malgré les
progrès technologiques, l’encombrement de telles machines est toujours
problématique !
Les premiers accélérateurs circulaires
On peut montrer que la période du
mouvement circulaire, c’est-à-dire
le temps mis pour faire un tour, est
indépendante de la vitesse de la particule
et du rayon de la trajectoire. Elle est
uniquement déterminée par la valeur
du champ magnétique appliqué.
Pour augmenter encore l’énergie des particules, il faut disposer d’un
grand nombre de cavités accélératrices. Comment y parvenir sans tomber
dans le piège du gigantisme ? Une réponse « simple » : il suffit de faire
parcourir plusieurs fois le même chemin aux particules, en les maintenant
sur une trajectoire quasi-circulaire à l’aide d’un champ magnétique.
On peut se convaincre que la valeur de la vitesse d’une particule n’est pas
modifiée par un tel champ, puisque la force magnétique est perpendiculaire
à la trajectoire de la particule. À la différence du champ électrique, on ne
peut donc pas modifier la valeur de la vitesse d’une particule avec un champ
magnétique uniforme, mais simplement la dévier. Ainsi, si on suppose
que le mouvement de la particule a lieu dans le plan perpendiculaire au
champ magnétique, sa trajectoire sera circulaire et à vitesse constante.
Le rayon de l’orbite étant proportionnel à la vitesse, le temps mis par la
particule pour effectuer une fraction donnée de tour est constant. Cette
propriété est exploitée dans
les accélérateurs circulaires,
ou cyclotrons (voir figure 3) :
à chaque demi-tour, les
particules sont soumises à
un champ électrique qui
les accélère. Le courant
alternatif qui produit ce
champ est synchronisé avec
la fréquence de rotation
des paquets de particules
page 36
figure 3 : Schéma de cyclotron.
Le champ magnétique a une
direction perpendiculaire au
plan du dessin.
ÉLÉMENTAÍRE
Les débuts des accélérateurs linéaires et circulaires
dans le cyclotron. Ainsi, le champ est toujours accélérateur lorsque les
particules traversent l’espace entre les plaques qui le délimitent.
© FNAL
À chaque passage dans le champ électrique, les particules sont accélérées,
ce qui a pour effet d’augmenter le rayon de courbure de leur trajectoire
qui ressemble finalement à une spirale. Dans les premiers cyclotrons, une
source d’ions est placée au centre. Sous l’action conjuguée des champs
électriques et magnétiques, les particules produites s’en éloignent jusqu’à
arriver au bord de l’accélérateur. Lorsque les ions accélérés s’en échappent
finalement, ils peuvent être utilisés pour diverses expériences.
figure 4 : Le premier
cyclotron de Lawrence
(1930).
L’inventeur du cyclotron est américain : au début de l’année 1929, un
jeune scientifique nommé Ernest O. Lawrence tomba par hasard sur
l’article de Wideröe et, malgré sa méconnaissance de l’allemand, comprit
les schémas et les photos publiées. Souhaitant exploiter cette méthode
novatrice d’accélération en évitant ses inconvénients (en premier lieu
la taille et le coût des accélérateurs linéaires), il eut ainsi l’idée d’un
autre type d’accélérateur, circulaire cette fois-ci, où les particules sont
« ramenées » sans cesse dans la même zone d’accélération grâce à un
champ magnétique qui courbe leur trajectoire.
Ernest O. Lawrence avait également en projet la construction
d’un cyclotron de 4,6 m de diamètre, capable d’atteindre
une énergie de 340 MeV. Il espérait ainsi pouvoir produire
une particule que l’on pensait à l’époque être responsable
de l’interaction forte (la force qui assure la cohésion
des noyaux atomiques). La deuxième guerre mondiale
ÉLÉMENTAÍRE
Ernest O. Lawrence (1901-1958)
Extrait du discours de réception d’Ernest O. Lawrence pour le
prix Nobel de physique 1939.
« (…) Début 1929, un soir où je parcourais des revues récentes
dans la bibliothèque de l’université, je tombais sur un article
de Wideröe traitant de l’accélération répétée d’ions positifs,
dans un journal de génie électrique allemand. Étant incapable
de lire l’allemand, je regardais plutôt les diagrammes et les
photographies de l’appareil de Wideröe et, à partir des divers
schémas de l’article, je fus capable de déterminer son approche
générale du problème – à savoir l’accélération répétée d’ions
positifs par l’application appropriée de tensions oscillant en
radiofréquence sur une série d’électrodes cylindriques alignées.
Cette nouvelle idée s’imposa immédiatement à moi comme la
bonne réponse au problème technique de l’accélération d’ions
positifs (...) »
Il faut porter au crédit de Lawrence le fait qu’il ne manqua
jamais une occasion de préciser ce qu’il devait aux travaux de
Wideröe. Ainsi, même si Lawrence seul obtint le prix Nobel de
physique, Wideröe acquit également une célébrité méritée.
page 37
Dans les années 30, les cyclotrons devinrent de plus en
plus grands. En 1932 le troisième cyclotron de Lawrence
mesurait 69 cm de diamètre et des protons y étaient
accélérés à une énergie de 4,8 MeV. En 1938, un autre
cyclotron fut utilisé pour la première fois dans un traitement
contre le cancer. En effet Ernest Lawrence collabora avec
son frère John qui était alors directeur du Laboratoire de
physique médicale à l’université de Berkeley en Californie.
En 1939 enfin, son dernier modèle de cyclotron mesurait
1,5 m et pouvait accélérer des protons à 19 MeV.
DR
En 1930, le premier cyclotron de Lawrence (construit avec son collègue
Milton Livingston) ressemblait plutôt à un jouet : il mesurait seulement 11
cm de diamètre et avait coûté 25 dollars de l’époque, mais il pouvait déjà
atteindre une énergie de 80 keV (figure 4). Un an plus tard, son grand
frère, un cyclotron de 28 cm, arriva à l’énergie de 1 MeV. Cette machine
aurait pu casser le noyau atomique avant que Cockcroft et Walton ne le
fassent (voir Élémentaire n° 1), mais Lawrence manqua le coche : en effet,
on raconte qu’il se trouvait en voyage de noces lorsque la
nouvelle de la fission du noyau de lithium lui arriva...
Les débuts des accélérateurs linéaires et circulaires
freina ce programme : Lawrence rejoignit l’équipe du projet Manhattan qui
s’occupait de mettre au point la bombe atomique.
© Ernest Orlando Lawrence Berkeley National Laboratory
De toute manière, la technique du cyclotron était destinée à se confronter avec
un problème conceptuel majeur qui limite en pratique l’énergie maximale
atteignable à environ 100 MeV : la théorie de la relativité d’Einstein. En effet,
dès qu’une particule approche de la vitesse de la lumière, des phénomènes
nouveaux apparaissent et compliquent l’utilisation des techniques dont nous
venons de parler. Par exemple, le temps de parcours de l’orbite n’est plus
constant ce qui fait que notre discussion précédente du champ accélérateur
ne s’applique plus. De plus, les particules perdent une partie de leur énergie
à chaque tour, sous forme de rayonnement lumineux, appelé « rayonnement
synchrotron » - perte qu’il faut compenser.
Pour atteindre des énergies plus élevées, de nouveaux progrès dans la
conception des accélérateurs étaient nécessaires : le cyclotron allait bientôt
être remplacé par le « synchro-cyclotron » dans lequel le champ magnétique
augmente avec la vitesse des particules, les forçant ainsi à rester sur la même
trajectoire circulaire. Néanmoins, les cyclotrons restent encore utilisés
aujourd’hui, pour des études en physique nucléaire, pour la production de
radio-isotopes et dans le domaine médical.
Lawrence à Berkeley en 1939 devant son
cyclotron de 1,5 m.
page 38
Ernest O. Lawrence obtint son doctorat à l’Université de Yale en 1925,
après des études de chimie et de physique dans les Universités du
Dakota du Sud, du Minnesota et de Chicago. Après trois ans passés à
Yale, il partit pour Berkeley où il avait obtenu un poste de professeur
assistant. Dès 1930, il était professeur (le plus jeune sur le campus
de Berkeley) et il prit la direction du Laboratoire de radiation de
l’université en 1936. Il occupa ces fonctions jusqu’à son décès. Le prix
Nobel de physique 1939 couronna en particulier son invention du
cyclotron et ses applications en biologie, en médecine ou dans l’étude
de centaines d’isotopes radioactifs. Lawrence travailla également
sur les ions, étudia les décharges électriques de la foudre et mit au
point un compteur capable de mesurer des intervalles de temps de
3 milliardièmes de seconde. Pendant la seconde guerre mondiale, il
participa de manière décisive aux efforts des scientifiques pour mettre
au point la bombe atomique. Après la fin du conflit, il milita pour la
signature d’accords internationaux bannissant les essais nucléaires.
Deux laboratoires de physique américains portent aujourd’hui le
nom de Lawrence : les laboratoires « Lawrence Livermore » (LLNL)
http://www.llnl.gov/ et « Lawrence Berkeley » (LBL) http://www.lbl.
gov/. Enfin, l’élément chimique artificiel de nombre atomique Z = 103
fut découvert en 1961 au LLNL et fut baptisé « lawrencium » en son
honneur.
De nombreux accélérateurs de particules actuels sont
basés sur le principe du synchro-cyclotron. Ils ont une
forme quasi-circulaire, alternant des zones courbées
dans lesquelles les particules tournent sous l’effet
d’un champ magnétique et des zones rectilignes où
elles sont accélérées par des champs électriques.
C’est par exemple le cas au CERN, près de Genève,
où se trouve un anneau souterrain d’une trentaine de
kilomètres de circonférence, creusé dans un tunnel
situé à cheval entre la Suisse et la France. Pendant
une dizaine d’années (de 1989 à 1999), on a procédé
à des expériences qui nécessitaient d’accélérer des
faisceaux d’électrons et de positrons jusqu’à des
énergies dépassant 100 GeV par faisceau – énergie
5000 fois plus élevée que celle du cyclotron de
Lawrence de 1939. En 2007, des protons remplaceront
les électrons et atteindront des énergies encore bien
plus colossales : environ 7 TeV soit plus d’un ordre
de grandeur encore gagné ! Ce sera alors le temps
du LHC (« Large Hadron Collider »), mais c’est une
autre histoire... À bientôt pour la suite de la saga des
accélérateurs !
ÉLÉMENTAÍRE
Accélérateur
Du cyclotron au synchrotron
Les enfants de Lawrence
1
Le synchrocyclotron de 184 pouces
(environ 5m) de diamètre de Berkeley. On
remarquera l’importance de la bobine (1)
créant le champ magnétique ainsi que de
la culasse de fer (2) assurant le « retour »
du flux magnétique. La distance entre les
pièces polaires est également très grande
(un peu plus de 1,6m). Des membres de
l’équipe ont pris la place des « D ». La forme
tronconique des pièces polaires de l’aimant
est soigneusement étudiée afin que les
lignes du champ magnétique maintiennent
les particules dans le plan horizontal. On
notera, sur cette photo, que la parité homme
femme n’était pas encore d’actualité.
Des cyclotrons aux synchrocyclotrons
Dans les cyclotrons deux électrodes creuses en forme de « D », appelées
pour cela « dees» (prononcer à l’anglaise « diiiises »), sont mises face à
face. Entre elles on applique un champ électrique oscillant qui est toujours
accélérateur pour le faisceau de particules qui le traverse. Un vide
poussé règne dans les électrodes et l’ensemble est placé dans un champ
magnétique, perpendiculaire au plan des « D ». Dans ces premières
machines circulaires l’accélération se faisait presque « automatiquement
», à chaque passage entre les « D », sans que l’on ait à tenir compte
de la vitesse de la particule. En effet, le rayon de sa trajectoire étant
proportionnel à sa vitesse, la particule met toujours le même temps
pour faire un demi-tour ce qui permet de synchroniser son passage avec
la fréquence du champ électrique accélérateur. En
fait, ce mode de fonctionnement ne permet pas de
Cible
dépasser des énergies supérieures à quelques dizaines
de MeV pour des protons. À ces vitesses, les effets
de la relativité deviennent notables. Il en résulte que
la ronde des particules ne présente plus la même
régularité. Les particules sont en retard par rapport au
champ oscillant et ratent littéralement la vague qui Générateur de
tension alternatif
permettrait de les accélérer au bon moment.
Aimant dipôlaire
en force de "D"
Région de champ
magnétique uniforme
page 39
Champ électrique oscillant :
toujours accélérateur
quelle que soit la direction
de passage des particules
B
Schéma du cyclotron. Le champ
magnétique est orienté selon une
direction perpendiculaire au plan du
dessin.
©B. Mazoyer
A
Ce problème de simultanéité entre le temps d’arrivée de
la particule et celui définissant la direction et l’intensité
du champ accélérateur est en fait plus général. Quelle
Source d'ions
que soit la source utilisée, les particules élémentaires
sont produites au centre du cyclotron avec des vitesses
variées. Ainsi, elles n’arrivent pas toutes en même temps dans la zone où
règne le champ électrique et ne rencontrent donc pas les mêmes conditions
ÉLÉMENTAÍRE
2
©Berkeley Lab.
L’invention du cyclotron par E.O. Lawrence en 1929 (voir
Élémentaire 2) a ouvert la voie à de nombreuses découvertes
en physique nucléaire dans les décennies qui ont suivi.
Son équipe, basée à Berkeley (Californie), a joué un rôle
majeur dans la mise au point d’accélérateurs circulaires
toujours plus puissants, basés sur le même principe. Cette
course effrénée – toujours plus haut en énergie, toujours
plus profond dans la compréhension de la structure de la
matière – s’est accompagnée de nombreuses avancées dans
les techniques d’accélération qui ont permis de résoudre les
problèmes nouveaux rencontrés chaque fois qu’une machine
était mise en service. Nous allons décrire quelques-uns de
ces développements, parmi les plus marquants et les plus
décisifs.
d’accélération puisque l’intensité du champ oscille avec le temps. En
1945, E. Mac Millan à Berkeley, ainsi que V. Veksler en Union soviétique,
et également M.L.E. Oliphant en Angleterre, inventent, indépendamment,
le concept de « stabilisation de phase » qui permet d’ordonner au mieux
le faisceau en tirant partie de cette situation initiale pour le moins…
désorganisée ! On s’arrange pour que le champ (et donc l’accélération
associée) ne soit pas maximal mais soit dans sa partie croissante lorsque
les particules dont la vitesse est proche de la vitesse moyenne du faisceau
le traversent. Ainsi, les particules « lentes », arrivant un peu plus tard,
sont soumises à un champ plus intense et sont donc plus accélérées que
celles, plus rapides, qui les ont précédées. Ce phénomène homogénéise
peu à peu la distribution des vitesses
Configuration
des
du faisceau et regroupe les particules
lignes de champ mapar « paquets » aux propriétés (énergie,
gnétiques
dans
les
trajectoire, etc.) bien définies. Au bout
premiers cyclotons. Une
de quelques passages, les particules
particule qui s’écarte
sont « domptées » et il devient alors
du plan horizontal, y
est
automatiquement
possible d’ajuster la fréquence du
ramenée (voir la direction
champ oscillant afin d’accompagner
des forces (F) auxquelles
l’effet
relativiste
et
d’atteindre
elle est soumise).
progressivement des énergies plus
élevées.
Le premier synchrocyclotron a été construit à l’université de Californie
(Berkeley) en 1946. Il s’agissait de la modification du cyclotron de 184
pouces de diamètre (soit environ 5m) conçu par E.O. Lawrence et son
équipe avant la seconde guerre mondiale. D’autres machines de ce type
ont été construites en URSS (Dubna) et au CERN. L’énergie communiquée
à des protons était de 600-700 MeV ce qui est suffisant pour produire et
étudier les pions et les muons (voir « Histoire »). Le synchrocyclotron
a été le premier accélérateur du CERN. Il a démarré en 1957 et n’a été
fermé qu’en 1990. Dans les synchrocyclotrons modernes, comme celui
de Zurich, une configuration complexe du champ magnétique permet
d’obtenir des trajectoires isochrones (le temps mis pour les parcourir
est le même) et de fonctionner à fréquence constante. Ces machines
délivrent des intensités plus élevées que les précédentes car elles assurent
la circulation de particules à plusieurs énergies différentes au lieu d’une
seule.
particule
plus lente
Particule
ayant l'énergie
moyenne
©B. Mazoyer
temps
Illustration du principe de stabilisation
de phase.
Le synchrocyclotron du CERN.
© CERN
Le synchrocyclotron de Dubna.
Le synchrocyclotron
du PSI à Zurich
(Suisse). Les aimants
correspondent
aux
pièces en couleur.
Les quatre structures
grises servent à créer
le champ accélérateur.
© Paul Scherrer Institute
particule
plus rapide
page 40
E (champ électrique)
Du cyclotron au synchrotron
ÉLÉMENTAÍRE
Du cyclotron au synchrotron
Une des limitations du synchrocyclotron vient de la quantité de fer
nécessaire pour construire l’aimant qui génère le champ magnétique
dans tout le volume de l’accélérateur. On eut alors l’idée de créer des
accélérateurs qui en exploitent uniquement la partie « utile », c’est-à-dire
lorsque les particules ont atteint leur énergie finale. Dans un synchrotron,
le trajet des particules n’est plus une spirale partant du centre de la
machine, mais un cercle de rayon fixe. Le champ magnétique est créé par
des aimants ayant une section en forme de « C » disposés uniquement le
long de la circonférence de l’accélérateur. Afin de maintenir les particules
dans l’anneau, l’intensité du champ magnétique croît à mesure que
l’énergie des particules augmente. Comme ce dispositif ne peut
accélérer que des particules possédant une énergie minimale,
il faut commencer par utiliser un injecteur, constitué par un
accélérateur linéaire fonctionnant à basse énergie.
Le premier synchrotron, appelé le Cosmotron, est entré en
fonctionnement à Brookhaven (état de New-York) en 1952 et
accélérait des protons jusqu’à 3 GeV. Le Bevatron de Berkeley
a démarré en 1954 et accélérait des protons à 6,2 GeV. On y
a notamment découvert l’antiproton en 1955 (l’énergie de la
machine avait été choisie dans ce but).
©BrookavenLab..
Les premiers synchrotrons
Le Cosmotron de Brookhaven a démarré en
1952. Son nom rappelait que cette machine
était conçue pour remplacer les rayons
cosmiques comme source de particules.
La focalisation forte
ÉLÉMENTAÍRE
3
1
2
page 41
Le Bevatron de Berkeley. Sur la droite on voit le pré-injecteur (1) et
l’accélérateur linéaire injecteur (2) qui amènent respectivement les protons
à des énergies de 0,5 et de 10 MeV, avant de les introduire dans l’anneau
(3). Le Bevatron tire son nom de « BeV » qui est un synonyme inusité de
« GeV » (billion = giga).
Le synchrotron de Birmingham
(Angleterre).
©Berkeley Lab.
Alors que les premiers synchrotrons entraient en fonctionnement,
les physiciens savaient que pour atteindre des énergies dix
fois plus hautes il leur faudrait cent fois plus d’acier soit 200
000 tonnes en prenant le Cosmotron comme référence. À titre
de comparaison, la tour Eiffel ne pèse « que » 10 000 tonnes.
Une découverte allait permettre de surmonter cette difficulté.
À Brookhaven, Ernest Courant, Stanley Livingstone et Hartland
Snyder inventent, en 1952, le gradient alterné ou principe de
focalisation forte, bien que la paternité de cette idée semble
devoir être attribuée à Nicholas Christofilos qui déposa un
brevet en 1950. Dans les machines précédentes, le faisceau
de particules est maintenu dans le plan horizontal grâce à
la configuration du champ magnétique. Ce dernier n’est pas
rigoureusement vertical pour ramener vers le plan horizontal les
particules qui s’en écartent. Dans les synchrotrons cette fonction
est assurée par la région au voisinage des ouvertures des aimants
en « C », qui sont toutes dirigées vers l’extérieur de l’anneau.
Du cyclotron au synchrotron
vers le centre de la machine
©B. Mazoyer
Docteur Livingstone,
I presume ?...
Par contre, le rayon de la trajectoire n’est pas très contrôlé,
les particules peuvent « tanguer » et balayer une large
couronne dans le plan horizontal. La chambre à vide dans
lesquelles elles circulent doit donc être volumineuse (20 x
60 cm de section pour le cosmotron). En alternant la forme
des ouvertures des aimants, les physiciens de Brookhaven
obtiennent la stabilité du mouvement, également dans le
plan horizontal. En effet, en combinant des systèmes qui
focalisent et défocalisent on peut obtenir un effet résultant
focalisant. Le principe fut vérifié à Cornell (USA) en 1954
avec un accélérateur à électrons de 1,3 GeV. Dans les
machines modernes, les aimants assurant la courbure des
trajectoires et leur stabilisation sont distincts. Les premiers
sont appelés dipôles, les seconds quadripôles. Un quadripôle
est, par construction, focalisant dans une direction et
défocalisant dans l’autre ; cependant l’utilisation de doublets
de quadripôles permet, selon le principe précédent, d’obtenir
une focalisation dans les deux directions perpendiculaires à
la direction du faisceau.
Grâce à la focalisation forte on put ainsi réduire la taille de
la chambre à vide où circule le faisceau, ainsi que celle des
aimants. Des machines fonctionnant à des énergies plus
hautes purent alors voir le jour. Ce furent, en 1959, le proton
synchrotron (PS) du CERN opérant à 25 GeV, puis, l’année
suivante l’AGS de 33 GeV, à Brookhaven. De telles machines
ne nécessitaient que deux fois plus d’acier que celles de 3
GeV et leur chambre à vide n’avait que quelques centimètres
lentille
équivalente
de rayon.
d
L’AGS de Brookhaven (Alternating
Gradient Synchrotron).
page 42
Le PS (Proton Synchrotron) du CERN. On distingue,
au premier plan en jaune, un aimant quadripôle
assurant la focalisation forte des faisceaux.
Les aimants situés en arrière sont des dipôles
fournissant un champ magnétique vertical courbant
les trajectoires afin qu’elles restent dans la chambre à
vide située au centre des aimants.
Combinaison
d’une
lentille convergente et
d’une lentille divergente,
de même distance focale,
donnant un effet global
convergent.
f
exemple d = f/2
lentille
convergente
©B. Mazoyer
Milton Stanley Livingstone, un
des inventeurs du principe de
focalisation forte.
Aimants en C à gradients alternés. Les particules circulent dans la chambre à vide dont la section
est indiqué par l’ellipse jaune. À gauche le champ vertical, courbant les trajectoires des particules
du faisceau, est moins intense lorsqu’on s’éloigne du centre de la machine alors que c’est l’inverse à
droite. L’alternance de ces deux types d’aimants, tout autour de l’accélérateur, permet de focaliser
fortement le faisceau dans la direction radiale.
lentille
divergente
ÉLÉMENTAÍRE
Accélérateur
Le développement des accélérateurs linéaires
© SLAC
Si les complexes accélérateurs utilisés en physique des particules possèdent
en général une partie circulaire dérivée du principe du synchrotron (dont
nous avons parlé dans notre précédent numéro) ils comportent toujours
un accélérateur linéaire, chargé d’apporter une quantité initiale d’énergie
aux particules. Dans cet article, nous allons présenter les développements
de ces machines après-guerre.
Les premiers accélérateurs linéaires naissent au tournant des années
1930, avec les travaux de Rolf Wideröe en Allemagne, puis de David
Sloan et Ernest Lawrence en Californie (voir Élémentaire N°2). Des ions,
regroupés en paquets, traversent une série de tubes entre lesquels règne
un champ électrique oscillant. Le dispositif est réglé de manière à ce
que le champ soit toujours accélérateur
lorsque les ions y sont soumis. Au début,
Après des études à l’université de Chicago, L. Alvarez s’installe
les particules accélérées sont nonà Berkeley où il est successivement chercheur (1936), professeur
relativistes ce qui fait que leur vitesse
(1945) et professeur émérite (1978). Pendant la guerre il travaille
croît de manière significative au fur et à
sur les radars au M.I.T. puis, à partir de 1944 au développement
de la bombe atomique au laboratoire national de Los Alamos.
mesure qu’elles acquièrent de l’énergie.
Il construit le premier accélérateur linéaire à protons juste après
Pour assurer la synchronisation de
la guerre. En 1968, il reçoit le prix Nobel de physique « pour ses
l’accélérateur, le temps passé par les
contributions décisives à la physique des particules élémentaires,
particules dans chaque tube, où elles
en particulier pour les découvertes d’un grand nombre de
dérivent en l’absence de champ, doit
résonances, rendues possibles par ses développements techniques
être le même. La longueur des tubes
sur la chambre à bulles à hydrogène et en analyse de données », couronnant ainsi une
augmente donc proportionnellement à
carrière bien remplie et extrêmement diversifiée. Dans les années 1980, il annonce avec son
la
vitesse des particules.
fils, le géologue Walter Alvarez, la découverte d’une couche d’argile très riche en iridium (un
DR
Zone expérimentale «historique» de SLAC : c’est dans
le grand bâtiment à droite
qu’eurent lieu les expériences
établissant la validité du
modèle des quarks.
métal d’origine extraterrestre) vieille d’environ 66 millions d’années et présente partout sur
la Terre. Ils émettent l’hypothèse que ces traces proviennent d’une météorite géante qui la
percuta alors et provoqua, entre autre, l’extinction brutale des dinosaures. Cette explication
reste encore la plus plausible.
Tableau
discussions sur le démarrage du
linac à protons le 16 octobre 1947.
On peut y voir une remarque de la
main d’Alvarez (datée, en haut, de
20h30) expliquant que la géométrie
de la machine doit être modifiée et
qu’elle ne « marche pas » en l’état.
Une note ajoutée à 2h40 la nuit
suivante souligne l’obtention du
premier faisceau.
page 42
© SLAC
Cette contrainte s’avère rapidement
être le talon d’Achille des premiers
accélérateurs linéaires. Plus les particules
utilisées sont légères, plus leur vitesse est
élevée à énergie donnée : les tubes doivent donc être plus longs ou bien
l’oscillation des champs accélérateurs plus rapide. Prenons l’exemple
d’électrons de vitesse presque égale à celle de la lumière, soumis à un
champ oscillant à 30 MHz, une valeur typique à l’époque. Les tubes d’un
tel accélérateur doivent mesurer 5 mètres chacun. En supposant que la
différence de potentiel entre chaque cavité atteint 100 kV au maximum,
il faudrait faire parcourir 150 m aux particules pour qu’elles gagnent
1 MeV. Cette difficulté explique pourquoi physiciens et ingénieurs
privilégient plutôt, avant guerre, le développement des
noir illustrant des
synchrotrons qui apparaissent alors plus prometteurs.
Le progrès des technologies liées aux radars lors de la
seconde guerre mondiale modifie en profondeur cette
situation, restée figée pendant une quinzaine d’années :
des sources radiofréquences plus puissantes et plus
rapides sont développées. Exploitant ce nouveau
savoir faire, en 1946, Luis Alvarez et Wolfgang
Panofsky débutent à Berkeley la construction du
premier « linac » (« linear accelerator ») à protons qui
ÉLÉMENTAÍRE
Le développement des accélérateurs linéaires
© RStanford News Service archives
©BrookavenLab..
Né à Berlin, W. Panofsky émigre aux États-Unis en 1934
et devient citoyen américain en 1942. Après des études
dans les universités prestigieuses de Princeton et Caltech,
il travaille sur le projet Manhattan pendant la guerre. À la
fin des hostilités, il s’installe à Berkeley où il participe à la
mise au point du premier accélérateur linéaire à protons.
En 1951 il devient professeur à l’Université de Stanford et
prend, en 1961, la direction du Stanford Linear Accelerator
Linear nouvellement créé. Sous son mandat, SLAC se hisse
au premier rang des laboratoires de physique des particules : trois découvertes
(confirmation du modèle des quarks, le quark charmé et le lepton tau) valent à
leurs auteurs le prix Nobel de physique. Bien qu’il n’ait pas reçu cette récompense
lui-même, l’importance de ses contributions est unanimement reconnue.
Directeur émérite de SLAC, il a toujours son bureau dans le bâtiment principal
du laboratoire et on peut l’y croiser très régulièrement.
W. Hansen et ses trois étudiants
se révèlera capable d’accélérer ces derniers (injectés à 4 MeV en sortie
portant un tube de l’accélérateur Mark
d’un accélérateur de Van de Graaf) jusqu’à 32 MeV.
I, d’une longueur de 3,6 m au total.
Aujourd’hui, on utilise toujours des accélérateurs linéaires
basés sur le principe de celui d’Alvarez : ils servent de prétube métallique à dérive
paquet de protons
injecteurs dans beaucoup de synchrotrons à protons ou à
ions lourds. Après la phase initiale d’accélération, l’énergie
E
E
E
E
supplémentaire est acquise, puis maintenue, dans les sections
droites alternant avec les zones courbes du complexe faisceau
+
le champ est
accélérateur.
accélérateur
À la même époque, une autre équipe, basée à l’Université
de Stanford (toujours en Californie) met au point le premier
accélérateur linéaire à électrons. Paradoxalement, ces
particules sont les plus difficiles à accélérer bien qu’elles
soient les plus légères. En effet, leur perte d’énergie par
rayonnement synchrotron est très importante ce qui limite
l’intérêt d’une machine circulaire. De plus, le fait qu’elles faisceau
soient rapidement relativistes empêche l’utilisation d’un
+
accélérateur de Wideröe pour les raisons d’encombrement
que nous avons développées plus haut. En 1934, William
Hansen cherche à obtenir un faisceau d’électrons énergétiques
afin de produire des rayons X : bien vite, il se rend compte
que les technologies disponibles sont insuffisantes. En 1937
il s’intéresse à la détection d’avions par ondes électromagnétiques et,
avec les frères Varian, il met au point le klystron qui va non seulement
cavité métallique
paquet de protons
E
E
tube métallique à dérive
E
le champ est
décélérateur
cavité métallique
page 43
William Hansen est étudiant puis professeur à l’Université de Stanford. Avec les frères
Varian il invente le klystron, un dispositif performant pour générer des micro-ondes très
énergétiques qui trouve ses applications dans de nombreux domaines, de la physique des
particules aux télécommunications. Il est également à l’origine des premiers accélérateurs
linéaires du campus de Stanford, domaine dans lequel l’Université est à la pointe du
progrès depuis plus d’un demi-siècle. Le laboratoire de physique de Stanford a été
rebaptisé « Laboratoire de physique expérimentale William Hansen » en 1990.
ÉLÉMENTAÍRE
E
barre de support
barre de support
Le linac à protons mesure un peu plus
de 12 mètres et comporte 46 tubes à
dérive dont la longueur augmente (de
11 à 28 cm). Le champ oscille à 200
MHz et les particules sont abritées dans
les tubes à dérive lorsque le champ est
« freinant ». L’ensemble est inséré dans
une cavité fermée résonante qui contient
l’énergie rayonnée par l’accélérateur. Le
linac accélère 15 paquets par seconde et
le courant est de quelques dizaines de
micro-ampères.
Le développement des accélérateurs linéaires
révolutionner la physique des accélérateurs mais aussi la recherche
sur les micro-ondes en débouchant sur des applications très variées :
radar, communications satellites, système de guidage, transmissions
téléphoniques et télévisées, etc. En fait, le klystron permet de créer des
ondes électromagnétiques de haute fréquence (GHz) qui véhiculent une
grande puissance.
Traduction du discours du président
américain Einsenhower en mai 1959 :
« Je recommande que le Congrès du
Gouvernement
Fédéral
finance
la
construction d’un grand et nouvel
accélérateur linéaire à électrons d’intérêt
national. Les physiciens considèrent le
projet – soutenu par l’Université de Stanford
– comme vital. À cause de son coût, un
tel projet doit devenir une responsabilité
nationale ».
En 1947, Hansen met au point avec trois étudiants le premier accélérateur
de l’Université de Stanford, le Mark I qui utilise un « magnétron » (un
cousin du klystron) pour accélérer des électrons jusqu’à 6 MeV. Il se
donne ensuite pour objectif d’arriver à 1 GeV. Il construit alors un
nouveau prototype, Mark II, avec lequel il atteint l’énergie de 49
MeV grâce à un klystron de 20 MW. Malgré son décès prématuré, la
construction de l’accélérateur Mark III se poursuit. Entré en fonction
le 30 novembre 1950, il améliore rapidement le record de son aîné
(75 MeV) puis monte en énergie jusqu’à 730 MeV grâce à l’utilisation
de 21 klystrons. En 1954, débute le projet Mark IV : d’énergie plus
modeste (80 MeV) cet accélérateur sera utilisé pendant plus d’une
décennie pour tester des nouvelles méthodes d’accélération.
Les succès de la « famille Mark » conduisent les chercheurs de
Stanford à imaginer un nouvel accélérateur linéaire à la fois beaucoup
plus long (3,2 km), plus puissant (capable d’atteindre une énergie de
plusieurs dizaines de GeV) et plus coûteux que ses prédécesseurs.
Son prix était de 114 millions de dollars de l’époque ce qui en faisait
le projet le plus cher en physique des hautes énergies. Par comparaison,
le budget de la NASA en 1958, l’année de sa création, n’était « que »
de 89 millions de dollars. Après quatre ans de tractations intenses et de
« lobbying », le « Stanford Linear Accelerator Center » (SLAC) est créé sur
un terrain appartenant à l’Université de Stanford à quelques kilomètres
à l’ouest du campus. Son premier directeur n’est autre que Wolfgang
Panofsky : il le restera 23 ans.
Premières sections de l’accélérateur
Mark III vues depuis l’injecteur.
Une fois la construction terminée,
l’accélérateur fut isolé par un épais
blindage pour se protéger de la
radioactivité.
DRStanford News Service archives
En juillet 1962 commence la construction du nouveau linac. Le faisceau
d’électrons atteint pour la première fois son autre extrémité en mai 1966
© SLAC
Maintenance sur l’accélérateur linéaire de Stanford.
page 44
Sigurd et Russel Varian (les deux
plus à gauche, debout et à genoux) et
William Hansen (à droite) examinent
avec David Webster et John Woodyard
un klystron construit à l’Université de
Stanford en 1939.
L’accélérateur linéaire de
Stanford en quelques chiffres :
• Énergie record 53 GeV en 1987
• 3,2 km de long
• 960 sections accélératrices
• 245 klystrons d’une puissance
comprise entre 6 et 64 MW
chacun, installés dans le plus
long bâtiment du monde
• Fréquence du champ électrique oscillant : 2856 MHz
• Lignes de faisceaux enterrées
sous 8 mètres de terre.
ÉLÉMENTAÍRE
Le développement des accélérateurs linéaires
© General Electric
avec une énergie d’environ 18 GeV. Le programme de recherche débute
en avril 1967 : au bout de l’accélérateur, des électro-aimants courbent
les particules vers l’un des deux bâtiments contenant des expériences de
cibles fixes à l’aide desquelles le modèle des quarks reçoit en quelques
années une confirmation éclatante (voir « Expérience »). Début 2007,
l’accélérateur linéaire est toujours la clef de voûte du SLAC. Il fournit, pour
des expériences de précision, des faisceaux d’électrons et de positrons à
des énergies plus modestes (9 GeV et 3 GeV respectivement) mais d’une
qualité toujours meilleure : énergie plus stable et particules accélérées sans
cesse plus nombreuses. Son prochain défi (dès 2009), sera de fournir des
faisceaux qui serviront à produire une lumière synchrotron extrêmement
brillante.
Rayonnement synchrotron
Découverte du rayonnement
synchrotron sur le synchrotron
de General Electrics en 1946.
La flèche montre l’émission de
lumière visible à l’œil nu.
Le rayonnement synchrotron est constitué de photons, émis par des particules en
mouvement non-uniforme (par exemple se déplaçant dans un anneau de stockage
circulaire). La perte d’énergie de ces particules (ΔE) dépend de leur énergie (E), de
leur masse (M) et du rayon de courbure (R) de leur trajectoire : ΔE ∝ (E/M)4 / R 5.
Les électrons perdent donc beaucoup plus d’énergie par rayonnement synchrotron
que les protons à cause de leur masse qui est environ 2000 fois plus faible.
©Wikipedia
Si le rayonnement synchrotron est une nuisance dans les accélérateurs de
particules, il est utilisé dans des machines spécialement conçues (comme le
synchrotron Soleil en fonctionnement sur le plateau de Saclay dans le sud de
la région parisienne) pour analyser des matériaux ou observer des événements
très rapides invisibles sous lumière normale – selon l’énergie des particules, le
rayonnement synchrotron va de l’infrarouge aux rayons X les plus énergétiques.
© Googleearth
Effet du faisceau de l’accélérateur
linéaire de SLAC sur une cible de
cuivre.
ÉLÉMENTAÍRE
page 45
SLAC et l’Université de Stanford vus du ciel.
Le développement des accélérateurs linéaires
© SLAC
Klystron
Le klystron est un dispositif permettant de transférer l’énergie d’un faisceau d’électrons à des
ondes électromagnétiques de haute fréquence. Le faisceau d’électrons dont on parle ici ne
doit pas être confondu avec celui circulant dans l’accélérateur et auquel on communique de
l’énergie par ce dispositif. Un klystron amplificateur ayant deux cavités comprend :
1) une source « continue » d’électrons qui sont accélérés par des tensions de quelques dizaines
à quelques centaines de kilovolts,
2) une première cavité dans laquelle les électrons sont soumis à un champ électromagnétique
alternatif à haute fréquence. Pendant les demi-périodes où le champ est orienté dans la
direction opposée à celle du mouvement des électrons, ces derniers sont accélérés. Ils sont
freinés dans le cas contraire. Il se produit alors une modulation de la vitesse des électrons en
phase avec le champ.
3) un espace dit de glissement dans lequel aucun champ ne règne. Les électrons qui ont des
vitesses différentes à l’entrée de cet espace se groupent en paquets, les plus rapides rattrapant
les plus lents. La modulation de vitesse a ainsi créé, au bout de l’espace de glissement, une
modulation de densité ayant la même période.
4) une deuxième cavité accordée à la même fréquence que le champ alternatif appliqué
à la première. Les paquets d’électrons créent par induction dans cette cavité un champ
électromagnétique de même fréquence. La puissance HF disponible dans la deuxième
cavité dépend de l’intensité du faisceau d’électrons et elle est beaucoup plus élevée que celle
alimentant la première.
5) un collecteur qui absorbe les électrons à la sortie de la deuxième cavité.
La puissance HF ainsi créée est transmise aux sections d’accélération de l’accélérateur
principal par des guides d’ondes puis des coupleurs. Remarquons qu’une source HF unique
(pilote) peut alimenter une série de klystrons amplificateurs. Il existe plusieurs types
de klystrons amplificateurs (à plusieurs cavités) ou oscillateurs (deux cavités couplées et
klystron réflex à une seule cavité).
Pendant la dernière guerre, et parallèlement à l’effort américain (Varian,..), des industriels
français ont aussi développé des klystrons : la CSF (1,3 Ghz) et LMT (2 Ghz).
page 46
Vue du bâtiment de surface (3,1 km d’une seule traite !) de l’accélérateur
linéaire de Stanford – le faisceau passe 8 mètres sous le sol. On peut voir
deux klystrons (en rouge) séparés d’une douzaine de mètres.
ÉLÉMENTAÍRE
Accélérateur
Dis, c’est encore loin le Gran-Sasso ?
Le CNGS (initiales pour CERN Neutrinos to
Gran Sasso) est un ensemble d’installations
situées au CERN et produisant un faisceau
intense de neutrinos-mu. Ce faisceau est
dirigé en direction du laboratoire souterrain
du Gran Sasso, implanté près de Rome, soit
à 732 kilomètres de Genève. L’expérience
OPERA, installée au Grand Sasso, reçoit
ce faisceau et cherche à identifier des
événements contenant des leptons tau,
signe incontestable de l’interaction de
neutrinos-tau dans la masse du détecteur.
Ceci prouverait que des neutrinos-mu du
faisceau ont oscillé sur le chemin entre le
CERN et le Grand Sasso pour devenir des neutrinos-tau (voir « Théorie »).
Contrairement aux autres expériences d’oscillation qui comparent le
nombre de neutrinos initiaux à celui finalement détectés ayant la même
saveur (appelées « expériences de disparition »), OPERA recherche un type
de neutrino qui est absent du faisceau initial ; on parle alors d’«expérience
d’apparition ».
Pour produire le faisceau de neutrinos-mu, on utilise des protons de 400 GeV
issus du SPS (Super Proton Synchrotron). On les extrait de l’accélérateur par
paquets, qui sont dirigés sur une cible de graphite par une succession d’aimants
disposés sur 800 m. Parmi les particules produites lors des interactions qui ont
lieu entre les protons incidents et le carbone de la cible, les pions et les kaons
chargés positivement sont sélectionnés à l’aide de deux cornes magnétiques.
On laisse ensuite ces particules se désintégrer en vol sur une distance de
1000 m dans un tube à vide. En se désintégrant, elles donnent, en particulier,
des muons et leurs neutrinos-mu associés. Un système d’absorbeurs, disposé
sur une distance de 100 m, permet d’éliminer les particules résiduelles
(muons, hadrons, etc.) et, en fin de ligne, on obtient un faisceau constitué
presqu’uniquement de neutrinos-mu.
Schéma indiquant le parcours du faisceau
de neutrinos entre le CERN et le détecteur
OPERA installé au laboratoire du Gran
Sasso. Les neutrinos mettent 2,44 ms à
traverser les 732 kilomètres séparant le
CERN du détecteur.
Mille mètres pour la désintégration ??
La longueur de 1000 m du tunnel le long
duquel les kaons et les pions se désintègrent
en donnant des muons et des neutrinos-mu,
est choisie de façon à obtenir un faisceau très
pur de neutrinos-mu. Dans un tunnel plus
court, moins de pions et de kaons peuvent se
désintégrer ce qui correspond à la production
d’un faisceau de neutrinos moins intense. Sur
une distance plus longue, les muons qui vivent
plus longtemps que les pions et les kaons, vont
se désintégrer à leur tour en émettant des
neutrinos-e qui pollueront ainsi le faisceau.
Au bout de 1000 m très peu de muons se
désintègrent et ils sont complètement absorbés
par les absorbeurs placés en fin de ligne. Ainsi
le faisceau de neutrinos est constitué à 96% de
neutrinos-mu, 3,5% de antineutrinos-mu et
seulement de 0,5% de neutrinos- e.
page 40
Donner le «la» : accorder le CNGS avec OPERA
Les défis pour faire marcher ensemble les installations du CNGS et l’expérience
OPERA sont multiples. Il s’agit de détecter les interactions des neutrinos et
d’y retrouver celles qui correspondent au changement d’un neutrino-mu
en neutrino-tau. Ceci est doublement difficile, d’une part à cause du très
faible taux d’interaction de ces particules fantomatiques avec la matière et
d’autre part, de la petitesse du phénomène des oscillations. Le détecteur doit
présenter une surface importante au faisceau incident et être très dense afin
d’augmenter les probabilités d’interaction des neutrinos. Pour donner toutes
ses chances à OPERA d’effectuer une observation, il faut disposer d’un très
grand nombre de neutrinos-mu, c’est-à-dire commencer avec beaucoup
de protons. Pour fixer les idées, on a montré qu’il faut quarante cinq
milliards de milliards de protons par an pour avoir quelques
poignées de tau (entre 10 et 20) détectés après 5 années
d’enregistrement de données. Autant dire que la tâche
est rude ! Une fois le faisceau produit au CERN il faut
ÉLÉMENTAÍRE
Les cornes magnétiques constituent le
cœur du CNGS. Elles sont une sorte de
lentille magnétique dont le but est de
focaliser les pions et les kaons sortant de
la cible de carbone suivant la direction du
Gran Sasso. Ainsi lorsque ces particules
se désintégreront, les muons et leurs
neutrinos associés resteront dans la même
direction. Le système magnétique, placé
après la cible, comprend deux cornes. La
première focalise les particules de charge
positive et défocalise celles de charge
opposée. Cet effet dépend de l’énergie des
particules: il est excessif pour les particules
de moins de 35 GeV et insuffisant pour
celles d’énergie supérieure. Ainsi, la
seconde corne magnétique, positionnée
40 m plus loin, joue un rôle correcteur
des « imperfections » de la première,
pour produire un faisceau contenant des
particules ayant des trajectoires parallèles,
indépendamment de leur énergie.
Schéma du système des cornes du CNGS. Grâce à la focalisation, le faisceau se dirigeant
vers le Gran Sasso contient 10 fois plus de particules. En bas, l’effet du champ des deux
cornes sur les trajectoires des particules d’énergie différente est indiqué.
Les deux cornes magnétiques
du CNGS.
Simon Van der Meer devant
un tableau expliquant le
fonctionnement des cornes
magnétiques.
ÉLÉMENTAÍRE
Dans le cas du CNGS, la première corne est
longue de 7,5 m et a un rayon externe de
0,7 m. La seconde est plus large : 1,1 m de
rayon. Le courant électrique nécessaire à la
création du champ magnétique focalisant
est de 150 000 Ampères et il est appliqué
par pulsations avec le même rythme que
l’extraction des protons du SPS. À cause de
ce champ variable, la structure des cornes
subit des forces magnétiques importantes.
Les parois doivent alors être épaisses
pour résister aux tensions mécaniques
mais pas trop pour ne pas absorber les
particules du faisceau ! L’optimisation des
dimensions des cornes a ainsi requis de
savants calculs. Par ailleurs, la
puissance électrique chauffe la
structure et nécessite un système
de refroidissement à eau assez
complexe.
page 41
© CERN
encore le diriger avec précision sur les parties détectrices d’OPERA à
732 kilomètres de là. Grâce au GPS la visée n’est pas difficile, mais le
faisceau a tendance à s’élargir au cours de son trajet. Ainsi la stabilité
dans le temps de la position du faisceau de neutrinos doit être excellente
et sa divergence minimale, de façon à ce que la majorité des neutrinos
traversent le volume d’OPERA.
Le principe de la corne
magnétique a été proposé par
l’ingénieur du CERN Simon
Van der Meer en 1961 et utilisé
dès 1962 dans les premières expériences
avec des faisceaux de neutrinos au CERN.
Simon Van der Meer a partagé le prix Nobel
1985 avec Carlo Rubbia pour avoir inventé
la méthode permettant la production de
faisceaux intenses d’antiprotons.
Dis, c’est encore loin le Gran-Sasso ?
Créer au CERN l’espace nécessaire pour les installations du CNGS n’a pas été simple. 3300 mètres de tunnels, de galeries et de cavernes
situés à des profondeurs variant entre 55 m et 122 m ont été excavés et consolidés en un peu moins de 3 ans. Au total, 45 000m3 de terre
ont été déplacés. Un consortium spécial, constitué entre la France, l’Italie, la Grande Bretagne et la Grèce a été en charge du suivi des
travaux et de la sécurité. Le coût total, tenant compte de l’ingénierie et des installations a été évalué à 47 millions d’euros.
À gauche : schéma indiquant les
installations créées spécialement
pour la production du faisceau
CNGS. On distingue le tunnel (en
bleu) pour les protons extraits du
SPS et dirigés sur la cible. Les pions
et les kaons après focalisation, volent
dans un long tunnel (en orange) où
ils se désintègrent.
Après avoir survécu à la traversée
des absorbeurs, les neutrinos
entreprennent leur voyage en
direction d’OPERA.
© CERN
Ci-dessous : les mêmes installations
sont indiquées en coupe verticale.
2006 : les premiers événements enregistrés par
OPERA
Bruit de fond
page 42
L’expérience OPERA interpose au faisceau de neutrinos 1 800 tonnes
de détecteurs occupant un volume de 25 m de long, 10 m de large et
10 m de haut. Elle est composée de deux sections constituées chacune
d’un ensemble de « briques » (il y en a 250 000 en tout dans OPERA)
suivi d’un spectromètre à muons. Une brique est construite comme un
Différence de temps entre les événements mesurés dans le détecteur OPERA et le déversement
des protons du SPS. Les deux pics correspondent à deux déversements successifs de protons au
niveau du SPS. Les événements en dehors des pics proviennent des interactions du rayonnement
cosmique sur les roches.
ÉLÉMENTAÍRE
Dis, c’est encore loin le Gran-Sasso ?
sandwich de feuilles de plomb et de films photographiques qu’on appelle
« émulsions ». Dans le plomb, les neutrinos peuvent interagir pour donner
naissance à une particule chargée (muon, tau,..). Le muon ainsi que les
autres particules chargées, dont celles issues de la désintégration du tau,
sont détectées par des plans de scintillateurs qui servent au déclenchement
de l’enregistrement de l’événement. Les muons sont aussi identifiés et
mesurés de façon précise par le spectromètre.
Lorsqu’une interaction a lieu dans une brique, le système de déclenchement
note sa position. Un robot manipulateur vient alors retirer la brique pour
la porter au laboratoire où elle sera ouverte pour le développement des
émulsions et la reconstruction du point de l’interaction du neutrino avec la
cible. En période de prise de données une trentaine de briques seront enlevées
par jour pour être analysées. En 5 ans de faisceau, 30 000 interactions de
neutrinos du faisceau CNGS sont attendues dans la masse d’OPERA, parmi
lesquelles 150 devraient correspondre à des neutrinos-mu ayant oscillé en
neutrinos-tau, dont seulement 10 à 20 seraient définitivement identifiées
comme telles.
Le CNGS a envoyé ses premiers neutrinos vers OPERA durant l’été et
automne 2006. Les paramètres du faisceau ont été vérifiés et ajustés pendant
toute cette période. Le détecteur OPERA a enregistré des événements
en coïncidence avec les déversements des protons du SPS. En 2007, le
fonctionnement du CNGS s’est arrêté à cause d’un problème de fuite au
niveau du refroidissement des cornes magnétiques. Après réparation, les
tests vont reprendre dans le but d’optimiser le fonctionnement de l’ensemble
pour une intensité plus grande de protons.
Identification des neutrinos - tau
dans OPERA
Comment sait-on que le neutrino
touchant le détecteur est un
neutrino-tau ? En observant les
particules qu’il crée !
Dans le cas d’une interaction de
neutrino-mu avec la matière du
détecteur, un muon sera identifié
dans l’état final, accompagné
généralement d’un jet de hadrons.
Si le neutrino-mu initial a oscillé
entre le CERN et le Gran Sasso,
alors son interaction donnera un
tau qui, après un court vol d’environ 1 mm, se désintègrera en produisant dans 18% des cas
également un muon mais aussi un électron ou bien un (ou plusieurs) pions. La signature de
l’oscillation est alors une distance caractéristique entre le point d’émergence du jet et celui
du muon ou d’autres traces chargées, preuve de l’apparition furtive du lepton tau.
émulsion
page 43
ÉLÉMENTAÍRE
plomb
Chaque brique pèse 8,3 kilogrammes
et elle est constitué d’une succession
d’une soixantaine de feuilles de plomb
de 10,2 × 12,5 × 0,1 cm3 et d’émulsions.
Comme indiqué sur le schéma, la brique
individuelle contient le point d’interaction
du neutrino avec le plomb, et permet de
mesurer précisément les positions des
traces chargées.
Accélérateur
Les collisionneurs : révolution dans
À la suite des travaux pionniers de E.O. Lawrence avant la seconde guerre
mondiale, des synchrotrons de plus en plus puissants sont construits dans
les années 50. Ils profitent des avancées effectuées dans de nombreux
domaines : conception des accélérateurs, technologies d’accélération et de
guidage du faisceau, augmentation de la puissance électrique disponible,
etc. Les expériences réalisées alors sont dites « sur cible fixe » : le faisceau
accéléré est envoyé sur un échantillon de matière et les détecteurs
mesurent les produits des collisions des particules avec les atomes qui
composent la cible. Si la densité de cette dernière est suffisamment
élevée pour assurer l’observation d’événements à chaque passage des
projectiles, la réaction est loin d’être efficace énergétiquement : seule
une faible fraction de l’énergie de la particule incidente est utilisable pour
produire de nouvelles particules et ce pourcentage décroît même lorsque
l’énergie augmente ! Or, d’après la relation d’Einstein reliant énergie et
masse (E=Mc2), disposer de plus d’énergie permet de créer des particules
plus massives (et donc potentiellement nouvelles). Pour sortir de cette
impasse, il faut s’engager dans une nouvelle direction.
Mais revenons un instant sur les transferts d’énergie lors d’une expérience
sur cible fixe. Si seule une partie de l’énergie peut se transformer en masse,
où part le reste puisque l’énergie totale est conservée ? La réponse est
simple : comme la réaction est déséquilibrée – l’un des deux participants
à la collision est en mouvement alors que l’autre est au repos – une
grande partie de l’énergie totale est utilisée pour le déplacement global
de l’ensemble des particules produites. Comment s’affranchir de
ce phénomène ? En faisant bouger la cible pour contrer l’effet
précédent ! Une idée aussi prometteuse que compliquée au
niveau technique.
Dans le cas d’une collision frontale entre deux particules
identiques et de même énergie, le mouvement d’ensemble du
système – avant et après – est nul : toute l’énergie est absorbée
par la réaction. On trouve déjà cette idée pour le cas des systèmes
non-relativistes dans une lettre de R. Wideröe à E. Amaldi en
1943. Il dépose même un brevet pour un accélérateur de sa conception
mais ne l’exploite jamais, trop pris par son travail dans l’industrie. Le
concept est repris en 1956 par D.W. Kerst et ses collaborateurs qui
l’étendent aux expériences ultra-relativistes où l’écart entre les deux
types d’accélérateurs est encore plus marqué : par exemple, deux protons
de 21,6 GeV envoyés l’un sur l’autre ont le même potentiel qu’un proton
de 1000 GeV entrant en collision avec une cible fixe et ce, en fournissant
23 fois moins d’énergie !
Alors
qu’une
cible
n’est
Non-relativistes, ultra-relativistes
composée que de matière, ce
Une particule de masse M est dite nonnouveau concept d’accélérateur
relativiste lorsque son énergie cinétique
permet aussi de réaliser des
(c’est-à-dire son énergie de mouvement)
collisions matière-antimatière,
est très inférieure à son énergie de masse
intéressantes dans la mesure où
(Mc2). Elle est dite relativiste dans le cas
les deux projectiles s’annihilent.
contraire et ultra-relativiste lorsque son
Leur énergie est convertie
énergie est très supérieure à son énergie
en
nouveaux
constituants
de masse.
Efficace énergétiquement
L’énergie utilisable pour produire de
nouvelles particules lors de la collision
d’une particule d’énergie E avec une
autre particule au repos et de masse M
est approximativement
disponible
E cible fixe ~ √ 2Mc2E
lorsque E>>Mc2. Dans le cas d’une
collision frontale entre deux particules
d’énergie E/2, le résultat est
disponible
E collision = E
E disponible
cible fixe
Le rapport varie selon: disponible ~ 2Mc
√E
E collision
2
Cette fraction diminue à mesure que
l’énergie augmente et devient très
petite dans le cas d’une particule ultrarelativiste pour laquelle l’énergie totale
E est très supérieure à l’énergie de masse
Mc2. Cela montre que les collisionneurs
ont un rendement énergétique bien
meilleur que les collisions sur cible fixe,
en particulier à haute énergie.
Repos
Les atomes d’une cible fixe ne sont
pas complètement au repos puisqu’à
toute température est associée une
agitation aléatoire des particules au
niveau microscopique. Néanmoins les
énergies associées à ce mouvement sont
si faibles comparées à celles mises en
jeu dans les collisions produites par un
accélérateur qu’elles sont complètement
négligeables.
page 38
Comparaison entre : en haut, la collision
d’un proton énergétique (10 GeV) sur une
cible fixe (proton au repos de masse 1 GeV) ;
en bas, la collision de deux protons de
même énergie (5 GeV). Dans le second cas,
toute l’énergie disponible sert à produire de
nouvelles particules ; dans le premier, plus
de la moitié est utilisée pour le mouvement
global des particules produites.
ÉLÉMENTAÍRE
les accélérateurs de particules
élémentaires. De plus, comme particules et antiparticules ont des charges
opposées, un seul champ magnétique orienté perpendiculairement au
plan de leurs trajectoires permet de les faire tourner en sens opposés dans
un anneau circulaire.
Paquets
Pour des raisons tant fondamentales que techniques, le champ
électrique accélérateur nécessaire pour compenser les pertes
d’énergie dues au rayonnement synchrotron des particules
stockées n’est pas disponible en continu : il faut donc utiliser un
champ oscillant. Les particules sont alors organisées en paquets, les
plus denses possible, et dont les propriétés (dispersion de l’énergie,
volume, etc.) sont préservées au mieux dans les collisionneurs.
Moins ces paramètres sont perturbés, plus la durée de vie des
faisceaux est grande et l’accélérateur « efficace » !
Le fonctionnement du système R.F. est synchronisé avec le
mouvement des paquets afin que les cavités apportent l’énergie
appropriée aux particules lorsque celles-ci les traversent. En
dehors de ces périodes, le champ qu’elles délivrent n’est pas adapté
aux caractéristiques des faisceaux. Ainsi, une particule qui voit
son énergie modifiée de manière significative ne reçoit plus les
corrections nécessaires au maintien de son orbite : en quelques
millièmes de seconde elle est perdue.
ÉLÉMENTAÍRE
Durée de vie
À chaque tour, des particules sont perdues dans le
collisionneur : efficacité forcément limitée des systèmes
contrôlant leur trajectoire, interaction avec les molécules
de gaz résiduelles, conséquence des collisions au centre du
détecteur avec les particules tournant en sens inverse etc.
Ralentir cet effet – par exemple en améliorant le système
de pompage du tube à vide – permet d’augmenter la durée
de vie des faisceaux et donc le temps pendant lequel ils
produisent des collisions visibles dans les instruments.
page 39
Voilà pour la théorie. En pratique, réaliser un collisionneur
est tout sauf évident : quel que soit le soin apporté à leur
fabrication et à leur conservation, les faisceaux auront
toujours une densité bien plus faible qu’une cible solide, ce
qui limite la probabilité de collision entre les particules qu’ils
contiennent. Une manière de compenser cet effet consiste à
augmenter le nombre de fois où les particules se croisent. En
particulier, on cherche à allonger au maximum la durée de vie
des faisceaux en limitant la perte de particules en fonction du
temps. Voyons comment on en est arrivé aux collisionneurs
actuels avec les étapes les plus marquantes de ce processus
qui s’est déroulé sur plusieurs décennies.
Résumé (très simplifié) de ce qui se passe dans un collisionneur e+elorsque des faisceaux circulent à l’intérieur.
1 - Dans chaque section circulaire, les particules suivent une
trajectoire courbe sous l’action d’un champ magnétique. Elles
perdent alors de l’énergie par émission de lumière synchrotron.
2 - Des particules peuvent disparaître lorsqu’elles interagissent
avec les molécules de gaz résiduel présentes dans les tubes à
vide, maintenus à la pression la plus faible possible (quelques
milliardièmes de la pression atmosphérique) par un système de
pompage fonctionnant en permanence.
3 - Dans certaines sections droites, des cavités radio-fréquence
(« R.F. ») redonnent aux particules l’énergie perdue par émission
synchrotron. Ce système sert aussi à donner l’énergie nominale de
fonctionnement aux faisceaux.
4 - Les collisions entre particules ont lieu au centre du détecteur.
Ailleurs, les deux faisceaux circulent sur des trajectoires différentes,
voire dans des tubes à vide séparés. Près de la zone d’interaction,
des aimants très puissants forcent les faisceaux à se rapprocher,
puis à se traverser mutuellement avant de les séparer tout aussi
brusquement – chacune de ces étapes « coûte » des particules. Ces
dernières ne sont pas réparties uniformément dans le collisionneur
mais sont regroupées en paquets dont les passages sont synchronisés.
Les collisions sont d’autant plus efficaces que les paquets sont
denses, en particulier dans le plan transverse à leur propagation. La
quantité utilisée pour décrire la « qualité » des collisions est appelée
luminosité.
5 - Lorsque le nombre de particules disponibles dans les faisceaux
passe en dessous d’un certain seuil, les collisions ne se produisent
plus assez souvent pour justifier la poursuite de l’expérience. De
nouvelles particules sont alors injectées dans l’accélérateur. Les
collisionneurs actuels sont capables de « recharger » un paquet
particulièrement appauvri alors que les collisions ont encore lieu en
abondance. Leur efficacité est ainsi maximale.
Les collisionneurs : révolution dans
Les pionniers
L’intensité du courant électrique
mesure un nombre de charges
électriques par unité de temps. Ainsi,
un ampère de courant dans un fil
électrique correspond au passage de...
6 241 509 629 152 650 000 (et pas un de
moins !) électrons par seconde. Dans
un collisionneur, l’intensité I est donc
donnée par le nombre de particules N
qu’il contient multiplié par le nombre
de tours qu’elles effectuent par seconde.
Comme elles se déplacent à une vitesse
extrêmement proche de celle de la
lumière c, cette fréquence de rotation
s’exprime directement en fonction de la
longueur L de l’anneau : I= N.c/L
Quelques mois après la publication de l’article de Kerst, G. O’Neill (de
l’université américaine de Princeton) propose d’ajouter aux accélérateurs
existants des anneaux de stockage dans lesquels circuleraient des faisceaux
de particules accélérées en amont, par exemple par un synchrotron. Les
collisions auraient lieu dans une section droite commune. En 1958, W.
Panofsky (futur premier directeur du SLAC, voir Élémentaire N°4) obtient
une subvention de 800 000 dollars pour construire deux anneaux de
stockage au bout de l’accélérateur linéaire Mark-III de 700 MeV situé
sur le campus de l’université de Stanford. Ce projet s’accompagne de
plusieurs innovations technologiques, en particulier au niveau du contrôle
des particules stockées afin d’augmenter la longévité des faisceaux. Les
anneaux, en forme de « 8 », d’environ 2m de circonférence et dans
lesquels des électrons circulent en sens opposés, sont opérationnels
en 1962 : c’est un succès (énergie maximale de 1 GeV ; l’intensité du
courant atteint 600 mA, un record qui tiendra presque quatre décennies)
mais, en fait, les américains ne sont pas les premiers.
En effet, le 27 février 1961, une équipe du laboratoire italien de
Frascati (au sud de Rome) menée par Bruno Touschek réussit le premier
stockage d’électrons et de positrons dans l’anneau AdA (« Anello di
Accumulazione », soit « Anneau d’Accumulation » en français). AdA
comprend une chambre à vide toroïdale (c’est-à-dire en forme d’anneau),
placée dans un puissant champ magnétique orienté perpendiculairement
au plan de l’anneau et faisant tourner particules et anti-particules en sens
inverses, à des énergies pouvant atteindre 250 MeV. Des électrons frappent
une première cible ; des photons sont alors émis, lesquels atteignent
ensuite une seconde cible où les collisions donnent naissance à des paires
e+e−. Une petite fraction de ces particules est capturée dans la chambre
à vide qu’il faut renverser par rapport au système d’injection selon que
page 40
Effet Touscheck
L’effet Touscheck décrit la perte de particules par interaction coulombienne
au sein des paquets stockés dans un
collisionneur, en partie responsable de
la décroissance du courant circulant
dans l’anneau. Lors de leur parcours,
les particules oscillent autour de leur
orbite moyenne et peuvent donc entrer
en contact si elles sont voisines. De
tels chocs affectent le mouvement des
particules impliquées et modifient les
composantes longitudinale (dans le sens
du déplacement) et transverse (radiale)
de leurs quantités de mouvement. Si le
changement est suffisamment important,
les trajectoires des particules deviennent
instables et celles-ci se perdent dans le
tube à vide.
© LNF
Avec I=600 mA et L=2 m (paramètres
du premier collisionneur construit
à Stanford) on obtient un faisceau
constitué d’environ 25 milliards de
particules. Le collisionneur actuel de
Stanford, PEP-II, a une circonférence
de 2200 m et a récemment atteint un
courant de 3 ampères pour son faisceau
de positrons : un peu plus de 137 000
milliards de particules étaient alors
en circulation ! Ce nombre est certes
gigantesque mais un simple verre d’eau
contient environ 40 milliards de fois
plus d’électrons...
Physicien autrichien, Bruno Touschek est victime des lois
raciales nazies car sa mère est juive. Il s’installe à Hambourg où
il travaille sur les ancêtres des klystrons et est en contact avec
Wideröe. Finalement arrêté par la Gestapo en 1945, il est déporté
dans un camp de concentration d’où il s’échappe par miracle,
laissé pour mort par un S.S. Après la guerre, il complète sa
scolarité à Göttingen avant de rejoindre l’université de Glasgow
en 1947. En 1952 il devient chercheur au laboratoire national de
Frascati à Rome et y effectue le reste de sa carrière. Sa vision de la
physique des particules, à la fois théorique et pratique, lui donne
l’idée de construire le premier collisionneur électron-positron au
monde. Le 7 mars 1960, il donne un séminaire dans lequel il présente ce nouveau concept,
insistant à la fois sur l’intérêt scientifique de ce type d’accélérateur pour les expériences
de haute énergie et sur la simplicité de réalisation d’un prototype. Le premier faisceau
stocké (quelques électrons à peine) est obtenu moins d’un an plus tard, le 27 février 1961.
Non content d’avoir supervisé la construction d’AdA, Touschek participe activement aux
tests qui y furent menés, y compris après le transport de l’anneau à Orsay. En particulier,
il découvre et explique un effet de physique des accélérateurs qui porte aujourd’hui son
nom.
ÉLÉMENTAÍRE
les accélérateurs de particules
Transporter AdA de Frascati à Orsay sur
une distance de 1500 km ne fut pas une
mince affaire. L’anneau fonctionnait sous
ultravide (pour éviter les interactions
entre les faisceaux d’électrons et de
positrons avec les molécules du gaz
résiduel) et le ramener à la pression
atmosphérique normale pour le trajet
aurait nécessité de longues opérations de
nettoyage une fois arrivé à destination,
suivies de plusieurs semaines de pompage.
Il fallut donc se munir d’un système de
batteries pour que la pompe maintenant
l’ultravide dans l’anneau fonctionne
en permanence. Touschek en personne
voulut tester la stabilité du camion utilisé
pour le transport : peu habitué à conduire
un si grand véhicule, il détruisit un
lampadaire en le manœuvrant. Enfin, un
douanier zélé voulut à tout prix inspecter
l’intérieur de l’anneau à la frontière : il
fallut une intervention haut placée (le
ministre italien des affaires étrangères
ou le haut-commissaire à l’énergie
atomique français selon les versions et ...
la nationalité du conteur !) pour que les
choses rentrent dans l’ordre. Malgré ce
contretemps, la pompe fonctionna jusqu’à
l’arrivée au LAL.
l’on veut accumuler des positrons ou des électrons. L’efficacité de cette
procédure, ajoutée aux limitations de la source initiale d’électrons, est le
talon d’Achille de ce dispositif : seuls de très faibles courants circulent
dans la chambre à vide.
La décision est alors prise de transporter AdA en juin 1962 à Orsay où le
Laboratoire de l’Accélérateur Linéaire (LAL) dispose d’un ... accélérateur
linéaire (!) utilisable comme injecteur. Le transfert tient toutes ses
promesses : des collisions entre positrons et électrons sont observées en
décembre 1963 ; les faisceaux sont stockés jusqu’à 40 heures et, surtout,
AdA met en évidence un phénomène important, connu aujourd’hui sous
le nom d’effet Touschek qui limite la durée de vie du faisceau. Selon
la petite histoire, l’interprétation correcte du phénomène fut donnée la
nuit même où il apparut dans AdA ; une solution technique fut imaginée
le lendemain matin et mise en pratique dans les jours qui suivirent : la
science en direct en somme !
Plus tard, en mai 1964, le laboratoire de Novossibirsk (en Sibérie)
commence l’exploitation de son collisionneur e−e− VEPP1 dont l’énergie
est 160 MeV par faisceau : c’est le premier d’une longue série d’anneaux
qui eux furent des anneaux e+e- (VEPP2, VEPP-2M, VEPP4, etc.). Il est
à noter que l’équipe russe de Novossibirsk est restée pendant plusieurs
années dans un isolement total vis-à-vis des laboratoires de l’Europe de
l’Ouest et des États-Unis. Au sein de cette équipe, c’est Vladimir Baier
qui suggéra – de façon indépendante de Bruno Touschek – d’étendre le
programme des collisions e-e- aux collisions e+e− dont la physique est
beaucoup plus riche.
Il est intéressant de noter que les trois collisionneurs « pionniers » (les
anneaux doubles de Stanford et de VEPP1 ainsi qu’AdA) n’utilisent pas
les techniques de guidage de particules les plus récentes pour l’époque.
Leur but n’est pas tant d’obtenir un dispositif performant que de prouver
la validité du concept de collisionneur et de tester les choix techniques
permettant sa réalisation. L’exploitation scientifique sera assurée par la
seconde génération de machines.
Les collisionneurs électrons-positrons
ÉLÉMENTAÍRE
Démonstration de l’existence de collisions entre électrons
et positrons par l’observation de la réaction e+ e− → e+ e− γ
dans AdA. Le graphique montre le rapport (nombre de
photons détectés)/(nombre de particules dans le faisceau 1)
en fonction du nombre de particules dans le faisceau 2.
Les points de mesure s’ordonnent selon une droite dont la
pente est reliée à la performance du collisionneur, appelée
luminosité. Plus cette quantité est élevée, plus le taux de
collisions est grand. Le nombre de particules dans chaque
faisceau est estimé en mesurant la lumière synchrotron
qu’elles émettent lorsque leur trajectoire est courbée par
un champ magnétique. Le bruit de fond résiduel explique
l’observation de photons lorsque le nombre de particules
dans le faisceau 2 est nul.
page 41
Et, de fait, les collisionneurs e+e− se multiplient dans la seconde
moitié des années 60. À Orsay, l’exploitation d’ACO (« Anneau
de Collisions d’Orsay ») débute le 25 octobre 1965 ; l’énergie
des faisceaux est de 520 MeV. En plus de la mise en évidence
et de l’étude de nombreux phénomènes propres à la physique
des accélérateurs, ACO permet des avancées sur la physique
d’une classe de particules de spin 1 appelées mésons vecteurs.
Après de nombreuses années d’exploitation, ACO trouvera une
nouvelle jeunesse dans la production de lumière synchrotron ; la
salle d’expérience et l’anneau lui-même sont aujourd’hui inscrits
à l’inventaire supplémentaire des Monuments Historiques et
ouverts aux visiteurs.
En 1967, le laboratoire de Frascati met en service ADONE (« le
gros AdA » en italien) dont l’énergie disponible en collision
Les collisionneurs : révolution dans
atteint les 3,1 GeV avec une luminosité améliorée. Les données recueillies
montrent que le taux de production de hadrons (particules constituées
de quarks), e+e− → hadrons, est au moins aussi important que celui des
leptons, e+e− → µ+µ−, dont la théorie est alors bien établie. Ce résultat
– confirmé ensuite par l’expérience « By Pass » située à Cambridge dans
l’état du Massachusetts – est inattendu. On comprendra par la suite
que les prédictions théoriques (inspirées par l’analyse des neutrons et
des protons) n’étaient pas bien fondées. Ce domaine d’énergie n’avait
d’ailleurs pas fini de surprendre les physiciens.
En effet, après une longue période d’atermoiements bureaucratiques
et plusieurs demandes de crédit rejetées, SLAC reçoit finalement un
financement à l’été 1970 pour construire le collisionneur SPEAR (« Stanford
Positron Electron Accelerating Ring », « Anneau accélérateur de positrons
et d’électrons de Stanford »). Encore de taille modeste – un anneau
simple de 80 mètres de diamètre construit sur un parking près du bout de
l’accélérateur linéaire – il est terminé en 1972 et produit des faisceaux
de 4 GeV d’énergie. En quelques années, les découvertes s’enchaînent :
le méson J/Ψ en 1974 (formé de deux quarks d’un quatrième type encore
inconnu, le charme) et le lepton τ en 1976, premier représentant de la
troisième famille des constituants fondamentaux de la matière. En 1990,
SPEAR est converti en une source intense de lumière synchrotron, le
SSRL (« Stanford Synchrotron Radiation Light », « Source de rayonnement
synchrotron de Stanford »), encore en fonctionnement aujourd’hui.
L’Europe n’est pas en reste. À Orsay, l’anneau de stockage DCI (« Dispositif
de Collisions dans l’Igloo », nom donné au bâtiment en forme de dôme
situé au bout de l’accélérateur linéaire), fournit, dans les années 70, des
produits de collisions au détecteur DM2 (« Détecteur Magnétique 2 »)
qui réalise des mesures de précision sur les hadrons, en particulier sur
le J/Ψ récemment découvert – le nombre d’événements collectés reste
pendant longtemps le plus important au monde. Mais les avancées les
plus spectaculaires ont lieu au laboratoire DESY, près de Hambourg en
Allemagne. Au collisionneur e+e− en double anneau de 3 GeV, DORIS,
s’ajoute en 1978 PETRA (« Positron Electron Tandem Ring Accelerator »).
Cette machine est un vrai géant par rapport à ses prédécesseurs : 2300
mètres de circonférence ! En forme d’anneau, comme les machines e+e−
précédentes, elle comporte huit sections droites : six pour les expériences
et deux pour le système d’accélération R.F. Les particules sont créées par
un accélérateur linéaire, accélérées jusqu’à 6 GeV dans le synchrotron
de DESY avant d’être injectées dans PETRA. L’énergie des collisions
atteint rapidement les 22 GeV (record mondial à l’époque) et montera
ultérieurement jusqu’à 46,8 GeV.
Énergie des collisions, en GeV.
Section efficace de la réaction
e+e− → hadrons (divisée par celle de
production de muons e+e− → μ+ μ-)
enregistrée par le détecteur MarkI sur le collisionneur SPEAR. Le pic
correspond à la production du méson
Psi (ψ) découvert simultanément à
Brookhaven dans une expérience sur
cible fixe (et appelé J). En moins de
1 MeV (soit une variation d’énergie
inférieure au pourmille), la section
efficace est multipliée par 100 avant de
décroître presque aussi rapidement.
La position du pic donne la masse de
cette nouvelle particule, également
appelée « résonance ». Dix jours
après cette découverte, une seconde
résonance – le « ψ prime » de masse
3,7 GeV/c2 environ – est observée à
SPEAR (SLAC).
page 42
En 1979, le CERN publie une étude portant sur un collisionneur e+e−
d’une trentaine de kilomètres de circonférence. L’énergie prévue est de 70
GeV par faisceau avec des perspectives d’augmentation jusqu’à 100 GeV
grâce à l’utilisation de cavités R.F. supraconductrices. Une fois accepté,
ce projet devient le LEP (« Large Electron-Positron collider », « Grand
collisionneur à électrons et positrons », voir «Expérience»). Les travaux de
génie civil débutent en 1983 ; les premières collisions sont enregistrées le
ÉLÉMENTAÍRE
les accélérateurs de particules
13 août 1989 et l’accélérateur a été en service jusqu’en novembre 2000.
Le LEP a ensuite été démonté et c’est dans son tunnel que l’installation du
LHC se termine.
Les collisionneurs électrons-positrons les plus performants actuellement
sont les accélérateurs des « usines à B » Belle et BaBar : KEK-B au Japon
(l’accélérateur le plus efficace au monde, à la fois en termes de taux de
collisions instantané et du nombre total d’événements fournis depuis sa
mise en service) et PEP-II en Californie (qui détient les records de courant
dans chacun des deux faisceaux). Leur particularité principale est d’être
asymétriques : l’énergie des électrons est environ trois fois plus importante
que celle des positrons. Comme nous l’avons vu au début de l’article,
cette différence produit un mouvement d’ensemble qui affecte tous les
produits de la réaction, en particulier deux particules appelées mésons
B auxquelles BaBar et Belle s’intéressent particulièrement. Leur durée
de vie étant non nulle (mais très petite), la « pichenette » énergétique
qu’elles reçoivent fait qu’elles parcourent une distance mesurable dans le
détecteur avant de se désintégrer (à peine quelques millimètres). L’énergie
perdue pour la collision est ici sans conséquence dans la mesure où ces
expériences opèrent à une énergie fixée, bien inférieure aux records
atteints par ces accélérateurs. Leur but n’est pas d’atteindre l’énergie la
plus élevée possible mais d’augmenter autant que possible la luminosité,
c’est-à-dire le taux d’événements.
Collisionneurs protons-(anti)protons
Lors d’une collision entre des particules
ayant une structure interne (par exemple
pp), le choc a lieu entre des composants de
chaque particule (quarks ou gluons) qui
n’emportent qu’une fraction de l’énergie
totale – une fraction variable selon la
collision. Accumuler les événements
permet de balayer toute la gamme
d’énergie disponible. De plus, la perte
d’énergie par rayonnement synchrotron
d’un proton suivant une trajectoire
circulaire est bien plus faible que celle
d’un électron : à puissance électrique
égale, un collisionneur à protons peut
donc atteindre des énergies plus élevées.
Produire
Les antiprotons sont obtenus par collision
de protons de haute énergie sur une cible
dense (par exemple en tungstène). Les
particules produites ont alors des énergies
et des trajectoires initiales très différentes
les unes des autres, d’où la nécessité de
les « mettre en forme » avant de pouvoir
les utiliser. Sans cette étape essentielle,
les quantités d’anti-protons disponibles
pour des collisions seraient beaucoup trop
faibles.
Les collisionneurs hadroniques
ÉLÉMENTAÍRE
page 43
Historiquement les physiciens utilisèrent des électrons et des positrons
dans les collisionneurs avant de se tourner vers les collisionneurs protons(anti)protons. L’utilisation de deux faisceaux de protons nécessite deux
tubes à vide et un système magnétique très complexe pour que des
particules de même charge puissent tourner en sens opposés ; quant
aux anti-protons, il faut réussir à les produire en grande quantité et être
capable de les organiser en paquets denses, d’énergie et donc de trajectoire
Vue aérienne du site de DESY (près de
Hambourg) avec, en pointillés, le dessin
des différents collisionneurs : PETRA
(collisionneur e+e− puis injecteur
de HERA) et HERA (collisionneur
e−p). Les cercles (désignés par les
initiales des 4 points cardinaux en
allemand) correspondent aux zones
expérimentales.
© DESY
Les collisionneurs : révolution dans
données. Néanmoins, aucune de ces difficultés ne s’est avérée
rédhibitoire sur le long terme : toutes les configurations de
collisionneurs ont été réalisées, la seule règle étant d’utiliser des
particules stables et chargées.
Le premier collisionneur pp est construit au CERN : l’ISR
(« Intersecting Storage Rings », « Anneaux de stockage à
intersections ») y fonctionne de 1971 à 1984. Les deux anneaux
d’aimants concentriques font 300 m de diamètre et sont situés à
environ 200 m du synchrotron PS d’où les protons sont extraits
à une énergie allant jusqu’à 28 GeV. Un système accélérateur
situé dans les sections droites des anneaux permet d’atteindre
31,4 GeV. Afin d’augmenter la densité de protons dans les
anneaux, on « rassemble » plusieurs paquets injectés par le PS. La durée
de vie des faisceaux atteint les 36 heures.
Les antiprotons deviennent d’actualité dans la seconde moitié des années
70 grâce à la mise en œuvre d’un système d’asservissement inventé en
1968 par l’ingénieur du CERN S. Van der Meer : les écarts de trajectoire
des paquets d’antiprotons qui circulent dans l’anneau sont observés en
un emplacement particulier et atténués en un autre endroit où le signal
de correction arrive avant les particules. Ainsi domptés, les antiprotons se
laissent accumuler en nombre suffisant pour donner
des collisions productives sur une longue période.
Sous l’impulsion de Carlo Rubbia, le CERN transforme
son synchrotron à protons SpS en un collisionneur
- (le SppS)
p-p
dédié à la recherche des bosons W±
0
et Z . L’accélérateur atteint son but : le prix Nobel
de physique 1984 récompense Rubbia et Van der
Meer pour « leurs contributions décisives au grand
projet qui a permis la découverte des bosons W et
Z, médiateurs de l’interaction faible ». Par la suite, le
laboratoire Fermilab (près de Chicago) se lance dans la
construction d’un collisionneur p-p- géant, le Tevatron,
qui, encore aujourd’hui, détient le record absolu
d’énergie de collision (2 TeV, soit 2000 GeV !).
Enfin, suivant une logique de « recyclage » propre
à tous les grands complexes accélérateurs, DESY
transforme son collisionneur PETRA en un injecteur
pour le collisionneur électrons ou positrons (~30 GeV) contre protons
(~820 GeV) HERA (« Hadron Electron Ring Accelerator », « Accélérateur
en anneau hadrons-électrons ») dont la circonférence atteint 6,3 km.
Les électrons permettent de sonder la structure des protons et d’étudier
des détails de leurs comportements décrits plusieurs dizaines d’années
auparavant mais jamais observés jusqu’alors. Après une très longue
carrière, HERA a finalement été arrêté l’été dernier : le nouveau grand
projet du laboratoire DESY consiste à construire et mettre au point une
source cohérente et très brillante de lumière synchrotron dans le domaine
page 44
Énergie des collisionneurs e+e− en
fonction de leur date de mise en
service (ou en projet). L’échelle
verticale est logarithmique : chaque
ligne horizontale correspond à une
multiplication par dix de l’énergie.
ÉLÉMENTAÍRE
les accélérateurs de particules
© LNF
Bien qu’il n’ait pas encore été mis en
service, le LHC est actuellement l’objet
de toutes les attentions des physiciens
nucléaires et des particules du monde
entier. Repoussant les limites de la
« frontière en énergie » (collisions à 14
TeV, 7 fois l’énergie record du Tevatron), il
devrait permettre de découvrir la dernière
pièce majeure du Modèle Standard
à n’avoir pas reçu de confirmation
expérimentale (le boson de Higgs) et
mettre en évidence des effets nouveaux,
certains prédits par les théories actuelles
et, sans doute, d’autres tout à fait inattendus !
© INFN
des rayons X, utilisée par exemple pour
« observer » des phénomènes ultrarapides comme des réactions chimiques.
L’expérience AdA à travers les âges : à gauche, en service en 1961 au
laboratoire de Frascati ; au centre, en 1962 après son transfert au
Laboratoire de l’Accélérateur Linéaire ; à droite en 2007, exposée sous une
pyramide de verre à l’entrée du laboratoire de Frascati.
ÉLÉMENTAÍRE
Salle expérimentale « Pierre Marin »
montrant l’anneau de collisions
ACO (Orsay) conservé en l’état à
destination du public.
page 45
Les collisionneurs existent depuis un demi-siècle seulement mais ils ont
révolutionné la physique des constituants élémentaires en permettant
d’explorer des plages d’énergie toujours plus élevées et d’accumuler
des quantités impressionnantes d’événements (plusieurs centaines de
millions pour Belle et BaBar). Bien loin d’être rivaux, les différents types
de machines se sont révélés complémentaires : ainsi, les bosons Z0 et
– ont été étudiés en détail
– au SppS,
W±, découverts dans des collisions pp
au LEP, collisionneur e+e−. Après la découverte du sixième (et dernier !?)
– et les mesures de précision des usines à B (e+e−),
quark au Tevatron (p-p)
le LHC (pp) devrait bientôt apporter sa moisson de découvertes.
Le XXIe siècle sera-t-il pour autant celui des anneaux de collisions ? Rien
n’est moins sûr : la taille des accélérateurs et les pertes par rayonnement
synchrotron apparaissent aujourd’hui comme des obstacles insurmontables
pour la prochaine génération de collisionneurs circulaires à électrons. Il
faudra donc probablement concevoir de nouveaux collisionneurs au lieu
de reproduire en plus grand et en plus puissant les machines actuelles.
Ainsi, le prochain projet mondial devrait être un collisionneur linéaire
électron-positron de plusieurs centaines de GeV (l’ILC), formé de deux
accélérateurs linéaires se faisant face et injectant des paquets de particules
en collision frontale. La communauté des physiciens des hautes énergies
a l’habitude de ces remises en question : nul doute qu’elle saura relever
ce nouveau défi !
© ACO
Un nouveau siècle commence
Accélérateur
Les accélérateurs co(s)miques
À ce flux de particules neutres s’ajoutent des corpuscules chargés (pour
99% des noyaux atomiques, essentiellement de l’hydrogène et, en
proportion moindre, de l’hélium ; 1% d’électrons), appelés « rayons
cosmiques » de manière générique. On croyait initialement que ces
particules étaient des sortes de photons, d’où l’emploi (erroné mais
entré dans l’usage) du mot « rayon ». Leur étude, entamée avant la mise
au point des premiers accélérateurs, se poursuit aujourd’hui avec un
intérêt soutenu. Les champs magnétiques terrestre et solaire ainsi que
l’atmosphère nous protègent des effets nocifs de ces rayonnements en
déviant, éliminant ou atténuant les particules les plus énergétiques,
potentiellement dangereuses.
© Simon Swordy
La Terre est bombardée en permanence par une multitude de particules
venues de l’espace. Les plus familières sont certainement les photons
émis dans le domaine du visible par le Soleil ou les autres étoiles et qui
font partie de notre environnement. Mais ce sont loin d’être les seules :
les progrès de la science dans la seconde moitié du XIXe siècle puis
tout au long du XXe ont permis d’en découvrir beaucoup d’autres (voir
Élémentaire N°3). Ainsi, le spectre électromagnétique ne se limite pas
à la lumière visible ; des photons sont émis dans une très large gamme
d’énergie qui va des ondes radio aux rayons X et γ en passant par les microondes, l’infrarouge, toutes les nuances de l’arc-en-ciel et l’ultraviolet. Ils
sont parfois associés à des phénomènes violents, courants à l’échelle de
l’Univers mais au sujet desquels les scientifiques ont encore beaucoup à
apprendre : noyaux actifs de galaxie (AGNs), sursauts gamma...
Spectre du rayonnement cosmique. Ce
graphique montre le nombre de particules
chargées d’énergie donnée arrivant sur Terre
par seconde, par m2 et provenant d’une
direction donnée. Les deux échelles (énergie
sur l’axe horizontal, flux de particules en
vertical) sont logarithmiques, ce qui veut dire
que chaque (grande) graduation correspond
à une variation d’un facteur 10. Entre le haut
et le bas de la courbe, l’énergie des particules
est multipliée par près de mille milliards
tandis que leur nombre est divisé par dix
mille milliards de milliards de milliards
(ouf !) environ. Si réaliser un tel spectre
est un vrai défi sur le plan expérimental,
interpréter le résultat obtenu se révèle tout
aussi complexe. Au premier abord la courbe
paraît très régulière : elle suit assez bien la
forme d’une loi de puissance, représentée
sur la figure par les pointillés noirs. En
fait, elle comporte plusieurs structures qui
reflètent la diversité des sources de rayons
cosmiques ainsi que celle des mécanismes
assurant leur accélération bien au-delà de
ce que les accélérateurs « terrestres » les
plus performants peuvent produire. Ainsi
quelques particules produisant une énergie
au moins égale à celle des collisions protonsprotons dans le LHC (14 TeV) arrivent
chaque heure sur une surface d’un kilomètre
carré.
Le spectre des rayons cosmiques
Intéressons-nous plus particulièrement aux rayons cosmiques qui arrivent
sur Terre de manière individuelle et incohérente, en provenance de
sources multiples ; leur spectre est riche d’enseignements.
Ensuite, la variation du flux de rayons cosmiques en fonction de l’énergie
est, en première approximation, simple ; chaque fois que l’énergie est
multipliée par 10, le nombre de particules incidentes est divisé par un
facteur compris entre 500 et 1000. Cette loi est qualitativement conforme
à l’intuition : plus un rayon cosmique est énergétique, plus il doit être
rare. De manière plus quantitative, on passe de plusieurs centaines de
particules par mètre carré et par seconde à moins d’une par kilomètre
ÉLÉMENTAÍRE
page 47
Tout d’abord ces particules couvrent une gamme d’énergie considérable :
plus de treize ordres de grandeur (un facteur dix mille milliards !) entre les
deux extrémités du spectre. Les rayons cosmiques les moins énergétiques
subissent l’influence du champ magnétique et du vent solaire tandis
que les plus puissants créent des gerbes géantes de particules lors de
leur interaction avec l’atmosphère. Les difficultés d’estimer précisément
l’énergie de tels événements et leur rareté suscitent de nombreuses
discussions – voire des controverses – au sein de la communauté des
physiciens.
Les accélérateurs co(s)miques
carré et par an quand l’énergie s’approche de sa valeur maximale. Le
spectre contient également quelques structures, détaillées plus avant dans
l’article.
page 48
Le match Technologie / Nature
Sur le plan de l’énergie absolue, la Nature
gagne sans contestation possible : le plus
puissant des accélérateurs, le LHC, atteindra
« seulement » des énergies de 1,4×1013 eV lors
des collisions proton-proton et de 2,8×1012 eV
par nucléon lorsque les noyaux d’hydrogène
seront remplacés par des ions plomb quelques
semaines par an. L’énergie d’un rayon cosmique,
elle, peut dépasser 1019 eV ! Par contre, la
technologie reprend l’avantage au niveau du
nombre de particules accélérées (trois cent mille
milliards de protons circuleront simultanément
dans le LHC), de la fréquence de répétition
des événements (40 millions de collisions par
seconde, toujours au LHC) et surtout grâce à
sa capacité à générer les collisions là où elles
doivent se produire pour être observables dans
leurs moindres détails, c’est-à-dire au centre
des détecteurs ! La technologie est également
plus « économique » que la Nature : grâce aux
collisionneurs (voir Élémentaire N°6) l’énergie
des particules circulant dans le LHC est bien
inférieure à celle que doit avoir un rayon
cosmique pour que sa collision avec un proton
terrestre (au repos) produise autant d’énergie.
- Pour obtenir une énergie de collision
Ecollision = 14 TeV, l’énergie des protons du
LHC doit valoir E = 7 TeV (les énergies des
deux particules impliquées dans le choc
s’ajoutent). - Dans le cas d’une collision rayon
cosmique – proton « terrestre » au repos
(d’énergie équivalente Mc2 ≈ 1 GeV), il faut
E ≈ (Ecollision)2/(2Mc2) ≈ 105 TeV, soit quatorzemille fois plus !
Enfin, les rayons cosmiques les plus énergétiques sont du genre « costauds ».
Leur énergie peut atteindre celle emmagasinée par une balle de tennis de
57 g lancée à 85 km/h soit 32 Joules, ou 1020 eV. Les meilleurs accélérateurs
de particules, pourtant à la pointe de l’innovation technologique, font pâle
figure par rapport à ces records « 100% naturels ».
Comprendre les mécanismes à l’origine de telles accélérations, trouver
les sources d’énergie sans lesquelles ces phénomènes ne pourraient se
produire, ou découvrir de nouvelles particules dont la désintégration serait
à l’origine de certains rayons cosmiques, sont trois des questions que se
posent actuellement les physiciens spécialistes des « astroparticules »,
c’est-à-dire des particules élémentaires en provenance de l’espace.
Contrairement aux photons, certains rayons cosmiques ont une charge
non nulle ce qui les rend sensibles aux champs électriques et magnétiques
présents dans le cosmos. Cette caractéristique importante est à l’origine de
mécanismes d’accélération spécifiques
.
À basse énergie (jusqu’à 1010 eV environ), le flux de rayons cosmiques
est sensible au vent solaire, un plasma chargé (protons, électrons, noyaux
d’hélium, etc.) émis par notre étoile à une vitesse d’environ 400 km/s.
Celui-ci crée un puissant champ magnétique dont l’effet se fait sentir dans
tout le système solaire et qui dévie une grande partie des particules chargées
incidentes. Au-delà, le flux en fonction de l’énergie E varie en « loi de
puissance », c’est-à-dire qu’il est proportionnel à E-γ. Expérimentalement,
γ = 2,7 jusqu’à 1015 eV environ avant de passer brusquement à 3,1 – le
flux chute. Cette transition est appelée poétiquement le « genou » par
les physiciens, jamais en mal d’inspiration pour donner des noms à leurs
observations ! Le taux décroît donc plus fortement sur plus de trois ordres
de grandeur avant de « ralentir » vers 1019 eV. Sans surprise, cette seconde
structure se nomme la « cheville ».
Des particules d’énergies aussi diverses sont nécessairement créées par
des processus très différents. Jusque vers 1018 eV, elles sont issues de notre
galaxie. Au-delà, elles viennent probablement de régions de l’Univers plus
lointaines car le champ magnétique galactique ne parvient pas à maintenir
de tels projectiles suffisamment longtemps dans la Voie Lactée pour qu’ils
aient une chance de croiser la Terre sur leur chemin. En fait, la plupart des
rayons cosmiques subissent l’influence de nombreux champs magnétiques
sur leur parcours ; ceux-ci dévient leur trajectoire, rendant très difficile,
voire impossible, l’identification des sources. Expérimentalement, leur
distribution sur le ciel apparaît isotrope avec une précision de un pour
mille. Pour les particules les plus énergétiques, la situation est différente :
un article récent de l’expérience AUGER semble montrer un lien entre
rayons cosmiques et noyaux actifs de galaxies.
Au-delà de ces énergies, le faible nombre de rayons cosmiques et les
possibles biais dans la mesure de l’énergie compliquent l’interprétation
ÉLÉMENTAÍRE
Les accélérateurs co(s)miques
Un article récent de l’expérience
AUGER
des résultats expérimentaux. Une contrainte forte est apportée par des
calculs théoriques qui prédisent une énergie limite – appelée « coupure
GZK » en l’honneur des trois physiciens Kenneth Greisen, Georgi
Zatsepin et Vadem Kuzmin qui déterminèrent sa valeur en 1966. En effet,
les rayons cosmiques les plus énergétiques interagissent avec les photons
du CMB ce qui limite leur énergie pour peu qu’ils aient parcouru une
distance suffisante. D’autre part, on ne connaît aucune source qui soit
assez puissante pour produire de telles particules et suffisamment proche
pour que la coupure GZK ne s’applique pas. La conjonction de ces deux
éléments fait qu’on ne devrait observer aucun rayon cosmique d’énergie
supérieure au seuil GZK.
Or une expérience basée au Japon (AGASA) et qui a pris des données
de 1990 à l’an 2000 a annoncé avoir détecté une douzaine de rayons
cosmiques qui, d’après l’argument précédent, ne devraient pas exister !
La question de savoir si ces événements sont réels ou si leur énergie
a été surestimée par les mesures a agité pendant plusieurs années la
communauté des physiciens, dans l’attente des résultats de l’expérience
Auger. Finalement publiées mi-2008, ces mesures donnent raison à une
expérience antérieure, HiRes, et montrent que la coupure GZK est bien
présente : le taux de particules décroît très fortement au niveau du seuil
en énergie.
AUGER (voir Élémentaire N°3) a
récemment publié une étude des
premiers rayons cosmiques de très
haute énergie enregistrés dans ses
détecteurs. Sa conclusion, basée sur
une trentaine d’événements d’énergie
supérieure à 57 × 1018 eV environ,
est que ces particules ont tendance à
provenir de sources « peu éloignées »
(moins de 75 Mpc, soit en-dessous de
la « coupure GZK » dont nous parlons
dans un encadré voisin) et que leurs
directions (observables car ces rayons
cosmiques sont peu déviés par les
champs magnétiques du cosmos) sont
proches de celles de noyaux actifs de
galaxie (AGNs) déjà connus. Bien que
ce résultat ne soit encore basé que sur
une tendance statistique – si les sources
sont isotropes, les observations d’Auger
sont peu probables mais pas impossibles
– il est intéressant car les AGNs sont
considérés par ailleurs comme de
bons candidats pour produire de tels
rayons cosmiques. Cette hypothèse
sera confirmée ou invalidée lorsque
plus de données seront analysées dans
les prochaines années, réduisant ainsi
les incertitudes statistiques sur ces
mesures.
Mais qu’est-ce qui fait courir les rayons
cosmiques ?
ÉLÉMENTAÍRE
Projection de la sphère céleste; les cercles noirs de rayon 3,1 degrés montrent
les directions d’arrivée des 27 rayons cosmiques les plus énergétiques
(énergie supérieure à 57 × 1018 eV) détectés par la collaboration Auger.
L’expérience est sensible à la partie du ciel en bleu : la Terre masque les
autres directions. Les points rouges montrent les 472 (!) AGNs connus
situés à moins de 75 millions de parsec (Mpc, 1 parsec = 3,6 annéeslumière). La comparaison précise de ces cartes indique une corrélation
entre elles (à confirmer avec plus de données) ; en particulier, rayons
cosmiques et noyaux actifs de galaxie semblent se concentrer autour du
plan matérialisé par la ligne pointillée et qui contient un grand nombre
de galaxies proches de la nôtre.
page 49
Coupure GZK
À partir d’une énergie très élevée (de l’ordre de 6×1019 eV pour
des protons), un rayon cosmique interagit avec les photons du
rayonnement fossile. À chaque collision, des particules (les
pions) sont produites et emportent une partie de l’énergie
disponible – 15% environ. Lentement (une interaction tous
les quinze millions d’années en moyenne) mais sûrement
(une telle particule peut voyager des centaines de millions
d’années) le processus se poursuit jusqu’à ce que l’énergie du
rayon cosmique passe en dessous du seuil d’interaction. En
conséquence, pour chaque type de rayon cosmique, il existe
une distance de propagation critique (plusieurs centaines de
millions d’années-lumière pour un proton) au-delà de laquelle
l’énergie de la particule est forcément inférieure au seuil GZK,
et ce quelle qu’ait pu être son énergie initiale.
© The Auger collaboration
Les rayons cosmiques étant chargés, ils interagissent avec les champs
électromagnétiques qu’ils rencontrent sur leur parcours. Les zones
où ces champs sont présents sont de taille astronomique (étoiles,
nébuleuses, trous noirs etc.) ; il est donc logique que des particules
microscopiques puissent parfois acquérir une énergie colossale en les
traversant. Dès la fin des années 1940, Enrico Fermi s’intéresse aux
mécanismes d’accélération des rayons cosmiques. En 1948 il propose
Les accélérateurs co(s)miques
DR
une théorie basée sur des chocs avec des nuages de gaz se comportant
comme des miroirs magnétiques, phénomène également à l’origine des
ceintures de Van Allen qui entourent la Terre. Lorsque miroir et particule
vont l’un vers l’autre (se suivent), la particule accélère (ralentit) après
le choc. Comme le premier type de collisions est plus probable que le
second (il est plus « facile » de croiser des objets qui viennent en sens
inverse que de rattraper ceux qui se déplacent dans la même direction),
les rayons cosmiques gagnent de l’énergie en moyenne.
La variation relative de l’énergie est alors proportionnelle au carré de la
vitesse des nuages – on parle d’accélération de Fermi du second ordre.
Si ce phénomène donne bien un spectre d’énergie en loi de puissance,
il a également plusieurs problèmes qui le rendent irréaliste. Tout d’abord
il est trop lent : les rayons cosmiques devraient être au moins dix fois
plus vieux que ce qui est effectivement observé. Ensuite, il demande
une énergie initiale importante (sans laquelle le mécanisme s’inverse et
ralentit la particule). Enfin, il faut effectuer un ajustement fin (et donc
peu naturel) des paramètres du modèle pour s’approcher du spectre en
énergie observé.
Malgré ces défauts, la théorie de Fermi est passée à la postérité car elle
contient la bonne idée : le gain d’énergie s’obtient par réflexions multiples.
À la fin des années 1970, plusieurs équipes de chercheurs ont proposé,
de manière indépendante, un nouveau mécanisme d’accélération. Une
particule traversant une onde de choc voit son énergie augmenter d’un
terme proportionnel à la différence entre les vitesses de propagation du
milieu interstellaire avant et après le choc. Si des miroirs magnétiques
sont situés de part et d’autre de cette frontière, le rayon cosmique se
Effet du mécanisme GZK sur des protons
cosmiques d’énergies supérieures à 1020 eV.
Leur énergie décroît en fonction de la distance
parcourue – comptée en Mpc – à cause des
interactions avec les photons du CMB et la
variation est d’autant plus rapide que l’énergie
est élevée. Au-delà d’une certaine distance de
propagation, quelques centaines de Mpc dans
le cas du proton, les particules ont des énergies
très voisines bien qu’elles aient été initialement
très différentes. Cela signifie que l’énergie d’un
proton qui a parcouru un trajet aussi long ne peut
excéder une valeur limite, de l’ordre de 6×1019 eV
et appelée « coupure GZK ».
trajectoire en spirale
de la particule chargée
Ceintures de Van Allen Un miroir magnétique est une configuration particulière d’un
champ magnétique dont l’effet est de ralentir, puis de réfléchir les particules chargées
incidentes – dont les énergies peuvent parfois augmenter par ce mécanisme. Ce phénomène
peut se produire lorsque l’intensité du champ magnétique varie le long des lignes de champ,
ce qui est par exemple le cas pour le champ magnétique terrestre, plus fort au niveau des
pôles. Les ceintures de Van Allen, du nom du scientifique américain qui a interprété les
données des premiers satellites qui les ont traversées, sont ainsi une conséquence directe
de cet effet. Il s’agit de zones en forme d’anneau regroupant des particules chargées qui font
sans cesse l’aller-retour entre les deux pôles de notre planète où elles sont immanquablement
réfléchies par ces « miroirs ». Chaque traversée dure de l’ordre d’une seconde mais une
particule donnée peut rester prisonnière de ces régions pendant plusieurs années.
Terre
Page d’un carnet
de notes d’Enrico
Fermi datée du
4 décembre 1948
et contenant son
modèle
d’accélération
des
rayons cosmiques
par des nuages
de gaz agissant
comme
miroirs
magnétiques.
Moins de quatre
semaines plus tard Fermi enverra un article
au journal scientifique « Physical Review »
qui le publiera en avril 1949.
Bibliothèque de l’Université de Chicago.
ligne de champ magnétique
page 50
© B. Mazoyer
points miroir
Ni les hommes ni les circuits électroniques ne résisteraient à un séjour prolongé dans les
ceintures de Van Allen dont la présence doit donc être prise en compte avec soin lors de
la préparation de missions spatiales. Comme les pôles géographiques et magnétiques ne
sont pas alignés (l’écart est d’environ 11 degrés) et que les deux axes associés (rotation et
magnétique) sont décalés d’environ 450 km, les ceintures de Van Allen ne sont pas à la
même altitude partout sur la Terre. Ainsi, l’endroit où ce flot de particules est le plus proche
du sol est localisé à la verticale du Brésil. Cette « anomalie magnétique de l’Atlantique Sud »
a nécessité la pose d’un blindage supplémentaire sur la station spatiale internationale dont
l’orbite passe parfois au travers de cette région. De même, le télescope spatial Hubble et le
satellite GLAST-Fermi éteignent leurs instruments lorsqu’ils traversent cette zone. Dans tous
les cas, il s’agit de se protéger des dommages que pourraient causer cette densité inhabituelle
de particules chargées. Pas d’inquiétude au niveau du sol : les ceintures de Van Allen ne
s’approchent pas à moins d’une centaine de km d’altitude. Il n’est donc pas nécessaire de
mettre un heaume de chevalier pour visiter Copacabana !
ÉLÉMENTAÍRE
les accélérateurs co(s)miques
Dix fois plus vieux
L’âge des rayons cosmiques est estimé
en regardant l’abondance relative
de noyaux radioactifs. Ceux-ci se
désintègrent au cours du temps selon un
rythme qui leur est propre ; comparer
leurs abondances relatives permet de
situer le moment où ils ont été créés.
retrouve au milieu d’une partie de flipper géante et accélère chaque fois
qu’il la traverse. Les calculs montrent que cette accélération de Fermi
du premier ordre (proportionnelle à la vitesse du choc et non pas à son
carré) « colle » mieux à la réalité même si elle est loin d’expliquer tous les
phénomènes observés. Ce domaine d’étude, au confluent de nombreuses
disciplines, est actuellement en plein développement. Il progresse grâce à
des avancées théoriques (mises au point de modèles complexes et prenant
en compte toujours plus de phénomènes) et numériques : une fois les
équations écrites, il faut encore les résoudre de manière approchée avec
des ordinateurs gourmands en temps de calcul. Le but est de modéliser
de manière précise les ondes de choc et, par voie de conséquence, les
événements qui les produisent dans l’Univers.
Pour les rayons cosmiques d’origine galactique, les ondes de choc
générées par des supernovæ sont de bons « candidat-accélérateurs ».
En comparant le taux de ces phénomènes (quelques-unes par siècle) à la
densité de particules mesurée (de l’ordre de 1 eV/cm3), on montre qu’une
dizaine de pourcents de l’énergie émise par ces explosions d’étoiles
suffisent pour alimenter la production de ces particules. Le gain d’énergie
peut atteindre 1000 eV/s pendant plusieurs centaines d’années d’affilée,
ce qui est beaucoup mais insuffisant pour rendre compte de l’ensemble du
spectre des rayons cosmiques. D’autres mécanismes doivent y contribuer
mais les observations ne permettent pas actuellement de trancher entre les
candidats potentiels. Le diagramme de Hillas est une manière commode
de caractériser les différentes sources possibles au moyen de leur champ
magnétique B et de leur taille L. En effet, l’énergie apportée à un rayon
cosmique de charge q est forcément inférieure au produit qBcL, l’énergie
maximale, où c est la vitesse de la lumière dans le vide. En faisant des
hypothèses sur le rendement du processus, on obtient les relations que
doivent satisfaire B et L pour fournir des énergies données – des droites
en échelle doublement logarithmique. En plus des noyaux actifs de
galaxie déjà mentionnés plus haut dans l’article, les sursauts gamma (voir
« ICPACKOI »), voire les étoiles à neutrons, pourraient accélérer une
partie des rayons cosmiques de (très) haute énergie.
V
v
© B. Mazoyer
v + 2V
Analogie entre le mécanisme
d’accélération de Fermi et le
tennis.
page 51
ÉLÉMENTAÍRE
© B. Mazoyer
Énergie maximale : une particule de charge q et d’énergie E, plongée dans un
champ magnétique B, décrit un cercle dans le plan perpendiculaire à l’axe de ce
champ. Le rayon R de cette trajectoire est donné par R=E/qBc. Ce mouvement se
fait sans gain d’énergie. Le champ B, présent dans la zone d’accélération sans en être
responsable, limite l’énergie acquise par la particule à cause de la relation écrite cidessus. Pour que l’accélération ait lieu, il faut que le rayon R de la trajectoire reste
plus petit que la taille caractéristique L de la zone où ce processus a lieu. On obtient
alors directement la valeur maximale Emax de l’énergie : R ≤ L => E ≤ Emax= qBcL.
Diagramme de Hillas montrant la relation
entre champ magnétique et taille pour
différentes sources potentielles de rayons
cosmiques de haute énergie (les deux échelles
sont logarithmiques). Les droites rouges
illustrent l’exemple de protons d’énergie
1020 eV (trait plein) ou 1021 eV (pointillés) ; la
droite verte montre le cas d’ions Fer d’énergie
1021 eV.
Les accélérateurs co(s)miques
Une onde de choc est une perturbation
qui se propage dans un milieu. Les deux
régions séparées par cette zone (en amont
et en aval du choc) ont des propriétés très
différentes. Ainsi lors d’une explosion,
une bulle de gaz à très haute pression
se forme tandis que l’air extérieur reste
à la pression atmosphérique. D’autres
exemples d’ondes de choc sont le « bang »
supersonique émis par un avion lorsqu’il
passe le mur du son ou la lumière Cerenkov
(Élémentaire N°4) qui apparaît lorsqu’une
particule chargée traverse un milieu à
une vitesse supérieure à celle qu’aurait la
lumière dans ce matériau.
Puisque nous parlons beaucoup de champs
magnétiques dans l’article, on peut
également mentionner la zone où le vent
solaire rencontre le champ magnétique
terrestre. Cette onde de choc a été
observée pour la première fois le 7 octobre
1962 à 15h46 temps universel par Mariner
2, alors en route pour Vénus. Comme le
montre le graphique ci-dessous, le champ
magnétique mesuré par la sonde spatiale
augmente brutalement lorsque celle-ci
quitte le bouclier magnétique terrestre
pour se retrouver avec le vent solaire
turbulent de face.
© MPIfR / A. Jessner
Ce photomontage présente d’une part (à
gauche) une image de la nébuleuse du
Crabe dans la constellation du Taureau et
d’autre part (à droite) des photographies
(ordonnées par colonne) illustrant le cycle
d’émission du pulsar central, une étoile
à neutrons créé par l’explosion d’une
supernova en 1054. Selon l’instant de la
prise de vue, le pulsar (au-dessous et à
droite de l’étoile fixe) est « allumé » ou
« éteint ». Tous ces clichés ont été pris
avec le télescope Mayall de 4 mètres de
l’observatoire du Kitt Peak (Arizona).
Et les particules neutres ?
© The HESS Collaboration
Au contraire des particules chargées, sans cesse soumises à l’action de
champs électriques et magnétiques, les particules neutres se propagent
en ligne droite sans réellement subir l’influence du milieu interstellaire.
Elles apportent donc des témoignages plus fidèles sur leurs sources et les
mécanismes d’accélération associés. Les photons (rayons X ou gamma)
et les neutrinos sont des produits secondaires d’interaction entre protons
tandis que les électrons peuvent également rayonner des photons par
effet synchrotron lorsque leurs trajectoires sont courbées par des champs
magnétiques.
De nombreuses expériences, déjà opérationnelles ou encore en
préparation, sont dédiées à la détection des particules neutres de
haute énergie. Pour les photons, il faut soit aller dans l’espace (satellite
GLAST-Fermi, voir «ICPACKOI») soit utiliser un réseau d’antennes au sol
(télescope HESS en Namibie). Pour les neutrinos, toujours aussi discrets,
il faut de grands volumes d’eau (projet ANTARES au large de Toulon, voir
Élémentaire N°5) ou de glace (expériences Amanda puis IceCube, voir
Élémentaire N°3). Observées de tous côtés, les particules énergétiques
qui nous arrivent en provenance de l’espace finiront bien par dévoiler
leurs secrets.
page 52
Étoile à neutrons Comme son nom
l’indique, il s’agit d’un astre composé
presque exclusivement de neutrons. Une
étoile à neutrons a un rayon d’une dizaine
de kilomètres et « pèse » environ 1,4 masse
solaire : sa densité (de l’ordre du milliard
de tonnes/cm3) est donc phénoménale. Elle
résulte de l’effondrement gravitationnel
d’une étoile en fin de vie qui a fini de
brûler tout son combustible nucléaire :
une supernova.
HESS « High Energy Stereoscopic System » (HESS) est un réseau
de télescopes situés en Namibie et qui utilise la lumière Cerenkov
produite par les gerbes de particules chargées qui apparaissent
lorsqu’un photon très énergétique interagit dans l’atmosphère.
HESS étudie ainsi en détail les sources connues de rayons gamma
(comme le pulsar du Crabe) et permet également d’en découvrir de
nouvelles grâce à son excellente sensibilité.
ÉLÉMENTAÍRE
Accélérateur
Les accélérateurs de particules du futur
Les grands accélérateurs de demain se préparent aujourd’hui :
chaque nouveau projet nécessite des développements technologiques
importants et de gros investissements, tant en ressources qu’en
personnel. En conséquence, le temps séparant l’idée d’un nouvel
appareillage de sa réalisation puis de sa mise en service s’allonge
considérablement et peut facilement dépasser la dizaine d’années.
Ainsi, certains chercheurs travaillaient déjà au début des années 1990
sur ce qui allait devenir le LHC alors que l’exploitation scientifique de
cet accélérateur n’a véritablement commencé que le 30 mars dernier.
En parallèle, le concept de « Super-LHC » (SLHC) génère déjà un
effort soutenu de recherche-développement (R&D) dans de nombreux
laboratoires : il s’agit de voir comment les performances nominales
du LHC (que l’accélérateur mettra certainement plusieurs années à
atteindre) pourraient être améliorées de manière significative à l’échelle
d’une dizaine d’années. On parle d’une multiplication par dix du taux de
collision ce qui augmenterait d’autant la quantité de données enregistrées
par les expériences ATLAS et CMS.
© ILC
De
nombreux
projets
d’accélérateurs sont donc
actuellement sur la table.
Tous ne sont évidemment
pas au même stade d’avancement. Certains n’existent
que sur le papier ou peinent
à trouver un nombre
suffisant de « supporters ».
La limitation des moyens
humains, techniques et financiers rend nécessaire un arbitrage au
niveau mondial ; pour l’Europe, c’est le CERN qui établit les priorités
au niveau scientifique. Certaines collaborations ont déjà rassemblé assez
de main-d’œuvre pour commencer à tester les technologies nécessaires
pour atteindre leurs objectifs. Cette phase de validation s’accompagne
de l’écriture de rapports techniques très détaillés qui permettent ensuite
d’obtenir un financement des organismes de tutelle et l’implication de
laboratoires importants.
Schéma de l’ILC : une fois produits, les
paquets d’électrons (en bleu), sont « mis
en forme » dans un anneau de stockage
avant d’être envoyés au départ de la section
d’accélération. Cette dernière comporte
une déviation qui permet de récupérer une
partie des électrons qui sont envoyés sur une
cible faite dans un matériau dense (comme
le tungstène) pour produire des positrons (en
vert). Ces derniers sont ordonnés en paquets
homogènes dans un anneau de stockage
similaire à celui des électrons avant d’être
accélérés dans la seconde section droite. Les
deux faisceaux se rencontrent finalement au
centre du détecteur.
page 40
Le projet de « futur collisionneur linéaire » au sens large a un statut
assez particulier : considéré depuis des années comme l’accélérateur à
construire en priorité pour aller au-delà des résultats du LHC, son coût
et sa complexité ralentissent son développement, tout comme les retards
du calendrier du grand collisionneur du CERN – les caractéristiques
de cette nouvelle machine dépendront en partie des découvertes faites
au LHC. L’ILC (« International Linear Collider ») bénéficie néanmoins
de l’implication de nombreux groupes de par le monde (environ 300
équipes, soit plus de 700 personnes travaillant sur l’accélérateur et plus
de 900 sur les projets de détecteurs) ce qui lui permet de continuer à aller
de l’avant malgré les difficultés. Actuellement, aucun nouveau projet de
grand accélérateur n’a été formellement accepté et financé.
ÉLÉMENTAÍRE
Les accélérateurs de particules du futur
Rayonnement synchrotron
Lorsqu’une particule chargée se déplace
dans un champ magnétique le long
d’une trajectoire courbe, elle suit un
mouvement non uniforme au cours
duquel elle perd de l’énergie sous forme
de rayonnement synchrotron. Le taux
auquel ce phénomène se produit est
proportionnel à la quantité
1
E 4 × r2
mc2
Pourquoi construire de nouveaux accélérateurs ? La réponse est évidente :
pour mieux comprendre la structure de la matière et le monde des
particules élémentaires. Pour atteindre ce but, il faut mettre au point des
dispositifs expérimentaux susceptibles de révéler une physique nouvelle
tout en étant technologiquement au point et suffisamment « bon marché »
pour déboucher en quelques années sur des réalisations concrètes.
Plusieurs directions sont explorées en parallèle :
• l’accumulation de quantités plus importantes de données afin d’améliorer
la précision des résultats actuels, ou de chercher des effets rares auxquels
les expériences d’aujourd’hui ne sont pas sensibles ;
• l’augmentation de l’énergie des collisions pour produire des particules
plus massives ou en plus grand nombre ;
• l’utilisation de particules différentes (muons ou photons) dans les
collisionneurs ou de faisceaux très intenses de neutrinos pour accéder à
de nouveaux tests du Modèle Standard ou étudier des effets inaccessibles
auparavant.
( )
Dans la suite, nous passons en revue un certain nombre de projets, sans
chercher à établir une hiérarchie tranchée entre eux ni pronostiquer lesquels
seront effectivement réalisés. Dans tous les cas, les « heureux gagnants »
auront certainement évolué entre maintenant et leur mise en service.
Relire cet article d’ici une dizaine d’années – et comparer son contenu
à la situation réelle de la physique des hautes énergies à ce moment-là –
vaudra certainement le détour !
Le « futur » collisionneur linéaire
Si les résultats du LHC sont encore à venir, on sait déjà que les études du
boson de Higgs ou de la Nouvelle Physique ne pourront être menées que
si les collisions électron-positron atteignent ou dépassent l’énergie de 500
GeV, soit un gain d’un facteur 2,5 ou plus par rapport au record du LEP (209
GeV). On apprécie encore mieux le défi à relever si l’on se souvient que
ces particules légères perdent de l’énergie par rayonnement synchrotron
lorsqu’elles circulent dans des anneaux de stockage. Cet effet augmente
très rapidement avec l’énergie des faisceaux si bien que la technologie des
collisionneurs circulaires doit être abandonnée pour les électrons, faute
ÉLÉMENTAÍRE
page 41
Pour prolonger les découvertes espérées au LHC – boson(s) de Higgs,
particules ou effets au-delà du Modèle Standard, etc. – les physiciens
peuvent utiliser les informations produites lors de collisions à hautes
énergies entre des électrons et des positrons. En effet, contrairement aux
protons, ces particules sont élémentaires et leurs interactions produisent
des événements moins compliqués et plus propices à des mesures
précises. Cette séparation entre « collisionneurs à découvertes » (pp ou
pp)
et « machines de précision » (e+e−) n’est pas nouvelle : les bosons W±
et Z0, médiateurs avec le photon (γ) de l’interaction électrofaible, ont été
- en 1983 avant d’être étudiés au LEP
- (collisions pp)
découverts au SppS
(collisions e+e−) de 1989 à 2000 – voir Élémentaire 6.
où E est l’énergie de la particule, m sa
masse et r le rayon de la trajectoire de
la particule. La puissance quatrième
intervenant dans le premier facteur fait
que la perte d’énergie augmente très vite
avec l’énergie du faisceau et est beaucoup
plus importante pour des électrons que
pour des protons par exemple. Doubler
l’énergie multiplie la perte par 16 et cette
dernière est, à énergie constante, 11 mille
milliards de fois plus importante pour un
faisceau d’électrons que pour un faisceau
de protons. C’est pour cela que le « L »
(pour « Linéaire ») de « ILC » et « CLIC »
(voir page suivante) est aussi important :
déjà, lors de la première phase du LEP,
les électrons perdaient à chaque tour 180
MeV sous forme de radiation synchrotron.
D’où la complexité et la puissance du
système de compensation d’énergie mis
en place pour maintenir l’accélérateur
en fonctionnement nominal. La seconde
phase du LEP a vu l’énergie des collisions
augmenter de manière importante
(de 92 à 209 GeV) mais il est impossible technologiquement de continuer
dans cette voie. Pour atteindre voire
dépasser 500 GeV il faudrait construire
un collisionneur immense ou limiter
de manière drastique les courants de
particules en circulation dans l’anneau.
La perte d’énergie par rayonnement
synchrotron se manifeste dès qu’il y a
une accélération. Ainsi, une particule qui
gagne de l’énergie dans un accélérateur
linéaire grâce à la présence d’un champ
électrique est également soumise à cet
effet. Cependant, la puissance rayonnée
reste négligeable devant celle qui est
communiquée à la particule pour tous les
accélérateurs actuels et futurs. En effet,
le rapport entre ces deux quantités vaut:
Prayonnée / Pcommuniquée ~ 4 10 -15 × champ
accélérateur (MeV/m). Contrairement
au cas des accélérateurs circulaires, ce
résultat ne dépend pas de l'énergie du
faisceau.
Les accélérateurs de particules du futur
de pouvoir compenser les pertes qui affecteraient les particules à chaque
tour.
Un champ électrique de 30 millions de
volts par mètre correspond à environ dix
fois la valeur dite « de claquage » au-dessus
de laquelle l’air devient conducteur, ce
qui se traduit par la formation d’éclairs.
Ce phénomène dangereux est évité
dans les accélérateurs en maintenant
l’appareillage sous un vide poussé, ce qui
permet également de minimiser les chocs
entre les particules et les molécules d’air
résiduelles.
Une solution consiste donc à maintenir électrons et positrons sur une
trajectoire rectiligne, ce qui ne va pas sans poser quelques problèmes.
En effet, à énergies finales égales, un accélérateur circulaire est moins
long qu’une machine linéaire puisqu’une augmentation importante de
l’énergie peut être obtenue par l’accumulation de petites accélérations
produites chaque fois que les particules traversent une zone particulière
de l’anneau. De plus, cette configuration permet d’utiliser les mêmes
faisceaux pendant longtemps et de produire de nouvelles collisions
à chaque tour. Dans le cas d’un accélérateur linéaire, les paquets de
particules sont perdus après un seul passage au centre du détecteur.
Schématiquement, le futur collisionneur électrons-positrons « ILC » sera
donc composé de deux sections rectilignes en face-à-face. Pour limiter leur
taille, le champ électrique accélérateur devra dépasser les 30 millions de
volts par mètre grâce à l’utilisation de technologies supraconductrices.
Néanmoins, les sections mesureront tout de même près de 15 km de long
pour une énergie de collision de 500 GeV ! Dans un second temps, cette
valeur pourra être doublée pour atteindre 1 TeV ; ce gain sera obtenu en
augmentant la valeur des champs électriques et en allongeant les sections
accélératrices d’une dizaine de kilomètres chacune.
Technologies supraconductrices
Pour créer des champs électromagnétiques
puissants il faut des courants électriques
élevés. À température ambiante, tous les
composants des circuits ainsi que les fils
dissipent de l’énergie par effet Joule. Si
cette propriété est bien utile pour fabriquer
des radiateurs, les pertes qu’elle provoque
limitent les possibilités des accélérateurs.
Pour la contourner, il faut employer
des matériaux supraconducteurs (par
exemple des alliages à base de niobium)
et descendre à des températures très
basses de quelques degrés au-dessus du
zéro absolu. Dans ces conditions, l’effet
Joule et ses inconvénients associés — en
particulier l’émission de chaleur —
disparaissent dans les supraconducteurs
et toute la puissance électrique peut être
utilisée par les technologies accélératrices.
Puisque les particules produites ne sont utilisées que lors d’un seul
croisement des faisceaux (elles sont ensuite canalisées hors de la région
d’interaction puis dirigées sur des blocs absorbeurs), il convient de
s’assurer que ce dernier a lieu dans de bonnes conditions et produit
en moyenne autant de collisions que possible. Pour cela, électrons et
positrons sont regroupés dans des paquets contenant chacun environ 10
milliards de particules et dont la taille est compressée au maximum au
point d’interaction : 5 nanomètres de haut pour 640 de large à l’ILC ! Les
difficultés associées sont multiples : produire plus de cent mille milliards
de positrons chaque seconde (on attend environ 14 000 croisements
page 42
© Kérec d'après J.P. Delahaye
Schéma
montrant
le
principe
d’accélération de CLIC : le « faisceau
de puissance » d’électrons, très intense
mais d’énergie limitée à quelques GeV au
plus, circule parallèlement au faisceau
principal qui doit être accéléré d’une
dizaine de GeV à 1,5 TeV. Les transferts
d’énergie du premier faisceau (ralenti)
vers le second (accéléré) ont lieu dans
des zones dédiées, réparties le long de la
longue section droite accélératrice.
ÉLÉMENTAÍRE
Les accélérateurs de particules du futur
Refroidir
La température d’un gaz est reliée à
l’agitation microscopique des molécules
qui le composent. Plus sa température
est élevée, plus le mouvement associé
est énergétique. Par analogie, la mise en
forme de paquets de particules, processus
au cours duquel leurs propriétés sont
uniformisées avec une grande précision,
est appelée « refroidissement ». Toute la
difficulté est de réduire la dispersion en
énergie tout en maintenant les paquets
denses.
de paquets par seconde) ; les refroidir ; les transporter tout au long du
collisionneur ; enfin s’assurer que les deux minuscules faisceaux se
croisent bien au centre du détecteur.
Si l’ILC est le projet de collisionneur linéaire de nouvelle génération le plus
avancé – la phase de R&D devrait se terminer en 2012 avec la publication
d’une description complète de l’accélérateur et du détecteur – il n’est pas
le seul. La collaboration CLIC (« Compact LInear Collider »), dans laquelle
le CERN joue un rôle moteur, étudie une technologie complètement
différente, potentiellement prometteuse mais dont la faisabilité demande
à être démontrée. Dans ce schéma, dit « à deux faisceaux », la puissance
nécessaire pour accélérer le faisceau principal est puisée dans un autre
faisceau très intense d’électrons relativistes qui circule en parallèle. Le
ralentissement de ce faisceau de puissance produit de l’énergie qui est
fournie au faisceau principal sous forme d’impulsions radiofréquence
(RF). En théorie, une machine d’une cinquantaine de kilomètres de long
au total (comme quoi, le mot « compact » n’a pas le même sens en
physique des particules que dans le langage courant !) pourrait fournir
des collisions électrons-positrons à 3 TeV.
© INFN
CLIC a plusieurs années de retard par rapport à l’ILC (sa phase d’étude
est prévue pour durer jusqu’à 2016) mais, sur le papier, ses performances
pourraient être supérieures. Les deux projets sont donc en concurrence
directe – « il ne devra en rester qu’un ! » – ce qui ne va pas sans tension
étant donnés les enjeux liés au futur collisionneur linéaire. Heureusement,
le climat s’est détendu ces dernières années avec la reconnaissance de
synergies entre les deux collaborations, concrétisée par la création de
groupes de travail communs et la signature conjointe de déclarations
d’intention. Si au final les deux technologies apparaissent viables, le
choix dépendra des résultats du LHC : selon ce que les scientifiques
auront appris de la Nouvelle Physique, ils seront à même de dire quel
accélérateur correspond le plus à l’orientation qu’ils veulent donner à
leurs recherches.
Implantation proposée (en rouge) pour
l’accélérateur SuperB sur le site du
laboratoire de Frascati au sud de Rome.
C’est la voie suivie par les « usines à mésons B » de première génération
– BaBar aux États-Unis et Belle au Japon – qui ont collecté des données
ÉLÉMENTAÍRE
page 43
Comment faire pour obtenir des informations sur le contenu d’une boîte
fermée par un cadenas ? La manière la plus naturelle est de l’ouvrir pour
regarder à l’intérieur. Si l’on n’a pas la clef, on peut casser la boîte et
identifier les morceaux éparpillés pour découvrir ce qu’elle cachait : c’est
la stratégie des collisionneurs hadroniques comme le LHC. Mais on peut
aussi procéder de manière plus indirecte (et moins violente) en agitant
la boîte : le bruit produit apporte des renseignements sur son contenu.
Mais l’information obtenue est seulement partielle : différents scénarios
de Nouvelle Physique peuvent provoquer des bruits très similaires. Il faut
donc réaliser le plus de tests possible pour faire un tri entre les différents
modèles en concurrence.
Schéma de l’accélérateur Super KEK-B avec
le détecteur Belle-2. Au premier plan on
peut voir la zone où les faisceaux d’électrons
puis de positrons (obtenus après collisions
d’électrons sur une cible) sont produits et
mis en forme avant d’être injectés dans
les deux tubes à vide du collisionneur (en
jaune) qui se croisent au centre du détecteur
(cylindre rouge sur fond bleu en haut à
droite). Les objets colorés le long de l’anneau
représentent les aimants de courbure et les
zones d’accélération des particules.
© KEK
Les super usines à mésons B
Les accélérateurs de particules du futur
au cours de la décennie 2000. Ces expériences réalisent des collisions
électron-positron à une énergie particulière (environ 10,6 GeV),
nettement inférieure aux records du LEP, mais qui permet d’étudier une
classe de particules, les mésons B, produits en abondance à cette énergie
grâce à la présence d'une résonance le ϒ(4S) qui se désintègre en BB. Les
nombreux résultats obtenus par ces deux collaborations ont bénéficié des
performances des deux accélérateurs associés, PEP-II et KEK-B, qui ont
battu des records de luminosité : des milliards de collisions intéressantes
ont été enregistrées. Malgré leurs efforts, ni BaBar ni Belle n’ont réussi à
mettre en échec le Modèle Standard : tous les tests effectués donnent des
résultats en accord avec ses prévisions, une fois les incertitudes théoriques
et de mesure prises en compte. Pour avoir une chance de voir leur quête
couronnée de succès, les prochaines expériences devront donc chercher
à mettre en évidence de petits effets ou des corrections très fines à des
quantités bien connues. Cela passe nécessairement par l’accumulation
de plusieurs dizaines de fois plus d’événements que BaBar ou Belle n’en
ont enregistré. Pour parvenir à ce résultat en seulement quelques années
de prise de données, il faut des accélérateurs bien plus « généreux » :
les « super-usines à mésons B » actuellement en phase de R&D tablent
sur une luminosité (et donc un taux de collision) 100 fois supérieure aux
records actuels.
Luminosité
En physique des particules, chaque
processus susceptible de se produire lors
d’une collision, par exemple l’annihilation
d’un électron et d’un positron en une
paire de muons de charges opposées, a
une certaine probabilité d’occurrence.
Dans une expérience, le taux de ce
processus (c’est-à-dire le nombre de fois
où il se produit chaque seconde) est égal
à cette probabilité multipliée par une
quantité appelée luminosité. Plus elle est
élevée, plus l’accélérateur est productif.
La luminosité est proportionnelle au
courant des faisceaux qui circulent dans
les tubes à vide et augmente lorsque la
section des paquets diminue. Elle dépend
donc beaucoup de la qualité du guidage
des particules au point de croisement
et du contrôle que les opérateurs de
l’accélérateur ont des propriétés des
faisceaux à cet endroit.
Deux voies sont possibles pour parvenir à ce résultat : soit augmenter
fortement les courants des deux faisceaux, soit conserver les courants
au niveau de ceux atteints à PEP-II et KEK-B de manière routinière et
jouer sur d’autres paramètres pour augmenter la luminosité. La première
solution a de nombreux désavantages : plus les faisceaux sont intenses,
plus ils sont difficiles à contrôler, plus la puissance électrique nécessaire
(et donc le coût de fonctionnement de l’accélérateur) est élevée et plus le
bruit de fond parasite induit par leur passage est important. C’est pourquoi
un consensus s’établit autour de la seconde alternative, portée par le
projet SuperB à dominante italienne et à laquelle la collaboration Belle-2
qui se fédère autour de groupes japonais semble se rallier après avoir
exploré l’autre voie en profondeur. Des simulations numériques, validées
en 2008-2009 par des tests sur l’accélérateur de plus basse énergie
(collisions à 1,02 GeV) DAΦNE, situé à Frascati au sud de Rome, ont
montré qu’il était possible de créer et de contrôler des « micro-faisceaux »
d’électrons et de positrons très denses. Ces faisceaux sont comprimés au
point de croisement pour donner des « nano-faisceaux » afin d’obtenir
la probabilité de collisions la plus élevée possible. Ces développements
promettent des gains de luminosité importants et valables sur de longues
périodes.
page 44
SuperB et Belle-2 travaillent actuellement d’arrache-pied à la définition
des caractéristiques de leurs accélérateurs et des détecteurs associés. Ces
derniers devront en effet être capables de « digérer » un flot colossal de
données tout en maintenant pendant au moins cinq ans un niveau de
performances aussi bon que ceux atteints par BaBar et Belle.
ÉLÉMENTAÍRE
Les accélérateurs de particules du futur
Collisionneurs à muons & usines à
neutrinos
Le muon – voir « Détection » – est le lepton chargé de la seconde famille
des particules élémentaires. Cousin de l’électron, il est environ 207 fois
plus massif que ce dernier et donc bien moins sujet aux pertes d’énergie
par rayonnement synchrotron. Ainsi, un collisionneur de muons à une
énergie de 4 TeV (valeur suffisante pour potentiellement révéler des effets
inaccessibles au LHC puisque les muons sont des particules élémentaires
alors que les collisions entre protons font intervenir leurs
constituants, les quarks, qui n’emportent chacun qu’une fraction
de l’énergie totale) ne ferait que deux kilomètres de diamètre
environ, soit 4 fois moins que le LEP/LHC. De plus, le taux de
production directe du boson de Higgs (H) lors de collisions leptonantilepton (e+e−→H ou μ+μ−→H par exemple) est proportionnel
au carré de la masse des leptons. Cette propriété permettra peutêtre de produire des bosons de Higgs en abondance dans un
collisionneur muon-muon.
Bien que ce défi semble rédhibitoire, il a été relevé par différentes
équipes de chercheurs, en particulier américaines, qui travaillent
sur un tel projet de collisionneur. Une compagnie privée, Muons Inc.,
implantée à Batavia près du laboratoire Fermilab, promeut même ce
type d’accélérateurs ainsi que les technologies associées. Si le calendrier
d’une telle machine est encore plus lointain que celui de l’ILC (on parle
d’un démarrage de la prise de données autour de 2030), la phase de R&D
bat actuellement son plein.
ÉLÉMENTAÍRE
page 45
Les muons n’existant pas en quantité abondante dans la nature, il faut
donc commencer par les produire. Pour cela on utilise des protons
accélérés à quelques dizaines de GeV qu’on envoie sur une cible de
mercure. Parmi les produits de ces collisions on trouve des pions chargés
qui sont sélectionnés à l’aide d’un très fort champ magnétique (de l’ordre
de 20 teslas). Ces mésons, instables également, se désintègrent presque
toujours en une paire muon + antineutrino muonique. Cette procédure
de conversion protons → muons a un rendement de l’ordre du pourcent
et fournit des particules aux propriétés très hétérogènes : le faisceau
ainsi produit ressemble à une « grosse patate » dont les particules sont
éparpillées sur une distance de l’ordre du mètre. De plus, les impulsions
des muons ont une dispersion de presque 100% autour de la valeur la
plus probable qui est de l’ordre de 200 MeV/c.
Implantation possible pour un
collisionneur à muons sur le site de
Fermilab, délimité par les pointillés.
La partie en vert correspond à la
production des muons suivie de leur
organisation en paquets homogènes.
Ces particules sont ensuite accélérées
dans le « circuit » bleu où des neutrinos
sont émis à mesure que des muons se
désintègrent. Enfin, la partie rouge
correspond à l’anneau de collisions où
les faisceaux énergétiques se croisent
en deux emplacements où sont
installés des détecteurs.
© Fermilab
Alors, dans le muon, tout est bon ? En fait il y a un hic de taille : le
muon n’est pas une particule stable… Sa durée de vie est même
plutôt courte : 2,2 μs au repos et seulement 42 ms à 2 TeV une
fois les effets relativistes pris en compte ! Toute la difficulté du
collisionneur à muons découle de cette remarque : comment créer,
mettre en forme et exploiter au mieux une quantité suffisante de
ces particules, le tout en quelques centièmes de seconde ?
Les accélérateurs de particules du futur
γ
À ce stade, il faut donc « freiner » les particules les plus rapides et
« pousser » les plus lentes pour les grouper en paquets denses, puis
« refroidir » le faisceau (étape qui, pour éviter de perdre trop de temps,
devra avoir lieu en quelques microsecondes, soit sur une distance
de 500 mètres environ), et enfin accélérer l’ensemble dans une série
d’accélérateurs linéaires et de synchrotrons. Au final, le but est d’injecter
de l’ordre de 1014 muons par seconde dans l’anneau où ils produiront des
collisions pendant quelques centaines de tours, jusqu’à ce que la plupart
de ces particules se soient désintégrées.
e-
γ
Même après s’être désintégré, un muon reste intéressant. En effet, il donne
un électron et surtout deux neutrinos, un antineutrino électron et un
neutrino mu. Un collisionneur à muons est donc également une « usine
à neutrinos » dont les faisceaux, très intenses et produits dans de longues
sections droites dédiées, permettraient d’améliorer la connaissance de ces
particules encore largement mystérieuses. Une idée serait d’envoyer ces
faisceaux vers des détecteurs éloignés de plusieurs milliers de kilomètres
afin d’étudier leurs oscillations (ICPACKOI). Si le coût d’un collisionneur
à muons est considéré comme trop élevé au moment de décider de sa
réalisation, une possibilité intermédiaire serait de se rabattre sur une
« simple » usine à neutrinos. Un grand nombre des composants de
l’accélérateur est commun aux deux approches (production et mise en
forme des faisceaux de muons, anneaux de stockage, zones rectilignes
pour obtenir beaucoup de neutrinos, etc.) mais le dispositif coûteux
permettant aux paquets d’entrer en collision efficacement ne serait pas
nécessaire ; de plus, accélérer les muons à 50 GeV (au lieu de 2 TeV)
suffirait pour ce type d’application.
+
e
Bien que les photons soient de masse nulle,
ils transportent une énergie importante
qui, lors d’une collision photon-photon
est convertie pour partie en énergie de
masse : les particules créées sont massives.
L’énergie restante est distribuée aux
produits de la collision (ici γγ donne e+e−).
Dans un collisionneur à photons des
électrons (en rouge) interagissent avec
des photons du laser (en bleu). Ceuxci, déviés et devenus énergétiques,
entrent en collision (vert) au centre du
détecteur (non représenté ici).
page 46
Exemples de motivation pour construire
un collisionneur photon-photon
Par exemple, le boson de Higgs tel qu’il
est décrit par le Modèle Standard peut
être créé directement lors d’une collision
γγ (deux photons s’annihilent en un
boson de Higgs et rien d’autre) alors que
sa « fabrication » dans un collisionneur de
matière (e+e− comme l’ILC ou pp comme
le LHC) demande donc plus d’énergie.
De plus, les paires de particules chargées
(bosons W, quark et antiquark top, etc.)
sont produites plus abondamment dans
un collisionneur γγ : les processus mis
en jeu ne sont pas les mêmes que lors
de l’interaction électron-positron par
exemple.
Un autre élément à prendre en compte pour ce type d’accélérateur est la
radioactivité qu’un tel équipement pourrait induire. Celle-ci se manifeste
à deux niveaux, l’un assez classique et l’autre plutôt inattendu. Tout
d’abord, les collisions entre le faisceau intense de protons et la cible de
mercure produisent beaucoup de neutrons. Leur flux équivaut à, voire
dépasse, celui d’une centrale nucléaire et nécessite donc une protection
spécifique. Dans le même ordre d’idée, l’accélérateur doit être enterré
suffisamment profondément (une centaine de mètres environ) pour
que tous les muons soient absorbés avant d’arriver à la surface en cas
de perte complète d’un faisceau. Plus surprenant, le flux des neutrinos
produits est également potentiellement dangereux. Bien que ces
particules n’interagissent presque pas avec la matière (ce qui explique
pourquoi elles passent quasiment inaperçues même dans les détecteurs
les plus performants), leur nombre est tellement élevé (de l’ordre de
mille milliards de milliards par an) que la radioactivité accumulée n’est
pas négligeable. À l’endroit où le faisceau sort de terre avec une taille
d’environ un mètre carré, le taux mesuré annuellement serait comparable
au seuil d’exposition maximum du personnel qualifié travaillant dans un
grand laboratoire comme le CERN ! Cet emplacement devra donc être
choisi avec soin (et clairement signalé) si une telle machine devait être
construite un jour : le mieux serait qu’il soit à l’intérieur du périmètre
réservé, toujours mis en place pour ce genre d’installation.
ÉLÉMENTAÍRE
Les accélérateurs de particules du futur
Collisionneur à photons
photon
Parmi les propositions d’accélérateurs exotiques, certains utilisent des
faisceaux de photons pour les collisions : ce sont les collisionneurs e-g
ou gg. Comme toujours, la motivation pour construire de telles machines
est à chercher au niveau de la physique. De plus, étudier les mêmes
réactions dans des environnements très différents donne des points de
vue complémentaires sur leurs caractéristiques et permet donc de mieux
les comprendre.
électron
Le photon est une particule stable, abondante dans l’Univers. Par contre,
sa neutralité électrique oblige les scientifiques à ruser pour obtenir des
collisions satisfaisantes puisque les photons sont insensibles aux champs
électriques et magnétiques utilisés pour accélérer et piloter les paquets
de particules chargées dans les accélérateurs. Un collisionneur γγ utilise
donc deux faisceaux d’électrons, conditionnés et guidés pour se croiser
au point d’interaction, au centre du détecteur. Quelques millimètres avant
cet endroit, les électrons interagissent par diffusion Compton inverse avec
un laser ; les photons ainsi produits emportent une fraction importante de
l’énergie des particules incidentes tout en se propageant globalement dans
la même direction que ces dernières — les électrons sont finalement déviés
hors du détecteur par de puissants champs magnétiques. Des collisions
ont donc lieu, avec une luminosité comprise entre 15 et 30 % de celle du
collisionneur de leptons correspondant. Le laser, d’une puissance de 100
kW environ, émet un flash de quelques joules d’énergie synchronisé avec
le passage des paquets de particules chargées. Comme chaque diffusion
affecte 1 photon sur 1 milliard en moyenne, sa lumière est stockée dans
une cavité optique afin d’être réutilisée, le taux de croisement étant de
l’ordre de 15000 par seconde.
L’effet Compton est la diffusion d’un
photon sur une particule de matière,
par exemple un électron appartenant
au nuage électronique d’un atome. Sous
l’effet du choc, le photon est dévié et
son énergie modifiée, ce qui se traduit
par un changement de la fréquence de
l’onde électromagnétique associée. Ce
phénomène a été baptisé en l’honneur du
physicien américain Arthur Compton qui
l’a utilisé pour prouver expérimentalement
l’existence du photon. La diffusion
Compton inverse est la même réaction,
mais on rajoute cet adjectif lorsque c’est
l’électron qui est plus énergétique que le
photon (et vient donc lui « taper dessus »),
lui transmettant en partie son énergie et sa
quantité de mouvement.
Les difficultés d’un tel collisionneur sont nombreuses. Au point
énergie de pompage
d’interaction, il y a un mélange de collisions photon-photon, photon- miroir totalement
électron, photon-positron et électron-positron. De plus, il faut éviter que réfléchissant
les paquets d’électrons ou de positrons (perturbés par leur traversée du
faisceau laser
faisceau laser et dont les particules se retrouvent avec des énergies très
milieu amplificateur
variées) ne finissent leur course dans le détecteur, au risque de brouiller
miroir semila signature de la collision γγ, voire d’endommager les instruments de
réfléchissant
mesure.
ÉLÉMENTAÍRE
page 47
Un laser est un appareil qui produit une lumière très particulière. Les photons qui la composent ont tous des propriétés voisines : on parle
de cohérences spatiale et temporelle. Cette lumière, obtenue par émission stimulée (un phénomène qui permet de multiplier le nombre
de photons d’énergie donnée en les faisant interagir avec les électrons du « milieu amplificateur », des molécules de gaz bien sûr mais
également des liquides, des solides ou des plasmas), est maintenue dans une cavité optique par des miroirs partiellement réfléchissants
afin que l’amplification ait lieu à chaque passage des photons réfléchis au travers du gaz. Ce processus est analogue à l’effet Larsen qui
survient lorsque micro et haut-parleur sont trop rapprochés : un bruit, même très atténué, est capté par le micro puis retransmis par
le haut-parleur et donc capté à nouveau par le micro. Le processus se poursuit, produisant à la fin un son désagréable caractéristique.
La lumière laser a des propriétés extrêmement intéressantes qui expliquent son exploitation tant dans les laboratoires de recherche que
dans l’industrie ou le commerce. La gamme de longueurs d’onde dans laquelle on peut créer des lasers s’allonge sans cesse : des microondes, on est passé à l’infrarouge, puis au visible, à l’ultraviolet et finalement aux rayons X.
2010 est l’année du cinquantenaire du laser – le premier fut mis en service en Californie en mai 1960 par Theodore Maiman. De
nombreuses manifestations sont organisées à cette occasion – voir le site http://50ansdulaser.com/ pour plus de détails.
Les accélérateurs de particules du futur
Taux de collision élevé
La probabilité que deux particules entrent en
collision décroît comme l’inverse du carré de
l’énergie de la collision. Toutes choses égales par
ailleurs, accroître l’énergie d’un collisionneur
fait donc automatiquement baisser le taux
d’événements enregistrés. Pour compenser ce
tour joué par la Nature, les équipes qui travaillent
sur des projets d’accélérateurs s’efforcent
d’augmenter en proportion la luminosité,
c’est-à-dire les conditions dans lesquelles les
collisions ont lieu : paquets plus denses, courant
plus élevé dans les faisceaux, etc. Les nouvelles
machines sont donc plus complexes à mettre au
point et plus difficiles à piloter ce qui se traduit
en particulier par de forts bruits de fond.
Une simulation informatique de la future
expérience FACET utilisant deux paquets
d’électrons. L’avant du premier paquet
ionise de la vapeur de lithium pour créer un
plasma ; ensuite le cœur du paquet produit
le sillage dans le plasma (contours verts).
Le second paquet (en rouge) va surfer sur
le sillage et être accéléré au double de son
énergie initiale en environ 1 mètre.
page 48
© FACET
Plasma
Dans des conditions normales, un gaz est
formé de molécules neutres. Si on lui apporte
suffisamment d’énergie, par exemple en
le chauffant, on peut briser ces molécules,
produisant ainsi un plasma, un milieu dans
lequel circulent des charges électriques libres,
positives (ions) comme négatives (électrons).
Celles-ci interagissent entre elles. Elles sont
sensibles aux champs électromagnétiques
extérieurs et en créent elles-mêmes de nouveaux !
Elles permettent également la conduction
du courant, ce qui donne aux plasmas des
propriétés particulières. Il y a des plasmas
naturels (étoiles, aurores polaires, éclairs, etc.)
et d’autres artificiels : dans certaines lampes,
dans l’industrie des matériaux (par exemple
pour réaliser des soudures), ou encore dans les
réacteurs d’étude de la fusion nucléaire.
Bien que le coût d’un collisionneur spécialisé dans les collisions γγ soit
annoncé par ses promoteurs comme étant inférieur à celui de l’ILC,
seule une minorité de physiciens souhaite qu’un tel accélérateur voie le
jour avant le futur collisionneur linéaire dont le champ d’action est plus
vaste. Un compromis consisterait à construire cette dernière machine de
façon à la modifier pour que des photons puissent également y entrer en
collisions – le surcoût associé devrait être limité. Par contre, des études
de prospective à très long terme semblent privilégier un collisionneur
gamma-gamma multi-TeV par rapport à son équivalent électron-positron
(ou muon-antimuon d’ailleurs). En effet, les équations décrivant de telles
machines leptoniques n’ont pas de solution satisfaisante : impossible de
conjuguer un taux de collision élevé avec un niveau de bruit de fond et
une consommation électrique raisonnables. Utiliser des photons pourrait
permettre de diminuer le bruit de fond (un des problèmes principaux pour
tous les nouveaux concepts d’accélérateurs) et de résoudre ces mêmes
équations. Tous ces éléments sont encore spéculatifs : ils devront être
confirmés ou rejetés par des études futures.
Accélération de particules par plasma
Les accélérateurs de particules d’aujourd’hui doivent atteindre des
énergies si élevées que, malgré les progrès continus et importants des
dispositifs d’accélération, leur taille ne cesse d’augmenter. Ainsi, comme
nous l’avons vu plus haut, les projets ILC et CLIC devraient faire plusieurs
dizaines de kilomètres de long. C’est pour cela que d’autres voies sont
aujourd’hui explorées, avec comme objectif d’obtenir un gradient
d’accélération bien supérieur – et donc de raccourcir la taille des futures
machines. Une piste intéressante, suivie par des équipes européennes et
américaines, consiste à utiliser un plasma.
Un tel milieu est riche en charges libres, positives comme négatives,
qui se déplacent au hasard. Si on arrive à les ordonner de manière à
créer une onde électromagnétique cohérente dans le plasma, celle-ci
pourrait accélérer très violemment (jusqu’à mille fois les capacités d’un
accélérateur linéaire actuel) un paquet de particules chargées le traversant,
à la manière d’un surfeur profitant d’une vague parfaite. Prenons comme
exemples les projets californiens FACET (au SLAC) et BELLA (à Berkeley)
qui ont récemment bénéficié d’un financement supplémentaire dans le
cadre du plan de relance américain.
• FACET : un paquet dense d’électrons créé dans l’accélérateur linéaire
de SLAC pénètre dans une zone contenant un gaz, par exemple du
lithium. L’avant du paquet, fortement chargé, crée le plasma ; un
sillage de charges s’y forme et est repoussé à mesure que le paquet
progresse. L’inhomogénéité de charges à l’intérieur du plasma (défaut/
excès de charges négatives devant/derrière le paquet) crée un fort champ
électromagnétique qui accélère l’arrière du paquet. En 2007, l’énergie
des électrons a ainsi été doublée en moins d’1 m (42 à 85 GeV en 84 cm),
au prix toutefois d’une perte significative au niveau de l’homogénéité du
ÉLÉMENTAÍRE
Les accélérateurs de particules du futur
paquet puisque les particules à l’avant ont été ralenties. De nouvelles
expériences sont en préparation dont le but est d’obtenir le même genre
d’effet mais avec deux paquets séparés : le premier génèrerait le plasma
et le champ accélérateur dont bénéficierait le second pour lequel les
propriétés (densité, etc.) seraient ainsi préservées lors de la phase de gain
d’énergie.
© Berkeley
• BELLA : l’expérience utilise un laser qui produit des impulsions très
courtes mais extrêmement puissantes (50 fois plus que la foudre). La
lumière laser est injectée dans un plasma d’hydrogène où elle produit
un sillage d’électrons similaire à celui observé à SLAC. Par contre, les
particules accélérées sont des électrons libres du plasma lui-même.
L’objectif du programme est double : tout d’abord passer de 0 à 10
GeV en 80 cm (soit l’équivalent d’un champ accélérateur de 12 à 13
milliards d’électron-volts par mètre), puis ensuite faire fonctionner
dix accélérateurs de ce type l’un derrière l’autre pour arriver à 100
GeV, l’ensemble produisant au final des paquets de particules plus
denses que dans le cas de FACET.
Une équipe au travail sur le laser de 40
térawatts de Berkeley.
Le laboratoire Louis Leprince-Ringuet (LLR), situé sur le campus
de l’École Polytechnique, travaille également sur des expériences
d’accélération par laser, en collaboration avec le groupe SPL du
Laboratoire d’optique appliquée (LOA) de l’ENSTA (École Nationale
Supérieure de Techniques Avancées). En particulier, GALOP (Groupe
d’Accélération par LAser et Ondes Plasma) a observé en 2008 que
les paquets d’électrons accélérés par onde plasma peuvent avoir
une dispersion en énergie inférieure au pourcent.
De nombreuses avancées technologiques seront nécessaires pour
que ce type d’accélération atteigne une maturité suffisante dans la
prochaine décennie. Néanmoins, le jeu en vaut la chandelle car l’objectif
est d’obtenir un champ électrique accélérateur de plusieurs GeV/m
voire plusieurs dizaines de GeV/m sur une longue distance permettant
d’atteindre l’énergie souhaitée. Ces valeurs sont à comparer aux objectifs
de l’ILC (30 MeV/m) et de CLIC (60 MeV/m).
Comparaison des tailles des collisionneurs
de particules, en service (LHC) ou étudiés
(ILC, CLIC, un collisionneur à muons
et le VLHC). Dans cette vue d’artiste, les
différents accélérateurs sont tous implantés
sur une image satellite d’une partie de la
côte du Lac Michigan (USA), région où est
situé le laboratoire Fermilab visible sur la
gauche.
En conclusion, de nombreux projets d’accélérateurs sont actuellement
dans les cartons, à des stades de développement plus ou moins avancés.
En plus des difficultés techniques liées à la mise au point de leur machine,
la plupart de ces équipes doivent résoudre des difficultés plus terre-àterre : trouver des gens disponibles pour y travailler, des financements
et un laboratoire d’accueil qui fasse consensus. Le « Projet X », porté
par Fermilab, n’a pas ce problème : il s’agit d’un accélérateur à protons
de 8 GeV qui servira à la physique des neutrinos et de banc-test pour
des activités de R&D liées aux collisionneurs à muons ou au « très grand
collisionneur à hadrons » (VLHC), un hypothétique et lointain successeur
des accélérateurs LHC et SLHC.
ÉLÉMENTAÍRE
page 49
Et bien d’autres encore …
Le « Projet X » doit renouveler en
profondeur le complexe accélérateur de
Fermilab ce qui explique qu’il ait été
difficile de lui donner un nom porteur
de sens dès le début, d’où le choix,
temporaire pensait-on, de la lettre « X »
pour le désigner. Avec le temps cette
dénomination a fait son chemin, les
scientifiques appréciant la part de mystère
qui lui est attachée. Bien que le projet soit
beaucoup mieux défini aujourd’hui, il est
probable qu’il garde son nom initial(e) !
Téléchargement