Accélérateur Les premiers accélérateurs électrostatiques Pour observer le monde qui nous entoure, nous nous servons en priorité de nos yeux. Que nous regardions une fleur près de nous ou une étoile par un télescope, la vision est fondamentale pour ces études qui utilisent la lumière comme principale source d’information. Or, les particules élémentaires n’émettent pas de tels rayonnements : comment les «voir» quand même ? Dans l’obscurité, il faut utiliser d’autres sens comme l’ouÏe ou le toucher. Ainsi, pour étudier une cloche dans le noir, on pourrait imaginer de la faire sonner ; l’analyse de ses vibrations nous renseignerait ensuite sur sa structure. Le même raisonnement est valide pour l’étude de l’infiniment petit : pour étudier la matière atomique et subatomique, les physiciens secouent, font vibrer et même cassent ses consituants. Pour cela, ils utilisent des accélérateurs de particules. Une fois accélérées, ces dernières entrent en collision et, plus l’énergie délivrée est importante, plus l’échelle de distance à laquelle on pourra examiner la matière sera courte. On pourrait, en simplifiant à l’extrême, dire que les accélérateurs de particules sont des microscopes géants. Cependant, s’ils servent bien à observer «l’infiniment petit», ils sont basés sur des principes très différents. Ce besoin de chocs de plus en plus violents entre particules a donné naissance à une discipline à part entière, appelée la physique des accélérateurs. Dans ce numéro et dans les suivants, nous souhaitons présenter les principaux développements dans ce domaine en les reliant aux découvertes qu’ils ont permises. Cette perspective historique nous conduira aux accélérateurs actuels et... futurs, de véritables bijoux technologiques, bien loin de simples «casse-particules». L’accélération et le guidage, à des énergies toujours plus importantes, de particules ou de noyaux chargés repose sur l’utilisation de champs électrique et magnétique. Dans cet article, nous allons décrire les principes de l’accélération des particules par des champs électriques, ce qui nous permettra d’évoquer les accélérateurs «électrostatiques». Louis de Broglie (1892-1987) (prononcer « De Breuil ») s’est d’abord orienté vers les Lettres. Licencié en Histoire en 1910, il s’est ensuite intéressé aux sciences, et plus particulièrement à la physique théorique, sur les conseils de son frère aîné Maurice – physicien autodidacte qui fonda un laboratoire dans son propre hôtel particulier ! Sa thèse, publiée en 1924, « Recherche sur la Théorie des Quanta », postule l’existence d’une longueur d’onde associée à chaque particule et il la relie à l’énergie cinétique de celle-ci. D’abord accueillie avec scepticisme par la communauté scientifique, sa théorie est confirmée de manière éclatante par des expériences menées en 1927. Pour ses travaux, il reçoit le prix Nobel de Physique en 1929. Du tube de Crookes à la télévision La science des accélérateurs s’appuie beaucoup sur l’électromagnétisme, en particulier sur ses développements fulgurants au XIXe siècle, de Volta à Pourquoi toujours chercher à augmenter l’énergie des accélérateurs ? Maxwell en passant par Faraday, Oersted et Ampère. On s’intéressait beaucoup Augmenter l’énergie des particules accélérées dans les accélérateurs a deux avantages : alors à la production d’étincelles entre • plus l’énergie E est grande, plus on peut créer des particules de masses M deux plaques métalliques chargées. élevées – c’est la célèbre relation d’Einstein montrant l’équivalence masse – énergie William Crookes construisit en 1875 (voir la rubrique «La question qui tue») : E = M × c2 un appareil – voir figure 1 – pour étudier • en optique, la longueur d’onde de la lumière (proportionnelle à l’inverse l’influence de la densité d’air sur la de sa fréquence) donne l’ordre de grandeur des détails que l’on peut discerner avec différence de potentiel à appliquer entre cet éclairage particulier. L’un des grands succès initiaux de la Mécanique Quantique les plaques pour créer une décharge a été de postuler, puis de démontrer l’existence d’une longueur d’onde associée à électrique. En un certain sens, il s’agissait une particule en mouvement – ce résultat est dû en particulier aux travaux de Louis du premier accélérateur. de Broglie. Cette longueur d’onde varie comme l’inverse de l’énergie, c’est « l’effet page 36 microscope ». ÉLÉMENTAÍRE Sous l’effet de la différence de potentiel, des charges négatives (des électrons) sont émises à la cathode et attirées par l’anode. Lorsque le voltage est suffisamment élevé, une circulation continue d’électrons se met en place : c’est comme si le circuit était «fermé» par un «vrai» fil métallique : l’air est devenu conducteur. Aujourd’hui, on utilise toujours une cathode pour obtenir des faisceaux d’électrons mais ceux-ci sont maintenant produits par chauffage. La pompe à vide permit à Crookes de faire varier la pression de l’air contenue dans le tube ; il trouva que moins il y avait d’air, moins il fallait créer de différence de potentiel – appelée également tension de claquage – pour «fermer» le circuit. Ce phénomène est dû à l’ionisation des molécules composant l’air par les électrons accélérés entre les deux plaques : la circulation de charges qui se met en place est alors similaire à celle qui a lieu dans un fil conducteur. C’est pour éviter cette interaction entre l’air résiduel et les faisceaux de particules que les accélérateurs fonctionnent aujourd’hui dans un vide presque parfait. Cela permet de contrôler au mieux l’énergie et la trajectoire des particules lors de leur trajet dans l’accélérateur. Plus tard, on se rendit compte qu’on pouvait modifier un peu l’expérience de Crookes pour visualiser les «rayons cathodiques» (le faisceau d’électrons) – voir figure 2. En donnant à l’anode la forme d’un anneau, on permit aux électrons de passer à travers et d’aller taper sur un écran recouvert d’une surface sensible : un point lumineux apparaissait alors, signant la présence des électrons. Ce principe est à la base de l’oscilloscope, un instrument permettant de visualiser la tension et l’intensité d’un courant, mais également de la… télévision cathodique ! Chacun des bons vieux écrans bombés que nous connaissons tous contient en effet un canon à électron qui balaye toute sa surface à haute fréquence, générant ainsi 24 images par seconde. © B. Mazoyer Les premiers accélérateurs électrostatiques figure 1 : Schéma d’un tube de Crookes Pour conclure sur les tubes de Crookes, on peut rappeler qu’un dispositif similaire, couplé à un aimant, permit à Joseph John («J.-J.») Thomson (1856- William Crookes (1832-1919) Encadré 1 Pourquoi des particules chargées sont-elles accélérées dans un champ électrique ? La relation fondamentale de la dynamique relie la variation de la quantité de mouvement -> -> p=m×v -> -> à la force exercée sur une particule de charge électrique q : F = q × E -> -> Cette relation s’écrit : dp —=F dt Un champ électrique E uniforme est par exemple créé par une différence de potentiel ∆V entre deux plaques métalliques situées à une distance D. L’intensité du champ électrique est alors donnée par : -> |E|= ∆V — D © B. Mazoyer La variation d’énergie de la particule->correspond au->travail de la force électrique à laquelle elle est soumise, soit : ∆E=|F| × D=|q| × |E| x D = |q| × ∆V ÉLÉMENTAÍRE page 37 Pour obtenir une variation d’énergie cinétique de 1 GeV (1 MeV) pour une particule de charge ± e, il faut donc une différence de potentiel ∆V de 1 milliard (million) de volts. Les premiers accélérateurs électrostatiques Qu’est qu’un électron-volt ? Pourquoi utilise-t-on des unités particulières en physique des particules ? A notre échelle, le kilogramme et le joule sont des unités bien adaptées pour mesurer des masses et des énergies. Il en va tout autrement dans le monde des particules élémentaires. Par exemple, les masses de l’électron et du proton exprimées en kg sont ridiculement faibles, respectivement me = 9,1 × 10-31 et mp = 1,7 × 10-27 kg. La situation est similaire pour les énergies. Donc, pour éviter d’avoir en permanence à gérer des grandeurs aussi petites, il est d’usage d’utiliser un autre système d’unités. L’unité de base pour l’énergie est l’électron-Volt (en abrégé eV) défini par : 1 eV = 1,6 × 10-19 J C’est l’énergie d’un électron (de charge électrique -e = -1,6 × 10-19 coulomb) accéléré par une différence de potentiel de 1 Volt. D’après la formule d’Einstein liant masse et énergie (E = m × c2), une quantité exprimée en « eV / c2 » est donc homogène à une masse (voir rubrique «La question qui tue»). C’est cette unité qui est utilisée dans notre discipline pour « peser » les particules ; le facteur de conversion entre eV / c2 et kg est : 1 eV / c2 ≈ 1,8 × 10-36 kg figure 2 : Tube de Crookes modifié : l’ancêtre de la télévision ! Entre deux plaques parallèles soumises à une différence de potentiel, un champ électrique est créé dans la direction perpendiculaire. On obtient un champ de même nature en remplaçant la plaque anode par un anneau. Dans ce cas-là, les électrons émis par la cathode ne sont pas absorbés par l’anode mais la traversent. © B. Mazoyer Cette fois-ci, c’est un peu « faible » par rapport aux masses des particules : on parlera donc le plus souvent de Méga-eV (« MeV », un million d’eV), de Giga-eV (« GeV », un milliard d’eV) voire de Téra-eV (« TeV », mille milliards d’eV) en divisant ou non par le facteur c2 selon que l’on parle de masse ou d’énergie. Avec ces unités, on a : me = 0,511 MeV / c2 et mp = 938 MeV / c2. Généralement on omet d’écrire «/ c2» dans le cas des masses, qui sont donc exprimées en MeV ou TeV. page 38 1940) de découvrir en 1897 que le faisceau émis de la cathode vers l’anode était formé de particules de charges négatives qui furent baptisées « électrons » – terme forgé de toutes pièces. La déviation du faisceau cathodique sous l’action de l’aimant montra d’abord qu’il s’agissait de particules de charges négatives, puis Thomson l’utilisa pour en déduire le rapport entre la charge et la masse de l’électron. Ce n’est qu’en 1909 que la charge de l’électron fut mesurée par Robert Millikan (1868-1953) en observant la chute de gouttelettes d’huile chargées négativement. Tous deux reçurent le prix Nobel pour leurs travaux, Thomson en 1906 et Millikan en 1923. ÉLÉMENTAÍRE Les premiers accélérateurs électrostatiques © B. Mazoyer Champ électrique E Sir John D. Cockcroft (à gauche) et Ernest T. S. Walton (à droite) dans leur laboratoire à Cambridge dans les années 1930. figure 3. Schéma d’un accélérateur électrostatique Cockcroft-Walton : les particules créées (par exemple des protons) sont accélérées par la différence de potentiel régnant dans le tube à vide avant d’entrer en collision avec une cible (par exemple du lithium). Les accélérateurs électrostatiques Transmutation Lors de réactions chimiques «classiques», on retrouve toujours les mêmes quantités d’éléments avant et après la réaction. Par exemple, dans : H2 + ½ O2—> H2O Dans les premiers accélérateurs, l’énergie acquise par une particule chargée est proportionnelle à la différence de potentiel établie entre une anode et une cathode. Grâce à ces accélérateurs, dits électrostatiques (ou de Cockcroft-Walton du nom de leurs inventeurs, voir figure 3 pour un schéma), plusieurs découvertes furent possibles. Ainsi, en 1931, des particules alpha (noyaux d’hélium) de 17 MeV furent produites à partir d’un faisceau de protons de 0,125 MeV envoyés sur une plaque de lithium. La réaction était la suivante : il y a autant d’atomes d’hydrogène (H) et d’oxygène (O) à la gauche et à la droite de la flèche symbolisant la réaction, ici la formation de l’eau (H2O). Au contraire, une transmutation est une réaction dans laquelle on transforme les éléments : les produits de la réaction ne contiennent pas les mêmes éléments chimiques que les réactifs ! C’est par exemple le cas de la réaction : 4 4 7 p + 3Li—> 2He + 2He L’idée de transmutation est très ancienne : de l’antiquité aux temps modernes, la motivation principale des alchimistes fut la recherche de la « pierre philosophale », substance capable en particulier de changer le plomb en or. Si leur quête fut infructueuse, leurs rêves plutôt « intéressés » sont aujourd’hui devenus réalité grâce aux physiciens nucléaires – pour rencontrer les alchimistes d’aujourd’hui, voir la rubrique «Centre ». Dans ces réactions, le nombre de protons et de neutrons sont séparément conservés. p + 73Li—> 42He + 42He Pour la première fois, un phénomène de transmutation avait eu lieu dans un accélérateur ! Accélérateurs de Cockcroft-Walton ÉLÉMENTAÍRE page 39 Un accélérateur électrostatique Cockcroft-Walton est chargé par l’intermédiaire d’une chaîne complexe de condensateurs reliés par des systèmes ne permettant le passage du courant que dans un seul sens. Ainsi, bien que la source initiale de tension soit alternative – comme notre « secteur » – les condensateurs se chargent mais ne se déchargent pas. Le fait d’avoir plusieurs condensateurs consécutifs permet de multiplier la charge finale de l’accélérateur qui, en première approximation, est directement proportionnelle au nombre de condensateurs. En fait, des effets d’oscillation limitent la longueur de la chaîne ; typiquement, on utilise une dizaine de niveaux de condensateurs. Les premiers accélérateurs électrostatiques Accélérateurs de Van de Graaff Un autre type d’accélérateur électrostatique, dit « Van de Graaff » utilise une méthode de charge différente : les charges sont émises par un générateur de courant continu sous une tension de quelques dizaines de kilovolts. Ensuite, elles sont capturées par une courroie isolée et emportées jusqu’à l’une des électrodes de l’accélérateur, exactement comme des pierres amenées par un tapis roulant sur un chantier de génie civil. On pourrait dire que, dans un « Van de Graaff », les charges prennent l’escalier roulant alors que, dans un Cockcroft-Walton, elles passent plutôt par l’escalier ! Néanmoins, cette image est imparfaite car, dans les deux cas, les efficacités sont similaires et les technologies très avancées ! L’accélérateur original construit par Cockcroft et Walton. Le tube à vide visible ici mesure 2,50 m de long pour un potentiel accélérateur de l’ordre de 800 kV. page 40 Dispositif créant la différence de potentiel nécessaire à l’accélération des particules dans un accélérateur de type Van de Graaff. En particulier, on peut voir la courroie qui transporte les charges du générateur au dôme métallique où elles sont amassées. Celui-ci a une forme sphérique pour éviter les «effets de pointe»: un champ électrique est toujours plus intense au voisinage d’une pointe et la présence d’un tel défaut pourrait provoquer des décharges intempestives du conducteur. Cet «effet de pointe» se vérifie en particulier lors des orages : la foudre frappe préférentiellement les éléments en relief : arbres, pylônes, toits etc. © B. Mazoyer En physique nucléaire, l’accélérateur « Van de Graaff » a été considérablement amélioré par la technologie « Tandem » qui présente deux étapes d’accélération. On part d’un faisceau d’ions positifs (pour lesquels les sources sont plus intenses que les ions négatifs) que l’on fait passer au travers d’un gaz à faible pression dans lequel les ions capturent un ou deux électrons. Ensuite, un aimant permet de séparer les particules neutres ou chargées positivement des nouveaux ions négatifs qui pénètrent alors dans un premier accélérateur « Van de Graaff » où ils sont accélérés. Au bout du dispositif, les ions traversent une fine couche de carbone ; comme ils ont une énergie élevée – de l’ordre de quelques MeV – la plupart de leurs électrons sont éjectés lors de ce passage. Les ions ainsi ÉLÉMENTAÍRE « épluchés » acquièrent une charge très positive et entrent dans un second accélérateur « Van de Graaff » dont le champ électrique est orienté en sens contraire du précédent. Lors de sa traversée, ils sont à nouveau accélérés et atteignent finalement une énergie bien plus élevée que dans la première phase puisque, comme nous l’avons vu précédemment, le gain d’énergie d’une particule chargée est proportionnel à sa charge. Depuis ces travaux pionniers, les études menées dans la recherche des constituants fondamentaux de la matière ont nécessité l’exploration de domaines d’énergie de plus en plus élevée. Pour les accélérateurs électrostatiques la possibilité d’atteindre des valeurs de l’ordre du GeV nécessite la réalisation et la stabilisation des différences de potentiel très importantes, de l’ordre du milliard de volts. Ces décharges électriques formidables représentent la principale limitation de ces appareils et expliquent pourquoi ils ne sont presque plus utilisés dans les complexes accélérateurs actuels – une exception notable est l’accélérateur de Fermilab, situé près de Chicago aux États-Unis, qui utilise toujours un Cockcroft-Walton comme injecteur. © Nobelprize Les premiers accélérateurs électrostatiques Sir John Douglas Cockcroft (18971967) et Ernest Thomas Sinton Walton (1903-1995) ont partagé le prix Nobel de Physique 1951 «pour leurs travaux pionniers sur la transmutation des noyaux atomiques au moyen de particules artificiellement accélérées». © IPN L’accélérateur tandem installé à l’Institut de Physique Nucléaire à Orsay. Sa tension maximale est de 15 MV. On pourra consulter le site web animé http:// ipnweb.in2p3.fr/activitech/frame_actech.html pour avoir plus de détails sur la technologie Tandem. ÉLÉMENTAÍRE page 41 L’accélérateur électrostatique Cockcroft-Walton de Fermilab, utilisé comme première étape d’accélération du faisceau d’ions hydrogène négatifs (un proton et deux électrons) à partir duquel les protons sont produits. Le dôme électriquement chargé contient la source des particules injectées dans l’accélérateur : des atomes d’hydrogène sont ionisés (gain d’une charge négative) puis injectés dans la ligne de transfert du Cockcroft-Walton. À la sortie de cet accélérateur, les ions ont une énergie (750 keV) trente fois supérieure à celle des électrons d’un tube de télévision. Accélérateur Les débuts des accélérateurs linéaires et circulaires © SLAC La principale manière d’accélérer des particules chargées consiste à les plonger dans un champ électrique convenablement orienté (voir « Élémentaire » n°1). Plus ce dernier est intense, plus les particules acquièrent une énergie élevée en le traversant. Pour créer ce champ électrique, les premiers accélérateurs ont utilisé un condensateur dont les plaques étaient chargées progressivement, puis brusquement déchargées. Les particules accélérées avaient alors une énergie de l’ordre du million d’électron-volt (MeV). Comment aller plus loin et explorer une gamme d’énergie plus large ? Comme l’énergie fournie est directement proportionnelle à la différence de potentiel à l’origine du champ électrique, une simple règle de trois nous montre que pour passer d’une énergie de 1 MeV à une énergie de 1 GeV (1 milliard d’électron-volt) il faudrait disposer de différences de potentiel énormes, de l’ordre du milliard de volt ! Photo aérienne du Stanford Linear Accelerator Center (Californie). Le tube blanc visible sur l’image abrite le plus grand accélérateur linéaire du monde (3,2 km environ). © IPNO Cette valeur colossale est impossible à obtenir dans un accélérateur électrostatique du type de ceux présentés dans notre précédent numéro. En effet, une telle tension rendrait l’air conducteur et les plaques se déchargeraient instantanément, phénomène appelé « claquage ». Pour sortir de cette impasse, les physiciens ont mis au point dès les années 1930 d’autres modèles d’accélérateurs : les accélérateurs linéaires, puis circulaires. Ces machines, largement perfectionnées grâce aux progrès technologiques, forment toujours la base des accélérateurs d’aujourd’hui ; c’est pourquoi nous nous proposons de décrire leurs premiers pas dans la suite. En particulier, nous verrons que ces deux techniques (linéaire et circulaire) apportent une solution différente à la même constatation : « puisqu’un seul champ électrique ne peut pas fournir une accélération suffisante, utilisons-en plusieurs ! » ÉLÉMENTAÍRE page 33 © IPNO L’accélérateur d’ions lourds Alice. Construit en 1970, il fonctionna jusqu’à 1985 à l’Institut de Physique Nucléaire d’Orsay. Les débuts des accélérateurs linéaires et circulaires Les premiers accélérateurs linéaires Pourquoi utilise-t-on du courant alternatif plutôt que du courant continu ? Schématiquement, un accélérateur linéaire est constitué de plusieurs condensateurs mis bout à bout : chacun d’entre eux génère un champ électrique qui apporte de l’énergie aux particules chargées qui le traversent. En plaçant ces éléments perpendiculairement à la direction initiale du faisceau de particules, ces dernières ne sont accélérées que dans le sens de leur mouvement et il suffit de disposer les condensateurs l’un derrière l’autre, en ligne droite… D’où le nom donné à ce type d’accélérateur ! Ce choix est motivé par deux raisons principales. Tout d’abord, utiliser un courant alternatif permet de changer au cours du temps le signe des charges déposées sur chacune des électrodes métalliques formant les cavités accélératrices. En synchronisant précisément ces variations, on s’arrange pour que les particules soient toujours accélérées : elles sont repoussées par l’électrode qu’elles viennent de traverser – dont la charge a le même signe que celles des particules – et attirées par l’électrode suivante, de charge opposée. Au fur et à mesure de la progression des particules dans l’accélérateur, les charges des électrodes sont basculées comme le montre la figure 1. La seconde raison est beaucoup plus pragmatique : le courant alternatif est bien moins coûteux à transporter que le courant continu, ce qui explique pourquoi l’électricité fournie aux particuliers comme aux entreprises l’est sous forme alternative. F En pratique, on utilise une succession d’électrodes cylindriques et creuses, connectées à une même source de tension alternative, similaire à notre alimentation d’électricité domestique (le « secteur ») mais nettement plus puissante. Le câblage électrique est réalisé de manière à ce que deux électrodes voisines portent toujours une charge opposée. Ainsi, des différences de potentiel apparaissent et génèrent un champ électrique entre chaque paire de conducteurs, responsable de l’accélération des particules. Au contraire, à l’intérieur des électrodes, le champ est nul. Le champ électrique suit les variations du courant qui est synchronisé avec le passage des particules, regroupées en « paquets ». La contrainte à vérifier est simple : lorsque que des particules subissent l’influence d’un champ électrique en traversant l’espace séparant deux électrodes (on parle alors de « cavité »), celui-ci doit être accélérateur. Le mode opératoire permettant de satisfaire cette condition est présenté sur la figure 1. La fréquence du courant alternatif (fixe) est liée aux longueurs des cavités (ajustables). Pour des particules non relativistes dont les vitesses sont très inférieures à celle de la lumière, le gain d’énergie va de pair F pas de champ 1 paquet d'électrons Accélération charge - charge + F charge - F 2 charge - charge + charge - F F charge + charge + charge - page 34 © B. Mazoyer 3 Accélération figure 1 : Oscillations des champs électriques dans un accélérateur linéaire pour optimiser l’accélération des particules chargées. ① Le paquet de particules, des électrons chargés négativement, est dans une cavité. La première électrode porte une charge négative et la seconde une charge positive. Ainsi, le champ est accélérateur. Les charges des conducteurs étant alternées, la troisième électrode est négative. ② Le paquet d’électrons est maintenant à l’intérieur de la seconde électrode (creuse !) où il ne règne aucun champ électrique. Il continue donc sa route en ligne droite à vitesse constante. ③ Au moment où le paquet d’électrons sort de la seconde électrode, les charges des conducteurs basculent. Ainsi, le nouveau champ, dont les particules subissent l’influence, est également accélérateur. Si la configuration des charges ② avait été conservée, le champ aurait au contraire freiné les électrons. Le même phénomène se répète tout au long de l’accélérateur linéaire dans chaque cavité. ÉLÉMENTAÍRE © B. Mazoyer Les débuts des accélérateurs linéaires et circulaires figure 2 : Principe d’un accélérateur linéaire utilisé pour des particules non relativistes (dont la vitesse est très petite par rapport à celle de la lumière) pour lesquelles l’énergie et la vitesse croissent de concert. La taille des électrodes augmente proportionnellement à la vitesse des particules pour assurer la synchronisation des champs électriques alternatifs. Lorsque les particules accélérées sont ultra-relativistes (c’est-à-dire lorsque leur vitesse a presque atteint celle de la lumière, la vitesse limite indépassable), le gain d’énergie ne s’accompagne pas d’une variation notable de la vitesse et le problème de longueur précédent ne se pose plus : les cavités ont une taille constante, entièrement dictée par la fréquence du champ accélérateur oscillant. avec un accroissement de la vitesse. On doit alors augmenter la taille des électrodes pour tenir compte de la synchronisation en fréquence du champ électrique. Cette idée fut utilisée par l’ingénieur norvégien Rolf Wideröe en 1928. Il inventa et construisit le premier accélérateur linéaire (ou LINAC) à Karlsruhe, dont un schéma simplifié est représenté sur la figure 2. L’accélérateur de Wideröe pouvait accélérer des ions positifs jusqu’à une énergie d’environ 50 keV. Il lui servit de sujet pour sa thèse, qu’il publia dans le journal allemand d’ingénierie électrique « Archiv für Elektrotechnik » avant de se tourner vers l’industrie. © Pedro Waloscheck Au début des années 1930, il y eut d’autres avancées dans le domaine des accélérateurs linéaires. En particulier, David Sloan construisit en 1931 un nouveau prototype capable d’accélérer des ions de mercure jusqu’à 1 MeV, soit un gain d’un facteur 20 par rapport à l’accélérateur de Wideröe. Néanmoins, le concept d’accélérateur linéaire fut mis entre parenthèses par la suite, à cause des coûts prohibitifs induits à l’époque par la multiplication du nombre de cavités accélératrices et aussi à cause du… cyclotron, objet de la deuxième partie de notre article ! Rolf Wideröe (1902-1996) Pour récompenser son apport décisif à la physique des accélérateurs, Rolf Wideröe a reçu en 1991 le prix de l’U.S. Particle Accelerator School, « en reconnaissance spéciale pour l’invention de l’accélération à radiofréquence ». ÉLÉMENTAÍRE page 35 Après la seconde guerre mondiale, les accélérateurs linéaires redevinrent cependant d’actualité : le développement des technologies liées au radar avait permis la mise au point de cavités accélératrices haute fréquence d’encombrement plus réduit. Celles-ci rendirent possible l’accélération à de plus hautes énergies, tout en limitant la taille des machines. Les débuts des accélérateurs linéaires et circulaires Aujourd’hui, les accélérateurs linéaires sont toujours utilisés, y compris dans les très gros complexes d’accélérateurs circulaires. En effet les particules produites – à l’aide d’une cathode chauffée pour les électrons ou à partir d’atomes d’hydrogène, pour des protons – commencent toujours leur parcours par un trajet rectiligne au cours duquel elles reçoivent une accélération initiale avant d’être envoyées vers d’autres systèmes d’accélération. Trajectoire d’une particule dans un champ magnétique Placée dans un champ magnétique uniforme, une particule chargée dont la vitesse est initialement dans une direction perpendiculaire au champ, décrit une trajectoire circulaire dont le rayon est d’autant plus grand que la particule a une impulsion élevée et d’autant plus petit que le champ est intense. Comme le gain d’énergie par cavité accélératrice est limité par des effets variés (en particulier relativistes), il faut un grand nombre de cavités pour obtenir des énergies élevées. Ainsi, les accélérateurs linéaires actuels ont des dimensions de l’ordre du kilomètre et celui de la prochaine génération – dont les caractéristiques viennent juste d’être définies au niveau mondial après de nombreuses années de débat dans la communauté scientifique concernée – devrait être encore dix fois plus long. Malgré les progrès technologiques, l’encombrement de telles machines est toujours problématique ! Les premiers accélérateurs circulaires On peut montrer que la période du mouvement circulaire, c’est-à-dire le temps mis pour faire un tour, est indépendante de la vitesse de la particule et du rayon de la trajectoire. Elle est uniquement déterminée par la valeur du champ magnétique appliqué. Pour augmenter encore l’énergie des particules, il faut disposer d’un grand nombre de cavités accélératrices. Comment y parvenir sans tomber dans le piège du gigantisme ? Une réponse « simple » : il suffit de faire parcourir plusieurs fois le même chemin aux particules, en les maintenant sur une trajectoire quasi-circulaire à l’aide d’un champ magnétique. On peut se convaincre que la valeur de la vitesse d’une particule n’est pas modifiée par un tel champ, puisque la force magnétique est perpendiculaire à la trajectoire de la particule. À la différence du champ électrique, on ne peut donc pas modifier la valeur de la vitesse d’une particule avec un champ magnétique uniforme, mais simplement la dévier. Ainsi, si on suppose que le mouvement de la particule a lieu dans le plan perpendiculaire au champ magnétique, sa trajectoire sera circulaire et à vitesse constante. Le rayon de l’orbite étant proportionnel à la vitesse, le temps mis par la particule pour effectuer une fraction donnée de tour est constant. Cette propriété est exploitée dans les accélérateurs circulaires, ou cyclotrons (voir figure 3) : à chaque demi-tour, les particules sont soumises à un champ électrique qui les accélère. Le courant alternatif qui produit ce champ est synchronisé avec la fréquence de rotation des paquets de particules page 36 figure 3 : Schéma de cyclotron. Le champ magnétique a une direction perpendiculaire au plan du dessin. ÉLÉMENTAÍRE Les débuts des accélérateurs linéaires et circulaires dans le cyclotron. Ainsi, le champ est toujours accélérateur lorsque les particules traversent l’espace entre les plaques qui le délimitent. © FNAL À chaque passage dans le champ électrique, les particules sont accélérées, ce qui a pour effet d’augmenter le rayon de courbure de leur trajectoire qui ressemble finalement à une spirale. Dans les premiers cyclotrons, une source d’ions est placée au centre. Sous l’action conjuguée des champs électriques et magnétiques, les particules produites s’en éloignent jusqu’à arriver au bord de l’accélérateur. Lorsque les ions accélérés s’en échappent finalement, ils peuvent être utilisés pour diverses expériences. figure 4 : Le premier cyclotron de Lawrence (1930). L’inventeur du cyclotron est américain : au début de l’année 1929, un jeune scientifique nommé Ernest O. Lawrence tomba par hasard sur l’article de Wideröe et, malgré sa méconnaissance de l’allemand, comprit les schémas et les photos publiées. Souhaitant exploiter cette méthode novatrice d’accélération en évitant ses inconvénients (en premier lieu la taille et le coût des accélérateurs linéaires), il eut ainsi l’idée d’un autre type d’accélérateur, circulaire cette fois-ci, où les particules sont « ramenées » sans cesse dans la même zone d’accélération grâce à un champ magnétique qui courbe leur trajectoire. Ernest O. Lawrence avait également en projet la construction d’un cyclotron de 4,6 m de diamètre, capable d’atteindre une énergie de 340 MeV. Il espérait ainsi pouvoir produire une particule que l’on pensait à l’époque être responsable de l’interaction forte (la force qui assure la cohésion des noyaux atomiques). La deuxième guerre mondiale ÉLÉMENTAÍRE Ernest O. Lawrence (1901-1958) Extrait du discours de réception d’Ernest O. Lawrence pour le prix Nobel de physique 1939. « (…) Début 1929, un soir où je parcourais des revues récentes dans la bibliothèque de l’université, je tombais sur un article de Wideröe traitant de l’accélération répétée d’ions positifs, dans un journal de génie électrique allemand. Étant incapable de lire l’allemand, je regardais plutôt les diagrammes et les photographies de l’appareil de Wideröe et, à partir des divers schémas de l’article, je fus capable de déterminer son approche générale du problème – à savoir l’accélération répétée d’ions positifs par l’application appropriée de tensions oscillant en radiofréquence sur une série d’électrodes cylindriques alignées. Cette nouvelle idée s’imposa immédiatement à moi comme la bonne réponse au problème technique de l’accélération d’ions positifs (...) » Il faut porter au crédit de Lawrence le fait qu’il ne manqua jamais une occasion de préciser ce qu’il devait aux travaux de Wideröe. Ainsi, même si Lawrence seul obtint le prix Nobel de physique, Wideröe acquit également une célébrité méritée. page 37 Dans les années 30, les cyclotrons devinrent de plus en plus grands. En 1932 le troisième cyclotron de Lawrence mesurait 69 cm de diamètre et des protons y étaient accélérés à une énergie de 4,8 MeV. En 1938, un autre cyclotron fut utilisé pour la première fois dans un traitement contre le cancer. En effet Ernest Lawrence collabora avec son frère John qui était alors directeur du Laboratoire de physique médicale à l’université de Berkeley en Californie. En 1939 enfin, son dernier modèle de cyclotron mesurait 1,5 m et pouvait accélérer des protons à 19 MeV. DR En 1930, le premier cyclotron de Lawrence (construit avec son collègue Milton Livingston) ressemblait plutôt à un jouet : il mesurait seulement 11 cm de diamètre et avait coûté 25 dollars de l’époque, mais il pouvait déjà atteindre une énergie de 80 keV (figure 4). Un an plus tard, son grand frère, un cyclotron de 28 cm, arriva à l’énergie de 1 MeV. Cette machine aurait pu casser le noyau atomique avant que Cockcroft et Walton ne le fassent (voir Élémentaire n° 1), mais Lawrence manqua le coche : en effet, on raconte qu’il se trouvait en voyage de noces lorsque la nouvelle de la fission du noyau de lithium lui arriva... Les débuts des accélérateurs linéaires et circulaires freina ce programme : Lawrence rejoignit l’équipe du projet Manhattan qui s’occupait de mettre au point la bombe atomique. © Ernest Orlando Lawrence Berkeley National Laboratory De toute manière, la technique du cyclotron était destinée à se confronter avec un problème conceptuel majeur qui limite en pratique l’énergie maximale atteignable à environ 100 MeV : la théorie de la relativité d’Einstein. En effet, dès qu’une particule approche de la vitesse de la lumière, des phénomènes nouveaux apparaissent et compliquent l’utilisation des techniques dont nous venons de parler. Par exemple, le temps de parcours de l’orbite n’est plus constant ce qui fait que notre discussion précédente du champ accélérateur ne s’applique plus. De plus, les particules perdent une partie de leur énergie à chaque tour, sous forme de rayonnement lumineux, appelé « rayonnement synchrotron » - perte qu’il faut compenser. Pour atteindre des énergies plus élevées, de nouveaux progrès dans la conception des accélérateurs étaient nécessaires : le cyclotron allait bientôt être remplacé par le « synchro-cyclotron » dans lequel le champ magnétique augmente avec la vitesse des particules, les forçant ainsi à rester sur la même trajectoire circulaire. Néanmoins, les cyclotrons restent encore utilisés aujourd’hui, pour des études en physique nucléaire, pour la production de radio-isotopes et dans le domaine médical. Lawrence à Berkeley en 1939 devant son cyclotron de 1,5 m. page 38 Ernest O. Lawrence obtint son doctorat à l’Université de Yale en 1925, après des études de chimie et de physique dans les Universités du Dakota du Sud, du Minnesota et de Chicago. Après trois ans passés à Yale, il partit pour Berkeley où il avait obtenu un poste de professeur assistant. Dès 1930, il était professeur (le plus jeune sur le campus de Berkeley) et il prit la direction du Laboratoire de radiation de l’université en 1936. Il occupa ces fonctions jusqu’à son décès. Le prix Nobel de physique 1939 couronna en particulier son invention du cyclotron et ses applications en biologie, en médecine ou dans l’étude de centaines d’isotopes radioactifs. Lawrence travailla également sur les ions, étudia les décharges électriques de la foudre et mit au point un compteur capable de mesurer des intervalles de temps de 3 milliardièmes de seconde. Pendant la seconde guerre mondiale, il participa de manière décisive aux efforts des scientifiques pour mettre au point la bombe atomique. Après la fin du conflit, il milita pour la signature d’accords internationaux bannissant les essais nucléaires. Deux laboratoires de physique américains portent aujourd’hui le nom de Lawrence : les laboratoires « Lawrence Livermore » (LLNL) http://www.llnl.gov/ et « Lawrence Berkeley » (LBL) http://www.lbl. gov/. Enfin, l’élément chimique artificiel de nombre atomique Z = 103 fut découvert en 1961 au LLNL et fut baptisé « lawrencium » en son honneur. De nombreux accélérateurs de particules actuels sont basés sur le principe du synchro-cyclotron. Ils ont une forme quasi-circulaire, alternant des zones courbées dans lesquelles les particules tournent sous l’effet d’un champ magnétique et des zones rectilignes où elles sont accélérées par des champs électriques. C’est par exemple le cas au CERN, près de Genève, où se trouve un anneau souterrain d’une trentaine de kilomètres de circonférence, creusé dans un tunnel situé à cheval entre la Suisse et la France. Pendant une dizaine d’années (de 1989 à 1999), on a procédé à des expériences qui nécessitaient d’accélérer des faisceaux d’électrons et de positrons jusqu’à des énergies dépassant 100 GeV par faisceau – énergie 5000 fois plus élevée que celle du cyclotron de Lawrence de 1939. En 2007, des protons remplaceront les électrons et atteindront des énergies encore bien plus colossales : environ 7 TeV soit plus d’un ordre de grandeur encore gagné ! Ce sera alors le temps du LHC (« Large Hadron Collider »), mais c’est une autre histoire... À bientôt pour la suite de la saga des accélérateurs ! ÉLÉMENTAÍRE Accélérateur Du cyclotron au synchrotron Les enfants de Lawrence 1 Le synchrocyclotron de 184 pouces (environ 5m) de diamètre de Berkeley. On remarquera l’importance de la bobine (1) créant le champ magnétique ainsi que de la culasse de fer (2) assurant le « retour » du flux magnétique. La distance entre les pièces polaires est également très grande (un peu plus de 1,6m). Des membres de l’équipe ont pris la place des « D ». La forme tronconique des pièces polaires de l’aimant est soigneusement étudiée afin que les lignes du champ magnétique maintiennent les particules dans le plan horizontal. On notera, sur cette photo, que la parité homme femme n’était pas encore d’actualité. Des cyclotrons aux synchrocyclotrons Dans les cyclotrons deux électrodes creuses en forme de « D », appelées pour cela « dees» (prononcer à l’anglaise « diiiises »), sont mises face à face. Entre elles on applique un champ électrique oscillant qui est toujours accélérateur pour le faisceau de particules qui le traverse. Un vide poussé règne dans les électrodes et l’ensemble est placé dans un champ magnétique, perpendiculaire au plan des « D ». Dans ces premières machines circulaires l’accélération se faisait presque « automatiquement », à chaque passage entre les « D », sans que l’on ait à tenir compte de la vitesse de la particule. En effet, le rayon de sa trajectoire étant proportionnel à sa vitesse, la particule met toujours le même temps pour faire un demi-tour ce qui permet de synchroniser son passage avec la fréquence du champ électrique accélérateur. En fait, ce mode de fonctionnement ne permet pas de Cible dépasser des énergies supérieures à quelques dizaines de MeV pour des protons. À ces vitesses, les effets de la relativité deviennent notables. Il en résulte que la ronde des particules ne présente plus la même régularité. Les particules sont en retard par rapport au champ oscillant et ratent littéralement la vague qui Générateur de tension alternatif permettrait de les accélérer au bon moment. Aimant dipôlaire en force de "D" Région de champ magnétique uniforme page 39 Champ électrique oscillant : toujours accélérateur quelle que soit la direction de passage des particules B Schéma du cyclotron. Le champ magnétique est orienté selon une direction perpendiculaire au plan du dessin. ©B. Mazoyer A Ce problème de simultanéité entre le temps d’arrivée de la particule et celui définissant la direction et l’intensité du champ accélérateur est en fait plus général. Quelle Source d'ions que soit la source utilisée, les particules élémentaires sont produites au centre du cyclotron avec des vitesses variées. Ainsi, elles n’arrivent pas toutes en même temps dans la zone où règne le champ électrique et ne rencontrent donc pas les mêmes conditions ÉLÉMENTAÍRE 2 ©Berkeley Lab. L’invention du cyclotron par E.O. Lawrence en 1929 (voir Élémentaire 2) a ouvert la voie à de nombreuses découvertes en physique nucléaire dans les décennies qui ont suivi. Son équipe, basée à Berkeley (Californie), a joué un rôle majeur dans la mise au point d’accélérateurs circulaires toujours plus puissants, basés sur le même principe. Cette course effrénée – toujours plus haut en énergie, toujours plus profond dans la compréhension de la structure de la matière – s’est accompagnée de nombreuses avancées dans les techniques d’accélération qui ont permis de résoudre les problèmes nouveaux rencontrés chaque fois qu’une machine était mise en service. Nous allons décrire quelques-uns de ces développements, parmi les plus marquants et les plus décisifs. d’accélération puisque l’intensité du champ oscille avec le temps. En 1945, E. Mac Millan à Berkeley, ainsi que V. Veksler en Union soviétique, et également M.L.E. Oliphant en Angleterre, inventent, indépendamment, le concept de « stabilisation de phase » qui permet d’ordonner au mieux le faisceau en tirant partie de cette situation initiale pour le moins… désorganisée ! On s’arrange pour que le champ (et donc l’accélération associée) ne soit pas maximal mais soit dans sa partie croissante lorsque les particules dont la vitesse est proche de la vitesse moyenne du faisceau le traversent. Ainsi, les particules « lentes », arrivant un peu plus tard, sont soumises à un champ plus intense et sont donc plus accélérées que celles, plus rapides, qui les ont précédées. Ce phénomène homogénéise peu à peu la distribution des vitesses Configuration des du faisceau et regroupe les particules lignes de champ mapar « paquets » aux propriétés (énergie, gnétiques dans les trajectoire, etc.) bien définies. Au bout premiers cyclotons. Une de quelques passages, les particules particule qui s’écarte sont « domptées » et il devient alors du plan horizontal, y est automatiquement possible d’ajuster la fréquence du ramenée (voir la direction champ oscillant afin d’accompagner des forces (F) auxquelles l’effet relativiste et d’atteindre elle est soumise). progressivement des énergies plus élevées. Le premier synchrocyclotron a été construit à l’université de Californie (Berkeley) en 1946. Il s’agissait de la modification du cyclotron de 184 pouces de diamètre (soit environ 5m) conçu par E.O. Lawrence et son équipe avant la seconde guerre mondiale. D’autres machines de ce type ont été construites en URSS (Dubna) et au CERN. L’énergie communiquée à des protons était de 600-700 MeV ce qui est suffisant pour produire et étudier les pions et les muons (voir « Histoire »). Le synchrocyclotron a été le premier accélérateur du CERN. Il a démarré en 1957 et n’a été fermé qu’en 1990. Dans les synchrocyclotrons modernes, comme celui de Zurich, une configuration complexe du champ magnétique permet d’obtenir des trajectoires isochrones (le temps mis pour les parcourir est le même) et de fonctionner à fréquence constante. Ces machines délivrent des intensités plus élevées que les précédentes car elles assurent la circulation de particules à plusieurs énergies différentes au lieu d’une seule. particule plus lente Particule ayant l'énergie moyenne ©B. Mazoyer temps Illustration du principe de stabilisation de phase. Le synchrocyclotron du CERN. © CERN Le synchrocyclotron de Dubna. Le synchrocyclotron du PSI à Zurich (Suisse). Les aimants correspondent aux pièces en couleur. Les quatre structures grises servent à créer le champ accélérateur. © Paul Scherrer Institute particule plus rapide page 40 E (champ électrique) Du cyclotron au synchrotron ÉLÉMENTAÍRE Du cyclotron au synchrotron Une des limitations du synchrocyclotron vient de la quantité de fer nécessaire pour construire l’aimant qui génère le champ magnétique dans tout le volume de l’accélérateur. On eut alors l’idée de créer des accélérateurs qui en exploitent uniquement la partie « utile », c’est-à-dire lorsque les particules ont atteint leur énergie finale. Dans un synchrotron, le trajet des particules n’est plus une spirale partant du centre de la machine, mais un cercle de rayon fixe. Le champ magnétique est créé par des aimants ayant une section en forme de « C » disposés uniquement le long de la circonférence de l’accélérateur. Afin de maintenir les particules dans l’anneau, l’intensité du champ magnétique croît à mesure que l’énergie des particules augmente. Comme ce dispositif ne peut accélérer que des particules possédant une énergie minimale, il faut commencer par utiliser un injecteur, constitué par un accélérateur linéaire fonctionnant à basse énergie. Le premier synchrotron, appelé le Cosmotron, est entré en fonctionnement à Brookhaven (état de New-York) en 1952 et accélérait des protons jusqu’à 3 GeV. Le Bevatron de Berkeley a démarré en 1954 et accélérait des protons à 6,2 GeV. On y a notamment découvert l’antiproton en 1955 (l’énergie de la machine avait été choisie dans ce but). ©BrookavenLab.. Les premiers synchrotrons Le Cosmotron de Brookhaven a démarré en 1952. Son nom rappelait que cette machine était conçue pour remplacer les rayons cosmiques comme source de particules. La focalisation forte ÉLÉMENTAÍRE 3 1 2 page 41 Le Bevatron de Berkeley. Sur la droite on voit le pré-injecteur (1) et l’accélérateur linéaire injecteur (2) qui amènent respectivement les protons à des énergies de 0,5 et de 10 MeV, avant de les introduire dans l’anneau (3). Le Bevatron tire son nom de « BeV » qui est un synonyme inusité de « GeV » (billion = giga). Le synchrotron de Birmingham (Angleterre). ©Berkeley Lab. Alors que les premiers synchrotrons entraient en fonctionnement, les physiciens savaient que pour atteindre des énergies dix fois plus hautes il leur faudrait cent fois plus d’acier soit 200 000 tonnes en prenant le Cosmotron comme référence. À titre de comparaison, la tour Eiffel ne pèse « que » 10 000 tonnes. Une découverte allait permettre de surmonter cette difficulté. À Brookhaven, Ernest Courant, Stanley Livingstone et Hartland Snyder inventent, en 1952, le gradient alterné ou principe de focalisation forte, bien que la paternité de cette idée semble devoir être attribuée à Nicholas Christofilos qui déposa un brevet en 1950. Dans les machines précédentes, le faisceau de particules est maintenu dans le plan horizontal grâce à la configuration du champ magnétique. Ce dernier n’est pas rigoureusement vertical pour ramener vers le plan horizontal les particules qui s’en écartent. Dans les synchrotrons cette fonction est assurée par la région au voisinage des ouvertures des aimants en « C », qui sont toutes dirigées vers l’extérieur de l’anneau. Du cyclotron au synchrotron vers le centre de la machine ©B. Mazoyer Docteur Livingstone, I presume ?... Par contre, le rayon de la trajectoire n’est pas très contrôlé, les particules peuvent « tanguer » et balayer une large couronne dans le plan horizontal. La chambre à vide dans lesquelles elles circulent doit donc être volumineuse (20 x 60 cm de section pour le cosmotron). En alternant la forme des ouvertures des aimants, les physiciens de Brookhaven obtiennent la stabilité du mouvement, également dans le plan horizontal. En effet, en combinant des systèmes qui focalisent et défocalisent on peut obtenir un effet résultant focalisant. Le principe fut vérifié à Cornell (USA) en 1954 avec un accélérateur à électrons de 1,3 GeV. Dans les machines modernes, les aimants assurant la courbure des trajectoires et leur stabilisation sont distincts. Les premiers sont appelés dipôles, les seconds quadripôles. Un quadripôle est, par construction, focalisant dans une direction et défocalisant dans l’autre ; cependant l’utilisation de doublets de quadripôles permet, selon le principe précédent, d’obtenir une focalisation dans les deux directions perpendiculaires à la direction du faisceau. Grâce à la focalisation forte on put ainsi réduire la taille de la chambre à vide où circule le faisceau, ainsi que celle des aimants. Des machines fonctionnant à des énergies plus hautes purent alors voir le jour. Ce furent, en 1959, le proton synchrotron (PS) du CERN opérant à 25 GeV, puis, l’année suivante l’AGS de 33 GeV, à Brookhaven. De telles machines ne nécessitaient que deux fois plus d’acier que celles de 3 GeV et leur chambre à vide n’avait que quelques centimètres lentille équivalente de rayon. d L’AGS de Brookhaven (Alternating Gradient Synchrotron). page 42 Le PS (Proton Synchrotron) du CERN. On distingue, au premier plan en jaune, un aimant quadripôle assurant la focalisation forte des faisceaux. Les aimants situés en arrière sont des dipôles fournissant un champ magnétique vertical courbant les trajectoires afin qu’elles restent dans la chambre à vide située au centre des aimants. Combinaison d’une lentille convergente et d’une lentille divergente, de même distance focale, donnant un effet global convergent. f exemple d = f/2 lentille convergente ©B. Mazoyer Milton Stanley Livingstone, un des inventeurs du principe de focalisation forte. Aimants en C à gradients alternés. Les particules circulent dans la chambre à vide dont la section est indiqué par l’ellipse jaune. À gauche le champ vertical, courbant les trajectoires des particules du faisceau, est moins intense lorsqu’on s’éloigne du centre de la machine alors que c’est l’inverse à droite. L’alternance de ces deux types d’aimants, tout autour de l’accélérateur, permet de focaliser fortement le faisceau dans la direction radiale. lentille divergente ÉLÉMENTAÍRE Accélérateur Le développement des accélérateurs linéaires © SLAC Si les complexes accélérateurs utilisés en physique des particules possèdent en général une partie circulaire dérivée du principe du synchrotron (dont nous avons parlé dans notre précédent numéro) ils comportent toujours un accélérateur linéaire, chargé d’apporter une quantité initiale d’énergie aux particules. Dans cet article, nous allons présenter les développements de ces machines après-guerre. Les premiers accélérateurs linéaires naissent au tournant des années 1930, avec les travaux de Rolf Wideröe en Allemagne, puis de David Sloan et Ernest Lawrence en Californie (voir Élémentaire N°2). Des ions, regroupés en paquets, traversent une série de tubes entre lesquels règne un champ électrique oscillant. Le dispositif est réglé de manière à ce que le champ soit toujours accélérateur lorsque les ions y sont soumis. Au début, Après des études à l’université de Chicago, L. Alvarez s’installe les particules accélérées sont nonà Berkeley où il est successivement chercheur (1936), professeur relativistes ce qui fait que leur vitesse (1945) et professeur émérite (1978). Pendant la guerre il travaille croît de manière significative au fur et à sur les radars au M.I.T. puis, à partir de 1944 au développement de la bombe atomique au laboratoire national de Los Alamos. mesure qu’elles acquièrent de l’énergie. Il construit le premier accélérateur linéaire à protons juste après Pour assurer la synchronisation de la guerre. En 1968, il reçoit le prix Nobel de physique « pour ses l’accélérateur, le temps passé par les contributions décisives à la physique des particules élémentaires, particules dans chaque tube, où elles en particulier pour les découvertes d’un grand nombre de dérivent en l’absence de champ, doit résonances, rendues possibles par ses développements techniques être le même. La longueur des tubes sur la chambre à bulles à hydrogène et en analyse de données », couronnant ainsi une augmente donc proportionnellement à carrière bien remplie et extrêmement diversifiée. Dans les années 1980, il annonce avec son la vitesse des particules. fils, le géologue Walter Alvarez, la découverte d’une couche d’argile très riche en iridium (un DR Zone expérimentale «historique» de SLAC : c’est dans le grand bâtiment à droite qu’eurent lieu les expériences établissant la validité du modèle des quarks. métal d’origine extraterrestre) vieille d’environ 66 millions d’années et présente partout sur la Terre. Ils émettent l’hypothèse que ces traces proviennent d’une météorite géante qui la percuta alors et provoqua, entre autre, l’extinction brutale des dinosaures. Cette explication reste encore la plus plausible. Tableau discussions sur le démarrage du linac à protons le 16 octobre 1947. On peut y voir une remarque de la main d’Alvarez (datée, en haut, de 20h30) expliquant que la géométrie de la machine doit être modifiée et qu’elle ne « marche pas » en l’état. Une note ajoutée à 2h40 la nuit suivante souligne l’obtention du premier faisceau. page 42 © SLAC Cette contrainte s’avère rapidement être le talon d’Achille des premiers accélérateurs linéaires. Plus les particules utilisées sont légères, plus leur vitesse est élevée à énergie donnée : les tubes doivent donc être plus longs ou bien l’oscillation des champs accélérateurs plus rapide. Prenons l’exemple d’électrons de vitesse presque égale à celle de la lumière, soumis à un champ oscillant à 30 MHz, une valeur typique à l’époque. Les tubes d’un tel accélérateur doivent mesurer 5 mètres chacun. En supposant que la différence de potentiel entre chaque cavité atteint 100 kV au maximum, il faudrait faire parcourir 150 m aux particules pour qu’elles gagnent 1 MeV. Cette difficulté explique pourquoi physiciens et ingénieurs privilégient plutôt, avant guerre, le développement des noir illustrant des synchrotrons qui apparaissent alors plus prometteurs. Le progrès des technologies liées aux radars lors de la seconde guerre mondiale modifie en profondeur cette situation, restée figée pendant une quinzaine d’années : des sources radiofréquences plus puissantes et plus rapides sont développées. Exploitant ce nouveau savoir faire, en 1946, Luis Alvarez et Wolfgang Panofsky débutent à Berkeley la construction du premier « linac » (« linear accelerator ») à protons qui ÉLÉMENTAÍRE Le développement des accélérateurs linéaires © RStanford News Service archives ©BrookavenLab.. Né à Berlin, W. Panofsky émigre aux États-Unis en 1934 et devient citoyen américain en 1942. Après des études dans les universités prestigieuses de Princeton et Caltech, il travaille sur le projet Manhattan pendant la guerre. À la fin des hostilités, il s’installe à Berkeley où il participe à la mise au point du premier accélérateur linéaire à protons. En 1951 il devient professeur à l’Université de Stanford et prend, en 1961, la direction du Stanford Linear Accelerator Linear nouvellement créé. Sous son mandat, SLAC se hisse au premier rang des laboratoires de physique des particules : trois découvertes (confirmation du modèle des quarks, le quark charmé et le lepton tau) valent à leurs auteurs le prix Nobel de physique. Bien qu’il n’ait pas reçu cette récompense lui-même, l’importance de ses contributions est unanimement reconnue. Directeur émérite de SLAC, il a toujours son bureau dans le bâtiment principal du laboratoire et on peut l’y croiser très régulièrement. W. Hansen et ses trois étudiants se révèlera capable d’accélérer ces derniers (injectés à 4 MeV en sortie portant un tube de l’accélérateur Mark d’un accélérateur de Van de Graaf) jusqu’à 32 MeV. I, d’une longueur de 3,6 m au total. Aujourd’hui, on utilise toujours des accélérateurs linéaires basés sur le principe de celui d’Alvarez : ils servent de prétube métallique à dérive paquet de protons injecteurs dans beaucoup de synchrotrons à protons ou à ions lourds. Après la phase initiale d’accélération, l’énergie E E E E supplémentaire est acquise, puis maintenue, dans les sections droites alternant avec les zones courbes du complexe faisceau + le champ est accélérateur. accélérateur À la même époque, une autre équipe, basée à l’Université de Stanford (toujours en Californie) met au point le premier accélérateur linéaire à électrons. Paradoxalement, ces particules sont les plus difficiles à accélérer bien qu’elles soient les plus légères. En effet, leur perte d’énergie par rayonnement synchrotron est très importante ce qui limite l’intérêt d’une machine circulaire. De plus, le fait qu’elles faisceau soient rapidement relativistes empêche l’utilisation d’un + accélérateur de Wideröe pour les raisons d’encombrement que nous avons développées plus haut. En 1934, William Hansen cherche à obtenir un faisceau d’électrons énergétiques afin de produire des rayons X : bien vite, il se rend compte que les technologies disponibles sont insuffisantes. En 1937 il s’intéresse à la détection d’avions par ondes électromagnétiques et, avec les frères Varian, il met au point le klystron qui va non seulement cavité métallique paquet de protons E E tube métallique à dérive E le champ est décélérateur cavité métallique page 43 William Hansen est étudiant puis professeur à l’Université de Stanford. Avec les frères Varian il invente le klystron, un dispositif performant pour générer des micro-ondes très énergétiques qui trouve ses applications dans de nombreux domaines, de la physique des particules aux télécommunications. Il est également à l’origine des premiers accélérateurs linéaires du campus de Stanford, domaine dans lequel l’Université est à la pointe du progrès depuis plus d’un demi-siècle. Le laboratoire de physique de Stanford a été rebaptisé « Laboratoire de physique expérimentale William Hansen » en 1990. ÉLÉMENTAÍRE E barre de support barre de support Le linac à protons mesure un peu plus de 12 mètres et comporte 46 tubes à dérive dont la longueur augmente (de 11 à 28 cm). Le champ oscille à 200 MHz et les particules sont abritées dans les tubes à dérive lorsque le champ est « freinant ». L’ensemble est inséré dans une cavité fermée résonante qui contient l’énergie rayonnée par l’accélérateur. Le linac accélère 15 paquets par seconde et le courant est de quelques dizaines de micro-ampères. Le développement des accélérateurs linéaires révolutionner la physique des accélérateurs mais aussi la recherche sur les micro-ondes en débouchant sur des applications très variées : radar, communications satellites, système de guidage, transmissions téléphoniques et télévisées, etc. En fait, le klystron permet de créer des ondes électromagnétiques de haute fréquence (GHz) qui véhiculent une grande puissance. Traduction du discours du président américain Einsenhower en mai 1959 : « Je recommande que le Congrès du Gouvernement Fédéral finance la construction d’un grand et nouvel accélérateur linéaire à électrons d’intérêt national. Les physiciens considèrent le projet – soutenu par l’Université de Stanford – comme vital. À cause de son coût, un tel projet doit devenir une responsabilité nationale ». En 1947, Hansen met au point avec trois étudiants le premier accélérateur de l’Université de Stanford, le Mark I qui utilise un « magnétron » (un cousin du klystron) pour accélérer des électrons jusqu’à 6 MeV. Il se donne ensuite pour objectif d’arriver à 1 GeV. Il construit alors un nouveau prototype, Mark II, avec lequel il atteint l’énergie de 49 MeV grâce à un klystron de 20 MW. Malgré son décès prématuré, la construction de l’accélérateur Mark III se poursuit. Entré en fonction le 30 novembre 1950, il améliore rapidement le record de son aîné (75 MeV) puis monte en énergie jusqu’à 730 MeV grâce à l’utilisation de 21 klystrons. En 1954, débute le projet Mark IV : d’énergie plus modeste (80 MeV) cet accélérateur sera utilisé pendant plus d’une décennie pour tester des nouvelles méthodes d’accélération. Les succès de la « famille Mark » conduisent les chercheurs de Stanford à imaginer un nouvel accélérateur linéaire à la fois beaucoup plus long (3,2 km), plus puissant (capable d’atteindre une énergie de plusieurs dizaines de GeV) et plus coûteux que ses prédécesseurs. Son prix était de 114 millions de dollars de l’époque ce qui en faisait le projet le plus cher en physique des hautes énergies. Par comparaison, le budget de la NASA en 1958, l’année de sa création, n’était « que » de 89 millions de dollars. Après quatre ans de tractations intenses et de « lobbying », le « Stanford Linear Accelerator Center » (SLAC) est créé sur un terrain appartenant à l’Université de Stanford à quelques kilomètres à l’ouest du campus. Son premier directeur n’est autre que Wolfgang Panofsky : il le restera 23 ans. Premières sections de l’accélérateur Mark III vues depuis l’injecteur. Une fois la construction terminée, l’accélérateur fut isolé par un épais blindage pour se protéger de la radioactivité. DRStanford News Service archives En juillet 1962 commence la construction du nouveau linac. Le faisceau d’électrons atteint pour la première fois son autre extrémité en mai 1966 © SLAC Maintenance sur l’accélérateur linéaire de Stanford. page 44 Sigurd et Russel Varian (les deux plus à gauche, debout et à genoux) et William Hansen (à droite) examinent avec David Webster et John Woodyard un klystron construit à l’Université de Stanford en 1939. L’accélérateur linéaire de Stanford en quelques chiffres : • Énergie record 53 GeV en 1987 • 3,2 km de long • 960 sections accélératrices • 245 klystrons d’une puissance comprise entre 6 et 64 MW chacun, installés dans le plus long bâtiment du monde • Fréquence du champ électrique oscillant : 2856 MHz • Lignes de faisceaux enterrées sous 8 mètres de terre. ÉLÉMENTAÍRE Le développement des accélérateurs linéaires © General Electric avec une énergie d’environ 18 GeV. Le programme de recherche débute en avril 1967 : au bout de l’accélérateur, des électro-aimants courbent les particules vers l’un des deux bâtiments contenant des expériences de cibles fixes à l’aide desquelles le modèle des quarks reçoit en quelques années une confirmation éclatante (voir « Expérience »). Début 2007, l’accélérateur linéaire est toujours la clef de voûte du SLAC. Il fournit, pour des expériences de précision, des faisceaux d’électrons et de positrons à des énergies plus modestes (9 GeV et 3 GeV respectivement) mais d’une qualité toujours meilleure : énergie plus stable et particules accélérées sans cesse plus nombreuses. Son prochain défi (dès 2009), sera de fournir des faisceaux qui serviront à produire une lumière synchrotron extrêmement brillante. Rayonnement synchrotron Découverte du rayonnement synchrotron sur le synchrotron de General Electrics en 1946. La flèche montre l’émission de lumière visible à l’œil nu. Le rayonnement synchrotron est constitué de photons, émis par des particules en mouvement non-uniforme (par exemple se déplaçant dans un anneau de stockage circulaire). La perte d’énergie de ces particules (ΔE) dépend de leur énergie (E), de leur masse (M) et du rayon de courbure (R) de leur trajectoire : ΔE ∝ (E/M)4 / R 5. Les électrons perdent donc beaucoup plus d’énergie par rayonnement synchrotron que les protons à cause de leur masse qui est environ 2000 fois plus faible. ©Wikipedia Si le rayonnement synchrotron est une nuisance dans les accélérateurs de particules, il est utilisé dans des machines spécialement conçues (comme le synchrotron Soleil en fonctionnement sur le plateau de Saclay dans le sud de la région parisienne) pour analyser des matériaux ou observer des événements très rapides invisibles sous lumière normale – selon l’énergie des particules, le rayonnement synchrotron va de l’infrarouge aux rayons X les plus énergétiques. © Googleearth Effet du faisceau de l’accélérateur linéaire de SLAC sur une cible de cuivre. ÉLÉMENTAÍRE page 45 SLAC et l’Université de Stanford vus du ciel. Le développement des accélérateurs linéaires © SLAC Klystron Le klystron est un dispositif permettant de transférer l’énergie d’un faisceau d’électrons à des ondes électromagnétiques de haute fréquence. Le faisceau d’électrons dont on parle ici ne doit pas être confondu avec celui circulant dans l’accélérateur et auquel on communique de l’énergie par ce dispositif. Un klystron amplificateur ayant deux cavités comprend : 1) une source « continue » d’électrons qui sont accélérés par des tensions de quelques dizaines à quelques centaines de kilovolts, 2) une première cavité dans laquelle les électrons sont soumis à un champ électromagnétique alternatif à haute fréquence. Pendant les demi-périodes où le champ est orienté dans la direction opposée à celle du mouvement des électrons, ces derniers sont accélérés. Ils sont freinés dans le cas contraire. Il se produit alors une modulation de la vitesse des électrons en phase avec le champ. 3) un espace dit de glissement dans lequel aucun champ ne règne. Les électrons qui ont des vitesses différentes à l’entrée de cet espace se groupent en paquets, les plus rapides rattrapant les plus lents. La modulation de vitesse a ainsi créé, au bout de l’espace de glissement, une modulation de densité ayant la même période. 4) une deuxième cavité accordée à la même fréquence que le champ alternatif appliqué à la première. Les paquets d’électrons créent par induction dans cette cavité un champ électromagnétique de même fréquence. La puissance HF disponible dans la deuxième cavité dépend de l’intensité du faisceau d’électrons et elle est beaucoup plus élevée que celle alimentant la première. 5) un collecteur qui absorbe les électrons à la sortie de la deuxième cavité. La puissance HF ainsi créée est transmise aux sections d’accélération de l’accélérateur principal par des guides d’ondes puis des coupleurs. Remarquons qu’une source HF unique (pilote) peut alimenter une série de klystrons amplificateurs. Il existe plusieurs types de klystrons amplificateurs (à plusieurs cavités) ou oscillateurs (deux cavités couplées et klystron réflex à une seule cavité). Pendant la dernière guerre, et parallèlement à l’effort américain (Varian,..), des industriels français ont aussi développé des klystrons : la CSF (1,3 Ghz) et LMT (2 Ghz). page 46 Vue du bâtiment de surface (3,1 km d’une seule traite !) de l’accélérateur linéaire de Stanford – le faisceau passe 8 mètres sous le sol. On peut voir deux klystrons (en rouge) séparés d’une douzaine de mètres. ÉLÉMENTAÍRE Accélérateur Dis, c’est encore loin le Gran-Sasso ? Le CNGS (initiales pour CERN Neutrinos to Gran Sasso) est un ensemble d’installations situées au CERN et produisant un faisceau intense de neutrinos-mu. Ce faisceau est dirigé en direction du laboratoire souterrain du Gran Sasso, implanté près de Rome, soit à 732 kilomètres de Genève. L’expérience OPERA, installée au Grand Sasso, reçoit ce faisceau et cherche à identifier des événements contenant des leptons tau, signe incontestable de l’interaction de neutrinos-tau dans la masse du détecteur. Ceci prouverait que des neutrinos-mu du faisceau ont oscillé sur le chemin entre le CERN et le Grand Sasso pour devenir des neutrinos-tau (voir « Théorie »). Contrairement aux autres expériences d’oscillation qui comparent le nombre de neutrinos initiaux à celui finalement détectés ayant la même saveur (appelées « expériences de disparition »), OPERA recherche un type de neutrino qui est absent du faisceau initial ; on parle alors d’«expérience d’apparition ». Pour produire le faisceau de neutrinos-mu, on utilise des protons de 400 GeV issus du SPS (Super Proton Synchrotron). On les extrait de l’accélérateur par paquets, qui sont dirigés sur une cible de graphite par une succession d’aimants disposés sur 800 m. Parmi les particules produites lors des interactions qui ont lieu entre les protons incidents et le carbone de la cible, les pions et les kaons chargés positivement sont sélectionnés à l’aide de deux cornes magnétiques. On laisse ensuite ces particules se désintégrer en vol sur une distance de 1000 m dans un tube à vide. En se désintégrant, elles donnent, en particulier, des muons et leurs neutrinos-mu associés. Un système d’absorbeurs, disposé sur une distance de 100 m, permet d’éliminer les particules résiduelles (muons, hadrons, etc.) et, en fin de ligne, on obtient un faisceau constitué presqu’uniquement de neutrinos-mu. Schéma indiquant le parcours du faisceau de neutrinos entre le CERN et le détecteur OPERA installé au laboratoire du Gran Sasso. Les neutrinos mettent 2,44 ms à traverser les 732 kilomètres séparant le CERN du détecteur. Mille mètres pour la désintégration ?? La longueur de 1000 m du tunnel le long duquel les kaons et les pions se désintègrent en donnant des muons et des neutrinos-mu, est choisie de façon à obtenir un faisceau très pur de neutrinos-mu. Dans un tunnel plus court, moins de pions et de kaons peuvent se désintégrer ce qui correspond à la production d’un faisceau de neutrinos moins intense. Sur une distance plus longue, les muons qui vivent plus longtemps que les pions et les kaons, vont se désintégrer à leur tour en émettant des neutrinos-e qui pollueront ainsi le faisceau. Au bout de 1000 m très peu de muons se désintègrent et ils sont complètement absorbés par les absorbeurs placés en fin de ligne. Ainsi le faisceau de neutrinos est constitué à 96% de neutrinos-mu, 3,5% de antineutrinos-mu et seulement de 0,5% de neutrinos- e. page 40 Donner le «la» : accorder le CNGS avec OPERA Les défis pour faire marcher ensemble les installations du CNGS et l’expérience OPERA sont multiples. Il s’agit de détecter les interactions des neutrinos et d’y retrouver celles qui correspondent au changement d’un neutrino-mu en neutrino-tau. Ceci est doublement difficile, d’une part à cause du très faible taux d’interaction de ces particules fantomatiques avec la matière et d’autre part, de la petitesse du phénomène des oscillations. Le détecteur doit présenter une surface importante au faisceau incident et être très dense afin d’augmenter les probabilités d’interaction des neutrinos. Pour donner toutes ses chances à OPERA d’effectuer une observation, il faut disposer d’un très grand nombre de neutrinos-mu, c’est-à-dire commencer avec beaucoup de protons. Pour fixer les idées, on a montré qu’il faut quarante cinq milliards de milliards de protons par an pour avoir quelques poignées de tau (entre 10 et 20) détectés après 5 années d’enregistrement de données. Autant dire que la tâche est rude ! Une fois le faisceau produit au CERN il faut ÉLÉMENTAÍRE Les cornes magnétiques constituent le cœur du CNGS. Elles sont une sorte de lentille magnétique dont le but est de focaliser les pions et les kaons sortant de la cible de carbone suivant la direction du Gran Sasso. Ainsi lorsque ces particules se désintégreront, les muons et leurs neutrinos associés resteront dans la même direction. Le système magnétique, placé après la cible, comprend deux cornes. La première focalise les particules de charge positive et défocalise celles de charge opposée. Cet effet dépend de l’énergie des particules: il est excessif pour les particules de moins de 35 GeV et insuffisant pour celles d’énergie supérieure. Ainsi, la seconde corne magnétique, positionnée 40 m plus loin, joue un rôle correcteur des « imperfections » de la première, pour produire un faisceau contenant des particules ayant des trajectoires parallèles, indépendamment de leur énergie. Schéma du système des cornes du CNGS. Grâce à la focalisation, le faisceau se dirigeant vers le Gran Sasso contient 10 fois plus de particules. En bas, l’effet du champ des deux cornes sur les trajectoires des particules d’énergie différente est indiqué. Les deux cornes magnétiques du CNGS. Simon Van der Meer devant un tableau expliquant le fonctionnement des cornes magnétiques. ÉLÉMENTAÍRE Dans le cas du CNGS, la première corne est longue de 7,5 m et a un rayon externe de 0,7 m. La seconde est plus large : 1,1 m de rayon. Le courant électrique nécessaire à la création du champ magnétique focalisant est de 150 000 Ampères et il est appliqué par pulsations avec le même rythme que l’extraction des protons du SPS. À cause de ce champ variable, la structure des cornes subit des forces magnétiques importantes. Les parois doivent alors être épaisses pour résister aux tensions mécaniques mais pas trop pour ne pas absorber les particules du faisceau ! L’optimisation des dimensions des cornes a ainsi requis de savants calculs. Par ailleurs, la puissance électrique chauffe la structure et nécessite un système de refroidissement à eau assez complexe. page 41 © CERN encore le diriger avec précision sur les parties détectrices d’OPERA à 732 kilomètres de là. Grâce au GPS la visée n’est pas difficile, mais le faisceau a tendance à s’élargir au cours de son trajet. Ainsi la stabilité dans le temps de la position du faisceau de neutrinos doit être excellente et sa divergence minimale, de façon à ce que la majorité des neutrinos traversent le volume d’OPERA. Le principe de la corne magnétique a été proposé par l’ingénieur du CERN Simon Van der Meer en 1961 et utilisé dès 1962 dans les premières expériences avec des faisceaux de neutrinos au CERN. Simon Van der Meer a partagé le prix Nobel 1985 avec Carlo Rubbia pour avoir inventé la méthode permettant la production de faisceaux intenses d’antiprotons. Dis, c’est encore loin le Gran-Sasso ? Créer au CERN l’espace nécessaire pour les installations du CNGS n’a pas été simple. 3300 mètres de tunnels, de galeries et de cavernes situés à des profondeurs variant entre 55 m et 122 m ont été excavés et consolidés en un peu moins de 3 ans. Au total, 45 000m3 de terre ont été déplacés. Un consortium spécial, constitué entre la France, l’Italie, la Grande Bretagne et la Grèce a été en charge du suivi des travaux et de la sécurité. Le coût total, tenant compte de l’ingénierie et des installations a été évalué à 47 millions d’euros. À gauche : schéma indiquant les installations créées spécialement pour la production du faisceau CNGS. On distingue le tunnel (en bleu) pour les protons extraits du SPS et dirigés sur la cible. Les pions et les kaons après focalisation, volent dans un long tunnel (en orange) où ils se désintègrent. Après avoir survécu à la traversée des absorbeurs, les neutrinos entreprennent leur voyage en direction d’OPERA. © CERN Ci-dessous : les mêmes installations sont indiquées en coupe verticale. 2006 : les premiers événements enregistrés par OPERA Bruit de fond page 42 L’expérience OPERA interpose au faisceau de neutrinos 1 800 tonnes de détecteurs occupant un volume de 25 m de long, 10 m de large et 10 m de haut. Elle est composée de deux sections constituées chacune d’un ensemble de « briques » (il y en a 250 000 en tout dans OPERA) suivi d’un spectromètre à muons. Une brique est construite comme un Différence de temps entre les événements mesurés dans le détecteur OPERA et le déversement des protons du SPS. Les deux pics correspondent à deux déversements successifs de protons au niveau du SPS. Les événements en dehors des pics proviennent des interactions du rayonnement cosmique sur les roches. ÉLÉMENTAÍRE Dis, c’est encore loin le Gran-Sasso ? sandwich de feuilles de plomb et de films photographiques qu’on appelle « émulsions ». Dans le plomb, les neutrinos peuvent interagir pour donner naissance à une particule chargée (muon, tau,..). Le muon ainsi que les autres particules chargées, dont celles issues de la désintégration du tau, sont détectées par des plans de scintillateurs qui servent au déclenchement de l’enregistrement de l’événement. Les muons sont aussi identifiés et mesurés de façon précise par le spectromètre. Lorsqu’une interaction a lieu dans une brique, le système de déclenchement note sa position. Un robot manipulateur vient alors retirer la brique pour la porter au laboratoire où elle sera ouverte pour le développement des émulsions et la reconstruction du point de l’interaction du neutrino avec la cible. En période de prise de données une trentaine de briques seront enlevées par jour pour être analysées. En 5 ans de faisceau, 30 000 interactions de neutrinos du faisceau CNGS sont attendues dans la masse d’OPERA, parmi lesquelles 150 devraient correspondre à des neutrinos-mu ayant oscillé en neutrinos-tau, dont seulement 10 à 20 seraient définitivement identifiées comme telles. Le CNGS a envoyé ses premiers neutrinos vers OPERA durant l’été et automne 2006. Les paramètres du faisceau ont été vérifiés et ajustés pendant toute cette période. Le détecteur OPERA a enregistré des événements en coïncidence avec les déversements des protons du SPS. En 2007, le fonctionnement du CNGS s’est arrêté à cause d’un problème de fuite au niveau du refroidissement des cornes magnétiques. Après réparation, les tests vont reprendre dans le but d’optimiser le fonctionnement de l’ensemble pour une intensité plus grande de protons. Identification des neutrinos - tau dans OPERA Comment sait-on que le neutrino touchant le détecteur est un neutrino-tau ? En observant les particules qu’il crée ! Dans le cas d’une interaction de neutrino-mu avec la matière du détecteur, un muon sera identifié dans l’état final, accompagné généralement d’un jet de hadrons. Si le neutrino-mu initial a oscillé entre le CERN et le Gran Sasso, alors son interaction donnera un tau qui, après un court vol d’environ 1 mm, se désintègrera en produisant dans 18% des cas également un muon mais aussi un électron ou bien un (ou plusieurs) pions. La signature de l’oscillation est alors une distance caractéristique entre le point d’émergence du jet et celui du muon ou d’autres traces chargées, preuve de l’apparition furtive du lepton tau. émulsion page 43 ÉLÉMENTAÍRE plomb Chaque brique pèse 8,3 kilogrammes et elle est constitué d’une succession d’une soixantaine de feuilles de plomb de 10,2 × 12,5 × 0,1 cm3 et d’émulsions. Comme indiqué sur le schéma, la brique individuelle contient le point d’interaction du neutrino avec le plomb, et permet de mesurer précisément les positions des traces chargées. Accélérateur Les collisionneurs : révolution dans À la suite des travaux pionniers de E.O. Lawrence avant la seconde guerre mondiale, des synchrotrons de plus en plus puissants sont construits dans les années 50. Ils profitent des avancées effectuées dans de nombreux domaines : conception des accélérateurs, technologies d’accélération et de guidage du faisceau, augmentation de la puissance électrique disponible, etc. Les expériences réalisées alors sont dites « sur cible fixe » : le faisceau accéléré est envoyé sur un échantillon de matière et les détecteurs mesurent les produits des collisions des particules avec les atomes qui composent la cible. Si la densité de cette dernière est suffisamment élevée pour assurer l’observation d’événements à chaque passage des projectiles, la réaction est loin d’être efficace énergétiquement : seule une faible fraction de l’énergie de la particule incidente est utilisable pour produire de nouvelles particules et ce pourcentage décroît même lorsque l’énergie augmente ! Or, d’après la relation d’Einstein reliant énergie et masse (E=Mc2), disposer de plus d’énergie permet de créer des particules plus massives (et donc potentiellement nouvelles). Pour sortir de cette impasse, il faut s’engager dans une nouvelle direction. Mais revenons un instant sur les transferts d’énergie lors d’une expérience sur cible fixe. Si seule une partie de l’énergie peut se transformer en masse, où part le reste puisque l’énergie totale est conservée ? La réponse est simple : comme la réaction est déséquilibrée – l’un des deux participants à la collision est en mouvement alors que l’autre est au repos – une grande partie de l’énergie totale est utilisée pour le déplacement global de l’ensemble des particules produites. Comment s’affranchir de ce phénomène ? En faisant bouger la cible pour contrer l’effet précédent ! Une idée aussi prometteuse que compliquée au niveau technique. Dans le cas d’une collision frontale entre deux particules identiques et de même énergie, le mouvement d’ensemble du système – avant et après – est nul : toute l’énergie est absorbée par la réaction. On trouve déjà cette idée pour le cas des systèmes non-relativistes dans une lettre de R. Wideröe à E. Amaldi en 1943. Il dépose même un brevet pour un accélérateur de sa conception mais ne l’exploite jamais, trop pris par son travail dans l’industrie. Le concept est repris en 1956 par D.W. Kerst et ses collaborateurs qui l’étendent aux expériences ultra-relativistes où l’écart entre les deux types d’accélérateurs est encore plus marqué : par exemple, deux protons de 21,6 GeV envoyés l’un sur l’autre ont le même potentiel qu’un proton de 1000 GeV entrant en collision avec une cible fixe et ce, en fournissant 23 fois moins d’énergie ! Alors qu’une cible n’est Non-relativistes, ultra-relativistes composée que de matière, ce Une particule de masse M est dite nonnouveau concept d’accélérateur relativiste lorsque son énergie cinétique permet aussi de réaliser des (c’est-à-dire son énergie de mouvement) collisions matière-antimatière, est très inférieure à son énergie de masse intéressantes dans la mesure où (Mc2). Elle est dite relativiste dans le cas les deux projectiles s’annihilent. contraire et ultra-relativiste lorsque son Leur énergie est convertie énergie est très supérieure à son énergie en nouveaux constituants de masse. Efficace énergétiquement L’énergie utilisable pour produire de nouvelles particules lors de la collision d’une particule d’énergie E avec une autre particule au repos et de masse M est approximativement disponible E cible fixe ~ √ 2Mc2E lorsque E>>Mc2. Dans le cas d’une collision frontale entre deux particules d’énergie E/2, le résultat est disponible E collision = E E disponible cible fixe Le rapport varie selon: disponible ~ 2Mc √E E collision 2 Cette fraction diminue à mesure que l’énergie augmente et devient très petite dans le cas d’une particule ultrarelativiste pour laquelle l’énergie totale E est très supérieure à l’énergie de masse Mc2. Cela montre que les collisionneurs ont un rendement énergétique bien meilleur que les collisions sur cible fixe, en particulier à haute énergie. Repos Les atomes d’une cible fixe ne sont pas complètement au repos puisqu’à toute température est associée une agitation aléatoire des particules au niveau microscopique. Néanmoins les énergies associées à ce mouvement sont si faibles comparées à celles mises en jeu dans les collisions produites par un accélérateur qu’elles sont complètement négligeables. page 38 Comparaison entre : en haut, la collision d’un proton énergétique (10 GeV) sur une cible fixe (proton au repos de masse 1 GeV) ; en bas, la collision de deux protons de même énergie (5 GeV). Dans le second cas, toute l’énergie disponible sert à produire de nouvelles particules ; dans le premier, plus de la moitié est utilisée pour le mouvement global des particules produites. ÉLÉMENTAÍRE les accélérateurs de particules élémentaires. De plus, comme particules et antiparticules ont des charges opposées, un seul champ magnétique orienté perpendiculairement au plan de leurs trajectoires permet de les faire tourner en sens opposés dans un anneau circulaire. Paquets Pour des raisons tant fondamentales que techniques, le champ électrique accélérateur nécessaire pour compenser les pertes d’énergie dues au rayonnement synchrotron des particules stockées n’est pas disponible en continu : il faut donc utiliser un champ oscillant. Les particules sont alors organisées en paquets, les plus denses possible, et dont les propriétés (dispersion de l’énergie, volume, etc.) sont préservées au mieux dans les collisionneurs. Moins ces paramètres sont perturbés, plus la durée de vie des faisceaux est grande et l’accélérateur « efficace » ! Le fonctionnement du système R.F. est synchronisé avec le mouvement des paquets afin que les cavités apportent l’énergie appropriée aux particules lorsque celles-ci les traversent. En dehors de ces périodes, le champ qu’elles délivrent n’est pas adapté aux caractéristiques des faisceaux. Ainsi, une particule qui voit son énergie modifiée de manière significative ne reçoit plus les corrections nécessaires au maintien de son orbite : en quelques millièmes de seconde elle est perdue. ÉLÉMENTAÍRE Durée de vie À chaque tour, des particules sont perdues dans le collisionneur : efficacité forcément limitée des systèmes contrôlant leur trajectoire, interaction avec les molécules de gaz résiduelles, conséquence des collisions au centre du détecteur avec les particules tournant en sens inverse etc. Ralentir cet effet – par exemple en améliorant le système de pompage du tube à vide – permet d’augmenter la durée de vie des faisceaux et donc le temps pendant lequel ils produisent des collisions visibles dans les instruments. page 39 Voilà pour la théorie. En pratique, réaliser un collisionneur est tout sauf évident : quel que soit le soin apporté à leur fabrication et à leur conservation, les faisceaux auront toujours une densité bien plus faible qu’une cible solide, ce qui limite la probabilité de collision entre les particules qu’ils contiennent. Une manière de compenser cet effet consiste à augmenter le nombre de fois où les particules se croisent. En particulier, on cherche à allonger au maximum la durée de vie des faisceaux en limitant la perte de particules en fonction du temps. Voyons comment on en est arrivé aux collisionneurs actuels avec les étapes les plus marquantes de ce processus qui s’est déroulé sur plusieurs décennies. Résumé (très simplifié) de ce qui se passe dans un collisionneur e+elorsque des faisceaux circulent à l’intérieur. 1 - Dans chaque section circulaire, les particules suivent une trajectoire courbe sous l’action d’un champ magnétique. Elles perdent alors de l’énergie par émission de lumière synchrotron. 2 - Des particules peuvent disparaître lorsqu’elles interagissent avec les molécules de gaz résiduel présentes dans les tubes à vide, maintenus à la pression la plus faible possible (quelques milliardièmes de la pression atmosphérique) par un système de pompage fonctionnant en permanence. 3 - Dans certaines sections droites, des cavités radio-fréquence (« R.F. ») redonnent aux particules l’énergie perdue par émission synchrotron. Ce système sert aussi à donner l’énergie nominale de fonctionnement aux faisceaux. 4 - Les collisions entre particules ont lieu au centre du détecteur. Ailleurs, les deux faisceaux circulent sur des trajectoires différentes, voire dans des tubes à vide séparés. Près de la zone d’interaction, des aimants très puissants forcent les faisceaux à se rapprocher, puis à se traverser mutuellement avant de les séparer tout aussi brusquement – chacune de ces étapes « coûte » des particules. Ces dernières ne sont pas réparties uniformément dans le collisionneur mais sont regroupées en paquets dont les passages sont synchronisés. Les collisions sont d’autant plus efficaces que les paquets sont denses, en particulier dans le plan transverse à leur propagation. La quantité utilisée pour décrire la « qualité » des collisions est appelée luminosité. 5 - Lorsque le nombre de particules disponibles dans les faisceaux passe en dessous d’un certain seuil, les collisions ne se produisent plus assez souvent pour justifier la poursuite de l’expérience. De nouvelles particules sont alors injectées dans l’accélérateur. Les collisionneurs actuels sont capables de « recharger » un paquet particulièrement appauvri alors que les collisions ont encore lieu en abondance. Leur efficacité est ainsi maximale. Les collisionneurs : révolution dans Les pionniers L’intensité du courant électrique mesure un nombre de charges électriques par unité de temps. Ainsi, un ampère de courant dans un fil électrique correspond au passage de... 6 241 509 629 152 650 000 (et pas un de moins !) électrons par seconde. Dans un collisionneur, l’intensité I est donc donnée par le nombre de particules N qu’il contient multiplié par le nombre de tours qu’elles effectuent par seconde. Comme elles se déplacent à une vitesse extrêmement proche de celle de la lumière c, cette fréquence de rotation s’exprime directement en fonction de la longueur L de l’anneau : I= N.c/L Quelques mois après la publication de l’article de Kerst, G. O’Neill (de l’université américaine de Princeton) propose d’ajouter aux accélérateurs existants des anneaux de stockage dans lesquels circuleraient des faisceaux de particules accélérées en amont, par exemple par un synchrotron. Les collisions auraient lieu dans une section droite commune. En 1958, W. Panofsky (futur premier directeur du SLAC, voir Élémentaire N°4) obtient une subvention de 800 000 dollars pour construire deux anneaux de stockage au bout de l’accélérateur linéaire Mark-III de 700 MeV situé sur le campus de l’université de Stanford. Ce projet s’accompagne de plusieurs innovations technologiques, en particulier au niveau du contrôle des particules stockées afin d’augmenter la longévité des faisceaux. Les anneaux, en forme de « 8 », d’environ 2m de circonférence et dans lesquels des électrons circulent en sens opposés, sont opérationnels en 1962 : c’est un succès (énergie maximale de 1 GeV ; l’intensité du courant atteint 600 mA, un record qui tiendra presque quatre décennies) mais, en fait, les américains ne sont pas les premiers. En effet, le 27 février 1961, une équipe du laboratoire italien de Frascati (au sud de Rome) menée par Bruno Touschek réussit le premier stockage d’électrons et de positrons dans l’anneau AdA (« Anello di Accumulazione », soit « Anneau d’Accumulation » en français). AdA comprend une chambre à vide toroïdale (c’est-à-dire en forme d’anneau), placée dans un puissant champ magnétique orienté perpendiculairement au plan de l’anneau et faisant tourner particules et anti-particules en sens inverses, à des énergies pouvant atteindre 250 MeV. Des électrons frappent une première cible ; des photons sont alors émis, lesquels atteignent ensuite une seconde cible où les collisions donnent naissance à des paires e+e−. Une petite fraction de ces particules est capturée dans la chambre à vide qu’il faut renverser par rapport au système d’injection selon que page 40 Effet Touscheck L’effet Touscheck décrit la perte de particules par interaction coulombienne au sein des paquets stockés dans un collisionneur, en partie responsable de la décroissance du courant circulant dans l’anneau. Lors de leur parcours, les particules oscillent autour de leur orbite moyenne et peuvent donc entrer en contact si elles sont voisines. De tels chocs affectent le mouvement des particules impliquées et modifient les composantes longitudinale (dans le sens du déplacement) et transverse (radiale) de leurs quantités de mouvement. Si le changement est suffisamment important, les trajectoires des particules deviennent instables et celles-ci se perdent dans le tube à vide. © LNF Avec I=600 mA et L=2 m (paramètres du premier collisionneur construit à Stanford) on obtient un faisceau constitué d’environ 25 milliards de particules. Le collisionneur actuel de Stanford, PEP-II, a une circonférence de 2200 m et a récemment atteint un courant de 3 ampères pour son faisceau de positrons : un peu plus de 137 000 milliards de particules étaient alors en circulation ! Ce nombre est certes gigantesque mais un simple verre d’eau contient environ 40 milliards de fois plus d’électrons... Physicien autrichien, Bruno Touschek est victime des lois raciales nazies car sa mère est juive. Il s’installe à Hambourg où il travaille sur les ancêtres des klystrons et est en contact avec Wideröe. Finalement arrêté par la Gestapo en 1945, il est déporté dans un camp de concentration d’où il s’échappe par miracle, laissé pour mort par un S.S. Après la guerre, il complète sa scolarité à Göttingen avant de rejoindre l’université de Glasgow en 1947. En 1952 il devient chercheur au laboratoire national de Frascati à Rome et y effectue le reste de sa carrière. Sa vision de la physique des particules, à la fois théorique et pratique, lui donne l’idée de construire le premier collisionneur électron-positron au monde. Le 7 mars 1960, il donne un séminaire dans lequel il présente ce nouveau concept, insistant à la fois sur l’intérêt scientifique de ce type d’accélérateur pour les expériences de haute énergie et sur la simplicité de réalisation d’un prototype. Le premier faisceau stocké (quelques électrons à peine) est obtenu moins d’un an plus tard, le 27 février 1961. Non content d’avoir supervisé la construction d’AdA, Touschek participe activement aux tests qui y furent menés, y compris après le transport de l’anneau à Orsay. En particulier, il découvre et explique un effet de physique des accélérateurs qui porte aujourd’hui son nom. ÉLÉMENTAÍRE les accélérateurs de particules Transporter AdA de Frascati à Orsay sur une distance de 1500 km ne fut pas une mince affaire. L’anneau fonctionnait sous ultravide (pour éviter les interactions entre les faisceaux d’électrons et de positrons avec les molécules du gaz résiduel) et le ramener à la pression atmosphérique normale pour le trajet aurait nécessité de longues opérations de nettoyage une fois arrivé à destination, suivies de plusieurs semaines de pompage. Il fallut donc se munir d’un système de batteries pour que la pompe maintenant l’ultravide dans l’anneau fonctionne en permanence. Touschek en personne voulut tester la stabilité du camion utilisé pour le transport : peu habitué à conduire un si grand véhicule, il détruisit un lampadaire en le manœuvrant. Enfin, un douanier zélé voulut à tout prix inspecter l’intérieur de l’anneau à la frontière : il fallut une intervention haut placée (le ministre italien des affaires étrangères ou le haut-commissaire à l’énergie atomique français selon les versions et ... la nationalité du conteur !) pour que les choses rentrent dans l’ordre. Malgré ce contretemps, la pompe fonctionna jusqu’à l’arrivée au LAL. l’on veut accumuler des positrons ou des électrons. L’efficacité de cette procédure, ajoutée aux limitations de la source initiale d’électrons, est le talon d’Achille de ce dispositif : seuls de très faibles courants circulent dans la chambre à vide. La décision est alors prise de transporter AdA en juin 1962 à Orsay où le Laboratoire de l’Accélérateur Linéaire (LAL) dispose d’un ... accélérateur linéaire (!) utilisable comme injecteur. Le transfert tient toutes ses promesses : des collisions entre positrons et électrons sont observées en décembre 1963 ; les faisceaux sont stockés jusqu’à 40 heures et, surtout, AdA met en évidence un phénomène important, connu aujourd’hui sous le nom d’effet Touschek qui limite la durée de vie du faisceau. Selon la petite histoire, l’interprétation correcte du phénomène fut donnée la nuit même où il apparut dans AdA ; une solution technique fut imaginée le lendemain matin et mise en pratique dans les jours qui suivirent : la science en direct en somme ! Plus tard, en mai 1964, le laboratoire de Novossibirsk (en Sibérie) commence l’exploitation de son collisionneur e−e− VEPP1 dont l’énergie est 160 MeV par faisceau : c’est le premier d’une longue série d’anneaux qui eux furent des anneaux e+e- (VEPP2, VEPP-2M, VEPP4, etc.). Il est à noter que l’équipe russe de Novossibirsk est restée pendant plusieurs années dans un isolement total vis-à-vis des laboratoires de l’Europe de l’Ouest et des États-Unis. Au sein de cette équipe, c’est Vladimir Baier qui suggéra – de façon indépendante de Bruno Touschek – d’étendre le programme des collisions e-e- aux collisions e+e− dont la physique est beaucoup plus riche. Il est intéressant de noter que les trois collisionneurs « pionniers » (les anneaux doubles de Stanford et de VEPP1 ainsi qu’AdA) n’utilisent pas les techniques de guidage de particules les plus récentes pour l’époque. Leur but n’est pas tant d’obtenir un dispositif performant que de prouver la validité du concept de collisionneur et de tester les choix techniques permettant sa réalisation. L’exploitation scientifique sera assurée par la seconde génération de machines. Les collisionneurs électrons-positrons ÉLÉMENTAÍRE Démonstration de l’existence de collisions entre électrons et positrons par l’observation de la réaction e+ e− → e+ e− γ dans AdA. Le graphique montre le rapport (nombre de photons détectés)/(nombre de particules dans le faisceau 1) en fonction du nombre de particules dans le faisceau 2. Les points de mesure s’ordonnent selon une droite dont la pente est reliée à la performance du collisionneur, appelée luminosité. Plus cette quantité est élevée, plus le taux de collisions est grand. Le nombre de particules dans chaque faisceau est estimé en mesurant la lumière synchrotron qu’elles émettent lorsque leur trajectoire est courbée par un champ magnétique. Le bruit de fond résiduel explique l’observation de photons lorsque le nombre de particules dans le faisceau 2 est nul. page 41 Et, de fait, les collisionneurs e+e− se multiplient dans la seconde moitié des années 60. À Orsay, l’exploitation d’ACO (« Anneau de Collisions d’Orsay ») débute le 25 octobre 1965 ; l’énergie des faisceaux est de 520 MeV. En plus de la mise en évidence et de l’étude de nombreux phénomènes propres à la physique des accélérateurs, ACO permet des avancées sur la physique d’une classe de particules de spin 1 appelées mésons vecteurs. Après de nombreuses années d’exploitation, ACO trouvera une nouvelle jeunesse dans la production de lumière synchrotron ; la salle d’expérience et l’anneau lui-même sont aujourd’hui inscrits à l’inventaire supplémentaire des Monuments Historiques et ouverts aux visiteurs. En 1967, le laboratoire de Frascati met en service ADONE (« le gros AdA » en italien) dont l’énergie disponible en collision Les collisionneurs : révolution dans atteint les 3,1 GeV avec une luminosité améliorée. Les données recueillies montrent que le taux de production de hadrons (particules constituées de quarks), e+e− → hadrons, est au moins aussi important que celui des leptons, e+e− → µ+µ−, dont la théorie est alors bien établie. Ce résultat – confirmé ensuite par l’expérience « By Pass » située à Cambridge dans l’état du Massachusetts – est inattendu. On comprendra par la suite que les prédictions théoriques (inspirées par l’analyse des neutrons et des protons) n’étaient pas bien fondées. Ce domaine d’énergie n’avait d’ailleurs pas fini de surprendre les physiciens. En effet, après une longue période d’atermoiements bureaucratiques et plusieurs demandes de crédit rejetées, SLAC reçoit finalement un financement à l’été 1970 pour construire le collisionneur SPEAR (« Stanford Positron Electron Accelerating Ring », « Anneau accélérateur de positrons et d’électrons de Stanford »). Encore de taille modeste – un anneau simple de 80 mètres de diamètre construit sur un parking près du bout de l’accélérateur linéaire – il est terminé en 1972 et produit des faisceaux de 4 GeV d’énergie. En quelques années, les découvertes s’enchaînent : le méson J/Ψ en 1974 (formé de deux quarks d’un quatrième type encore inconnu, le charme) et le lepton τ en 1976, premier représentant de la troisième famille des constituants fondamentaux de la matière. En 1990, SPEAR est converti en une source intense de lumière synchrotron, le SSRL (« Stanford Synchrotron Radiation Light », « Source de rayonnement synchrotron de Stanford »), encore en fonctionnement aujourd’hui. L’Europe n’est pas en reste. À Orsay, l’anneau de stockage DCI (« Dispositif de Collisions dans l’Igloo », nom donné au bâtiment en forme de dôme situé au bout de l’accélérateur linéaire), fournit, dans les années 70, des produits de collisions au détecteur DM2 (« Détecteur Magnétique 2 ») qui réalise des mesures de précision sur les hadrons, en particulier sur le J/Ψ récemment découvert – le nombre d’événements collectés reste pendant longtemps le plus important au monde. Mais les avancées les plus spectaculaires ont lieu au laboratoire DESY, près de Hambourg en Allemagne. Au collisionneur e+e− en double anneau de 3 GeV, DORIS, s’ajoute en 1978 PETRA (« Positron Electron Tandem Ring Accelerator »). Cette machine est un vrai géant par rapport à ses prédécesseurs : 2300 mètres de circonférence ! En forme d’anneau, comme les machines e+e− précédentes, elle comporte huit sections droites : six pour les expériences et deux pour le système d’accélération R.F. Les particules sont créées par un accélérateur linéaire, accélérées jusqu’à 6 GeV dans le synchrotron de DESY avant d’être injectées dans PETRA. L’énergie des collisions atteint rapidement les 22 GeV (record mondial à l’époque) et montera ultérieurement jusqu’à 46,8 GeV. Énergie des collisions, en GeV. Section efficace de la réaction e+e− → hadrons (divisée par celle de production de muons e+e− → μ+ μ-) enregistrée par le détecteur MarkI sur le collisionneur SPEAR. Le pic correspond à la production du méson Psi (ψ) découvert simultanément à Brookhaven dans une expérience sur cible fixe (et appelé J). En moins de 1 MeV (soit une variation d’énergie inférieure au pourmille), la section efficace est multipliée par 100 avant de décroître presque aussi rapidement. La position du pic donne la masse de cette nouvelle particule, également appelée « résonance ». Dix jours après cette découverte, une seconde résonance – le « ψ prime » de masse 3,7 GeV/c2 environ – est observée à SPEAR (SLAC). page 42 En 1979, le CERN publie une étude portant sur un collisionneur e+e− d’une trentaine de kilomètres de circonférence. L’énergie prévue est de 70 GeV par faisceau avec des perspectives d’augmentation jusqu’à 100 GeV grâce à l’utilisation de cavités R.F. supraconductrices. Une fois accepté, ce projet devient le LEP (« Large Electron-Positron collider », « Grand collisionneur à électrons et positrons », voir «Expérience»). Les travaux de génie civil débutent en 1983 ; les premières collisions sont enregistrées le ÉLÉMENTAÍRE les accélérateurs de particules 13 août 1989 et l’accélérateur a été en service jusqu’en novembre 2000. Le LEP a ensuite été démonté et c’est dans son tunnel que l’installation du LHC se termine. Les collisionneurs électrons-positrons les plus performants actuellement sont les accélérateurs des « usines à B » Belle et BaBar : KEK-B au Japon (l’accélérateur le plus efficace au monde, à la fois en termes de taux de collisions instantané et du nombre total d’événements fournis depuis sa mise en service) et PEP-II en Californie (qui détient les records de courant dans chacun des deux faisceaux). Leur particularité principale est d’être asymétriques : l’énergie des électrons est environ trois fois plus importante que celle des positrons. Comme nous l’avons vu au début de l’article, cette différence produit un mouvement d’ensemble qui affecte tous les produits de la réaction, en particulier deux particules appelées mésons B auxquelles BaBar et Belle s’intéressent particulièrement. Leur durée de vie étant non nulle (mais très petite), la « pichenette » énergétique qu’elles reçoivent fait qu’elles parcourent une distance mesurable dans le détecteur avant de se désintégrer (à peine quelques millimètres). L’énergie perdue pour la collision est ici sans conséquence dans la mesure où ces expériences opèrent à une énergie fixée, bien inférieure aux records atteints par ces accélérateurs. Leur but n’est pas d’atteindre l’énergie la plus élevée possible mais d’augmenter autant que possible la luminosité, c’est-à-dire le taux d’événements. Collisionneurs protons-(anti)protons Lors d’une collision entre des particules ayant une structure interne (par exemple pp), le choc a lieu entre des composants de chaque particule (quarks ou gluons) qui n’emportent qu’une fraction de l’énergie totale – une fraction variable selon la collision. Accumuler les événements permet de balayer toute la gamme d’énergie disponible. De plus, la perte d’énergie par rayonnement synchrotron d’un proton suivant une trajectoire circulaire est bien plus faible que celle d’un électron : à puissance électrique égale, un collisionneur à protons peut donc atteindre des énergies plus élevées. Produire Les antiprotons sont obtenus par collision de protons de haute énergie sur une cible dense (par exemple en tungstène). Les particules produites ont alors des énergies et des trajectoires initiales très différentes les unes des autres, d’où la nécessité de les « mettre en forme » avant de pouvoir les utiliser. Sans cette étape essentielle, les quantités d’anti-protons disponibles pour des collisions seraient beaucoup trop faibles. Les collisionneurs hadroniques ÉLÉMENTAÍRE page 43 Historiquement les physiciens utilisèrent des électrons et des positrons dans les collisionneurs avant de se tourner vers les collisionneurs protons(anti)protons. L’utilisation de deux faisceaux de protons nécessite deux tubes à vide et un système magnétique très complexe pour que des particules de même charge puissent tourner en sens opposés ; quant aux anti-protons, il faut réussir à les produire en grande quantité et être capable de les organiser en paquets denses, d’énergie et donc de trajectoire Vue aérienne du site de DESY (près de Hambourg) avec, en pointillés, le dessin des différents collisionneurs : PETRA (collisionneur e+e− puis injecteur de HERA) et HERA (collisionneur e−p). Les cercles (désignés par les initiales des 4 points cardinaux en allemand) correspondent aux zones expérimentales. © DESY Les collisionneurs : révolution dans données. Néanmoins, aucune de ces difficultés ne s’est avérée rédhibitoire sur le long terme : toutes les configurations de collisionneurs ont été réalisées, la seule règle étant d’utiliser des particules stables et chargées. Le premier collisionneur pp est construit au CERN : l’ISR (« Intersecting Storage Rings », « Anneaux de stockage à intersections ») y fonctionne de 1971 à 1984. Les deux anneaux d’aimants concentriques font 300 m de diamètre et sont situés à environ 200 m du synchrotron PS d’où les protons sont extraits à une énergie allant jusqu’à 28 GeV. Un système accélérateur situé dans les sections droites des anneaux permet d’atteindre 31,4 GeV. Afin d’augmenter la densité de protons dans les anneaux, on « rassemble » plusieurs paquets injectés par le PS. La durée de vie des faisceaux atteint les 36 heures. Les antiprotons deviennent d’actualité dans la seconde moitié des années 70 grâce à la mise en œuvre d’un système d’asservissement inventé en 1968 par l’ingénieur du CERN S. Van der Meer : les écarts de trajectoire des paquets d’antiprotons qui circulent dans l’anneau sont observés en un emplacement particulier et atténués en un autre endroit où le signal de correction arrive avant les particules. Ainsi domptés, les antiprotons se laissent accumuler en nombre suffisant pour donner des collisions productives sur une longue période. Sous l’impulsion de Carlo Rubbia, le CERN transforme son synchrotron à protons SpS en un collisionneur - (le SppS) p-p dédié à la recherche des bosons W± 0 et Z . L’accélérateur atteint son but : le prix Nobel de physique 1984 récompense Rubbia et Van der Meer pour « leurs contributions décisives au grand projet qui a permis la découverte des bosons W et Z, médiateurs de l’interaction faible ». Par la suite, le laboratoire Fermilab (près de Chicago) se lance dans la construction d’un collisionneur p-p- géant, le Tevatron, qui, encore aujourd’hui, détient le record absolu d’énergie de collision (2 TeV, soit 2000 GeV !). Enfin, suivant une logique de « recyclage » propre à tous les grands complexes accélérateurs, DESY transforme son collisionneur PETRA en un injecteur pour le collisionneur électrons ou positrons (~30 GeV) contre protons (~820 GeV) HERA (« Hadron Electron Ring Accelerator », « Accélérateur en anneau hadrons-électrons ») dont la circonférence atteint 6,3 km. Les électrons permettent de sonder la structure des protons et d’étudier des détails de leurs comportements décrits plusieurs dizaines d’années auparavant mais jamais observés jusqu’alors. Après une très longue carrière, HERA a finalement été arrêté l’été dernier : le nouveau grand projet du laboratoire DESY consiste à construire et mettre au point une source cohérente et très brillante de lumière synchrotron dans le domaine page 44 Énergie des collisionneurs e+e− en fonction de leur date de mise en service (ou en projet). L’échelle verticale est logarithmique : chaque ligne horizontale correspond à une multiplication par dix de l’énergie. ÉLÉMENTAÍRE les accélérateurs de particules © LNF Bien qu’il n’ait pas encore été mis en service, le LHC est actuellement l’objet de toutes les attentions des physiciens nucléaires et des particules du monde entier. Repoussant les limites de la « frontière en énergie » (collisions à 14 TeV, 7 fois l’énergie record du Tevatron), il devrait permettre de découvrir la dernière pièce majeure du Modèle Standard à n’avoir pas reçu de confirmation expérimentale (le boson de Higgs) et mettre en évidence des effets nouveaux, certains prédits par les théories actuelles et, sans doute, d’autres tout à fait inattendus ! © INFN des rayons X, utilisée par exemple pour « observer » des phénomènes ultrarapides comme des réactions chimiques. L’expérience AdA à travers les âges : à gauche, en service en 1961 au laboratoire de Frascati ; au centre, en 1962 après son transfert au Laboratoire de l’Accélérateur Linéaire ; à droite en 2007, exposée sous une pyramide de verre à l’entrée du laboratoire de Frascati. ÉLÉMENTAÍRE Salle expérimentale « Pierre Marin » montrant l’anneau de collisions ACO (Orsay) conservé en l’état à destination du public. page 45 Les collisionneurs existent depuis un demi-siècle seulement mais ils ont révolutionné la physique des constituants élémentaires en permettant d’explorer des plages d’énergie toujours plus élevées et d’accumuler des quantités impressionnantes d’événements (plusieurs centaines de millions pour Belle et BaBar). Bien loin d’être rivaux, les différents types de machines se sont révélés complémentaires : ainsi, les bosons Z0 et – ont été étudiés en détail – au SppS, W±, découverts dans des collisions pp au LEP, collisionneur e+e−. Après la découverte du sixième (et dernier !?) – et les mesures de précision des usines à B (e+e−), quark au Tevatron (p-p) le LHC (pp) devrait bientôt apporter sa moisson de découvertes. Le XXIe siècle sera-t-il pour autant celui des anneaux de collisions ? Rien n’est moins sûr : la taille des accélérateurs et les pertes par rayonnement synchrotron apparaissent aujourd’hui comme des obstacles insurmontables pour la prochaine génération de collisionneurs circulaires à électrons. Il faudra donc probablement concevoir de nouveaux collisionneurs au lieu de reproduire en plus grand et en plus puissant les machines actuelles. Ainsi, le prochain projet mondial devrait être un collisionneur linéaire électron-positron de plusieurs centaines de GeV (l’ILC), formé de deux accélérateurs linéaires se faisant face et injectant des paquets de particules en collision frontale. La communauté des physiciens des hautes énergies a l’habitude de ces remises en question : nul doute qu’elle saura relever ce nouveau défi ! © ACO Un nouveau siècle commence Accélérateur Les accélérateurs co(s)miques À ce flux de particules neutres s’ajoutent des corpuscules chargés (pour 99% des noyaux atomiques, essentiellement de l’hydrogène et, en proportion moindre, de l’hélium ; 1% d’électrons), appelés « rayons cosmiques » de manière générique. On croyait initialement que ces particules étaient des sortes de photons, d’où l’emploi (erroné mais entré dans l’usage) du mot « rayon ». Leur étude, entamée avant la mise au point des premiers accélérateurs, se poursuit aujourd’hui avec un intérêt soutenu. Les champs magnétiques terrestre et solaire ainsi que l’atmosphère nous protègent des effets nocifs de ces rayonnements en déviant, éliminant ou atténuant les particules les plus énergétiques, potentiellement dangereuses. © Simon Swordy La Terre est bombardée en permanence par une multitude de particules venues de l’espace. Les plus familières sont certainement les photons émis dans le domaine du visible par le Soleil ou les autres étoiles et qui font partie de notre environnement. Mais ce sont loin d’être les seules : les progrès de la science dans la seconde moitié du XIXe siècle puis tout au long du XXe ont permis d’en découvrir beaucoup d’autres (voir Élémentaire N°3). Ainsi, le spectre électromagnétique ne se limite pas à la lumière visible ; des photons sont émis dans une très large gamme d’énergie qui va des ondes radio aux rayons X et γ en passant par les microondes, l’infrarouge, toutes les nuances de l’arc-en-ciel et l’ultraviolet. Ils sont parfois associés à des phénomènes violents, courants à l’échelle de l’Univers mais au sujet desquels les scientifiques ont encore beaucoup à apprendre : noyaux actifs de galaxie (AGNs), sursauts gamma... Spectre du rayonnement cosmique. Ce graphique montre le nombre de particules chargées d’énergie donnée arrivant sur Terre par seconde, par m2 et provenant d’une direction donnée. Les deux échelles (énergie sur l’axe horizontal, flux de particules en vertical) sont logarithmiques, ce qui veut dire que chaque (grande) graduation correspond à une variation d’un facteur 10. Entre le haut et le bas de la courbe, l’énergie des particules est multipliée par près de mille milliards tandis que leur nombre est divisé par dix mille milliards de milliards de milliards (ouf !) environ. Si réaliser un tel spectre est un vrai défi sur le plan expérimental, interpréter le résultat obtenu se révèle tout aussi complexe. Au premier abord la courbe paraît très régulière : elle suit assez bien la forme d’une loi de puissance, représentée sur la figure par les pointillés noirs. En fait, elle comporte plusieurs structures qui reflètent la diversité des sources de rayons cosmiques ainsi que celle des mécanismes assurant leur accélération bien au-delà de ce que les accélérateurs « terrestres » les plus performants peuvent produire. Ainsi quelques particules produisant une énergie au moins égale à celle des collisions protonsprotons dans le LHC (14 TeV) arrivent chaque heure sur une surface d’un kilomètre carré. Le spectre des rayons cosmiques Intéressons-nous plus particulièrement aux rayons cosmiques qui arrivent sur Terre de manière individuelle et incohérente, en provenance de sources multiples ; leur spectre est riche d’enseignements. Ensuite, la variation du flux de rayons cosmiques en fonction de l’énergie est, en première approximation, simple ; chaque fois que l’énergie est multipliée par 10, le nombre de particules incidentes est divisé par un facteur compris entre 500 et 1000. Cette loi est qualitativement conforme à l’intuition : plus un rayon cosmique est énergétique, plus il doit être rare. De manière plus quantitative, on passe de plusieurs centaines de particules par mètre carré et par seconde à moins d’une par kilomètre ÉLÉMENTAÍRE page 47 Tout d’abord ces particules couvrent une gamme d’énergie considérable : plus de treize ordres de grandeur (un facteur dix mille milliards !) entre les deux extrémités du spectre. Les rayons cosmiques les moins énergétiques subissent l’influence du champ magnétique et du vent solaire tandis que les plus puissants créent des gerbes géantes de particules lors de leur interaction avec l’atmosphère. Les difficultés d’estimer précisément l’énergie de tels événements et leur rareté suscitent de nombreuses discussions – voire des controverses – au sein de la communauté des physiciens. Les accélérateurs co(s)miques carré et par an quand l’énergie s’approche de sa valeur maximale. Le spectre contient également quelques structures, détaillées plus avant dans l’article. page 48 Le match Technologie / Nature Sur le plan de l’énergie absolue, la Nature gagne sans contestation possible : le plus puissant des accélérateurs, le LHC, atteindra « seulement » des énergies de 1,4×1013 eV lors des collisions proton-proton et de 2,8×1012 eV par nucléon lorsque les noyaux d’hydrogène seront remplacés par des ions plomb quelques semaines par an. L’énergie d’un rayon cosmique, elle, peut dépasser 1019 eV ! Par contre, la technologie reprend l’avantage au niveau du nombre de particules accélérées (trois cent mille milliards de protons circuleront simultanément dans le LHC), de la fréquence de répétition des événements (40 millions de collisions par seconde, toujours au LHC) et surtout grâce à sa capacité à générer les collisions là où elles doivent se produire pour être observables dans leurs moindres détails, c’est-à-dire au centre des détecteurs ! La technologie est également plus « économique » que la Nature : grâce aux collisionneurs (voir Élémentaire N°6) l’énergie des particules circulant dans le LHC est bien inférieure à celle que doit avoir un rayon cosmique pour que sa collision avec un proton terrestre (au repos) produise autant d’énergie. - Pour obtenir une énergie de collision Ecollision = 14 TeV, l’énergie des protons du LHC doit valoir E = 7 TeV (les énergies des deux particules impliquées dans le choc s’ajoutent). - Dans le cas d’une collision rayon cosmique – proton « terrestre » au repos (d’énergie équivalente Mc2 ≈ 1 GeV), il faut E ≈ (Ecollision)2/(2Mc2) ≈ 105 TeV, soit quatorzemille fois plus ! Enfin, les rayons cosmiques les plus énergétiques sont du genre « costauds ». Leur énergie peut atteindre celle emmagasinée par une balle de tennis de 57 g lancée à 85 km/h soit 32 Joules, ou 1020 eV. Les meilleurs accélérateurs de particules, pourtant à la pointe de l’innovation technologique, font pâle figure par rapport à ces records « 100% naturels ». Comprendre les mécanismes à l’origine de telles accélérations, trouver les sources d’énergie sans lesquelles ces phénomènes ne pourraient se produire, ou découvrir de nouvelles particules dont la désintégration serait à l’origine de certains rayons cosmiques, sont trois des questions que se posent actuellement les physiciens spécialistes des « astroparticules », c’est-à-dire des particules élémentaires en provenance de l’espace. Contrairement aux photons, certains rayons cosmiques ont une charge non nulle ce qui les rend sensibles aux champs électriques et magnétiques présents dans le cosmos. Cette caractéristique importante est à l’origine de mécanismes d’accélération spécifiques . À basse énergie (jusqu’à 1010 eV environ), le flux de rayons cosmiques est sensible au vent solaire, un plasma chargé (protons, électrons, noyaux d’hélium, etc.) émis par notre étoile à une vitesse d’environ 400 km/s. Celui-ci crée un puissant champ magnétique dont l’effet se fait sentir dans tout le système solaire et qui dévie une grande partie des particules chargées incidentes. Au-delà, le flux en fonction de l’énergie E varie en « loi de puissance », c’est-à-dire qu’il est proportionnel à E-γ. Expérimentalement, γ = 2,7 jusqu’à 1015 eV environ avant de passer brusquement à 3,1 – le flux chute. Cette transition est appelée poétiquement le « genou » par les physiciens, jamais en mal d’inspiration pour donner des noms à leurs observations ! Le taux décroît donc plus fortement sur plus de trois ordres de grandeur avant de « ralentir » vers 1019 eV. Sans surprise, cette seconde structure se nomme la « cheville ». Des particules d’énergies aussi diverses sont nécessairement créées par des processus très différents. Jusque vers 1018 eV, elles sont issues de notre galaxie. Au-delà, elles viennent probablement de régions de l’Univers plus lointaines car le champ magnétique galactique ne parvient pas à maintenir de tels projectiles suffisamment longtemps dans la Voie Lactée pour qu’ils aient une chance de croiser la Terre sur leur chemin. En fait, la plupart des rayons cosmiques subissent l’influence de nombreux champs magnétiques sur leur parcours ; ceux-ci dévient leur trajectoire, rendant très difficile, voire impossible, l’identification des sources. Expérimentalement, leur distribution sur le ciel apparaît isotrope avec une précision de un pour mille. Pour les particules les plus énergétiques, la situation est différente : un article récent de l’expérience AUGER semble montrer un lien entre rayons cosmiques et noyaux actifs de galaxies. Au-delà de ces énergies, le faible nombre de rayons cosmiques et les possibles biais dans la mesure de l’énergie compliquent l’interprétation ÉLÉMENTAÍRE Les accélérateurs co(s)miques Un article récent de l’expérience AUGER des résultats expérimentaux. Une contrainte forte est apportée par des calculs théoriques qui prédisent une énergie limite – appelée « coupure GZK » en l’honneur des trois physiciens Kenneth Greisen, Georgi Zatsepin et Vadem Kuzmin qui déterminèrent sa valeur en 1966. En effet, les rayons cosmiques les plus énergétiques interagissent avec les photons du CMB ce qui limite leur énergie pour peu qu’ils aient parcouru une distance suffisante. D’autre part, on ne connaît aucune source qui soit assez puissante pour produire de telles particules et suffisamment proche pour que la coupure GZK ne s’applique pas. La conjonction de ces deux éléments fait qu’on ne devrait observer aucun rayon cosmique d’énergie supérieure au seuil GZK. Or une expérience basée au Japon (AGASA) et qui a pris des données de 1990 à l’an 2000 a annoncé avoir détecté une douzaine de rayons cosmiques qui, d’après l’argument précédent, ne devraient pas exister ! La question de savoir si ces événements sont réels ou si leur énergie a été surestimée par les mesures a agité pendant plusieurs années la communauté des physiciens, dans l’attente des résultats de l’expérience Auger. Finalement publiées mi-2008, ces mesures donnent raison à une expérience antérieure, HiRes, et montrent que la coupure GZK est bien présente : le taux de particules décroît très fortement au niveau du seuil en énergie. AUGER (voir Élémentaire N°3) a récemment publié une étude des premiers rayons cosmiques de très haute énergie enregistrés dans ses détecteurs. Sa conclusion, basée sur une trentaine d’événements d’énergie supérieure à 57 × 1018 eV environ, est que ces particules ont tendance à provenir de sources « peu éloignées » (moins de 75 Mpc, soit en-dessous de la « coupure GZK » dont nous parlons dans un encadré voisin) et que leurs directions (observables car ces rayons cosmiques sont peu déviés par les champs magnétiques du cosmos) sont proches de celles de noyaux actifs de galaxie (AGNs) déjà connus. Bien que ce résultat ne soit encore basé que sur une tendance statistique – si les sources sont isotropes, les observations d’Auger sont peu probables mais pas impossibles – il est intéressant car les AGNs sont considérés par ailleurs comme de bons candidats pour produire de tels rayons cosmiques. Cette hypothèse sera confirmée ou invalidée lorsque plus de données seront analysées dans les prochaines années, réduisant ainsi les incertitudes statistiques sur ces mesures. Mais qu’est-ce qui fait courir les rayons cosmiques ? ÉLÉMENTAÍRE Projection de la sphère céleste; les cercles noirs de rayon 3,1 degrés montrent les directions d’arrivée des 27 rayons cosmiques les plus énergétiques (énergie supérieure à 57 × 1018 eV) détectés par la collaboration Auger. L’expérience est sensible à la partie du ciel en bleu : la Terre masque les autres directions. Les points rouges montrent les 472 (!) AGNs connus situés à moins de 75 millions de parsec (Mpc, 1 parsec = 3,6 annéeslumière). La comparaison précise de ces cartes indique une corrélation entre elles (à confirmer avec plus de données) ; en particulier, rayons cosmiques et noyaux actifs de galaxie semblent se concentrer autour du plan matérialisé par la ligne pointillée et qui contient un grand nombre de galaxies proches de la nôtre. page 49 Coupure GZK À partir d’une énergie très élevée (de l’ordre de 6×1019 eV pour des protons), un rayon cosmique interagit avec les photons du rayonnement fossile. À chaque collision, des particules (les pions) sont produites et emportent une partie de l’énergie disponible – 15% environ. Lentement (une interaction tous les quinze millions d’années en moyenne) mais sûrement (une telle particule peut voyager des centaines de millions d’années) le processus se poursuit jusqu’à ce que l’énergie du rayon cosmique passe en dessous du seuil d’interaction. En conséquence, pour chaque type de rayon cosmique, il existe une distance de propagation critique (plusieurs centaines de millions d’années-lumière pour un proton) au-delà de laquelle l’énergie de la particule est forcément inférieure au seuil GZK, et ce quelle qu’ait pu être son énergie initiale. © The Auger collaboration Les rayons cosmiques étant chargés, ils interagissent avec les champs électromagnétiques qu’ils rencontrent sur leur parcours. Les zones où ces champs sont présents sont de taille astronomique (étoiles, nébuleuses, trous noirs etc.) ; il est donc logique que des particules microscopiques puissent parfois acquérir une énergie colossale en les traversant. Dès la fin des années 1940, Enrico Fermi s’intéresse aux mécanismes d’accélération des rayons cosmiques. En 1948 il propose Les accélérateurs co(s)miques DR une théorie basée sur des chocs avec des nuages de gaz se comportant comme des miroirs magnétiques, phénomène également à l’origine des ceintures de Van Allen qui entourent la Terre. Lorsque miroir et particule vont l’un vers l’autre (se suivent), la particule accélère (ralentit) après le choc. Comme le premier type de collisions est plus probable que le second (il est plus « facile » de croiser des objets qui viennent en sens inverse que de rattraper ceux qui se déplacent dans la même direction), les rayons cosmiques gagnent de l’énergie en moyenne. La variation relative de l’énergie est alors proportionnelle au carré de la vitesse des nuages – on parle d’accélération de Fermi du second ordre. Si ce phénomène donne bien un spectre d’énergie en loi de puissance, il a également plusieurs problèmes qui le rendent irréaliste. Tout d’abord il est trop lent : les rayons cosmiques devraient être au moins dix fois plus vieux que ce qui est effectivement observé. Ensuite, il demande une énergie initiale importante (sans laquelle le mécanisme s’inverse et ralentit la particule). Enfin, il faut effectuer un ajustement fin (et donc peu naturel) des paramètres du modèle pour s’approcher du spectre en énergie observé. Malgré ces défauts, la théorie de Fermi est passée à la postérité car elle contient la bonne idée : le gain d’énergie s’obtient par réflexions multiples. À la fin des années 1970, plusieurs équipes de chercheurs ont proposé, de manière indépendante, un nouveau mécanisme d’accélération. Une particule traversant une onde de choc voit son énergie augmenter d’un terme proportionnel à la différence entre les vitesses de propagation du milieu interstellaire avant et après le choc. Si des miroirs magnétiques sont situés de part et d’autre de cette frontière, le rayon cosmique se Effet du mécanisme GZK sur des protons cosmiques d’énergies supérieures à 1020 eV. Leur énergie décroît en fonction de la distance parcourue – comptée en Mpc – à cause des interactions avec les photons du CMB et la variation est d’autant plus rapide que l’énergie est élevée. Au-delà d’une certaine distance de propagation, quelques centaines de Mpc dans le cas du proton, les particules ont des énergies très voisines bien qu’elles aient été initialement très différentes. Cela signifie que l’énergie d’un proton qui a parcouru un trajet aussi long ne peut excéder une valeur limite, de l’ordre de 6×1019 eV et appelée « coupure GZK ». trajectoire en spirale de la particule chargée Ceintures de Van Allen Un miroir magnétique est une configuration particulière d’un champ magnétique dont l’effet est de ralentir, puis de réfléchir les particules chargées incidentes – dont les énergies peuvent parfois augmenter par ce mécanisme. Ce phénomène peut se produire lorsque l’intensité du champ magnétique varie le long des lignes de champ, ce qui est par exemple le cas pour le champ magnétique terrestre, plus fort au niveau des pôles. Les ceintures de Van Allen, du nom du scientifique américain qui a interprété les données des premiers satellites qui les ont traversées, sont ainsi une conséquence directe de cet effet. Il s’agit de zones en forme d’anneau regroupant des particules chargées qui font sans cesse l’aller-retour entre les deux pôles de notre planète où elles sont immanquablement réfléchies par ces « miroirs ». Chaque traversée dure de l’ordre d’une seconde mais une particule donnée peut rester prisonnière de ces régions pendant plusieurs années. Terre Page d’un carnet de notes d’Enrico Fermi datée du 4 décembre 1948 et contenant son modèle d’accélération des rayons cosmiques par des nuages de gaz agissant comme miroirs magnétiques. Moins de quatre semaines plus tard Fermi enverra un article au journal scientifique « Physical Review » qui le publiera en avril 1949. Bibliothèque de l’Université de Chicago. ligne de champ magnétique page 50 © B. Mazoyer points miroir Ni les hommes ni les circuits électroniques ne résisteraient à un séjour prolongé dans les ceintures de Van Allen dont la présence doit donc être prise en compte avec soin lors de la préparation de missions spatiales. Comme les pôles géographiques et magnétiques ne sont pas alignés (l’écart est d’environ 11 degrés) et que les deux axes associés (rotation et magnétique) sont décalés d’environ 450 km, les ceintures de Van Allen ne sont pas à la même altitude partout sur la Terre. Ainsi, l’endroit où ce flot de particules est le plus proche du sol est localisé à la verticale du Brésil. Cette « anomalie magnétique de l’Atlantique Sud » a nécessité la pose d’un blindage supplémentaire sur la station spatiale internationale dont l’orbite passe parfois au travers de cette région. De même, le télescope spatial Hubble et le satellite GLAST-Fermi éteignent leurs instruments lorsqu’ils traversent cette zone. Dans tous les cas, il s’agit de se protéger des dommages que pourraient causer cette densité inhabituelle de particules chargées. Pas d’inquiétude au niveau du sol : les ceintures de Van Allen ne s’approchent pas à moins d’une centaine de km d’altitude. Il n’est donc pas nécessaire de mettre un heaume de chevalier pour visiter Copacabana ! ÉLÉMENTAÍRE les accélérateurs co(s)miques Dix fois plus vieux L’âge des rayons cosmiques est estimé en regardant l’abondance relative de noyaux radioactifs. Ceux-ci se désintègrent au cours du temps selon un rythme qui leur est propre ; comparer leurs abondances relatives permet de situer le moment où ils ont été créés. retrouve au milieu d’une partie de flipper géante et accélère chaque fois qu’il la traverse. Les calculs montrent que cette accélération de Fermi du premier ordre (proportionnelle à la vitesse du choc et non pas à son carré) « colle » mieux à la réalité même si elle est loin d’expliquer tous les phénomènes observés. Ce domaine d’étude, au confluent de nombreuses disciplines, est actuellement en plein développement. Il progresse grâce à des avancées théoriques (mises au point de modèles complexes et prenant en compte toujours plus de phénomènes) et numériques : une fois les équations écrites, il faut encore les résoudre de manière approchée avec des ordinateurs gourmands en temps de calcul. Le but est de modéliser de manière précise les ondes de choc et, par voie de conséquence, les événements qui les produisent dans l’Univers. Pour les rayons cosmiques d’origine galactique, les ondes de choc générées par des supernovæ sont de bons « candidat-accélérateurs ». En comparant le taux de ces phénomènes (quelques-unes par siècle) à la densité de particules mesurée (de l’ordre de 1 eV/cm3), on montre qu’une dizaine de pourcents de l’énergie émise par ces explosions d’étoiles suffisent pour alimenter la production de ces particules. Le gain d’énergie peut atteindre 1000 eV/s pendant plusieurs centaines d’années d’affilée, ce qui est beaucoup mais insuffisant pour rendre compte de l’ensemble du spectre des rayons cosmiques. D’autres mécanismes doivent y contribuer mais les observations ne permettent pas actuellement de trancher entre les candidats potentiels. Le diagramme de Hillas est une manière commode de caractériser les différentes sources possibles au moyen de leur champ magnétique B et de leur taille L. En effet, l’énergie apportée à un rayon cosmique de charge q est forcément inférieure au produit qBcL, l’énergie maximale, où c est la vitesse de la lumière dans le vide. En faisant des hypothèses sur le rendement du processus, on obtient les relations que doivent satisfaire B et L pour fournir des énergies données – des droites en échelle doublement logarithmique. En plus des noyaux actifs de galaxie déjà mentionnés plus haut dans l’article, les sursauts gamma (voir « ICPACKOI »), voire les étoiles à neutrons, pourraient accélérer une partie des rayons cosmiques de (très) haute énergie. V v © B. Mazoyer v + 2V Analogie entre le mécanisme d’accélération de Fermi et le tennis. page 51 ÉLÉMENTAÍRE © B. Mazoyer Énergie maximale : une particule de charge q et d’énergie E, plongée dans un champ magnétique B, décrit un cercle dans le plan perpendiculaire à l’axe de ce champ. Le rayon R de cette trajectoire est donné par R=E/qBc. Ce mouvement se fait sans gain d’énergie. Le champ B, présent dans la zone d’accélération sans en être responsable, limite l’énergie acquise par la particule à cause de la relation écrite cidessus. Pour que l’accélération ait lieu, il faut que le rayon R de la trajectoire reste plus petit que la taille caractéristique L de la zone où ce processus a lieu. On obtient alors directement la valeur maximale Emax de l’énergie : R ≤ L => E ≤ Emax= qBcL. Diagramme de Hillas montrant la relation entre champ magnétique et taille pour différentes sources potentielles de rayons cosmiques de haute énergie (les deux échelles sont logarithmiques). Les droites rouges illustrent l’exemple de protons d’énergie 1020 eV (trait plein) ou 1021 eV (pointillés) ; la droite verte montre le cas d’ions Fer d’énergie 1021 eV. Les accélérateurs co(s)miques Une onde de choc est une perturbation qui se propage dans un milieu. Les deux régions séparées par cette zone (en amont et en aval du choc) ont des propriétés très différentes. Ainsi lors d’une explosion, une bulle de gaz à très haute pression se forme tandis que l’air extérieur reste à la pression atmosphérique. D’autres exemples d’ondes de choc sont le « bang » supersonique émis par un avion lorsqu’il passe le mur du son ou la lumière Cerenkov (Élémentaire N°4) qui apparaît lorsqu’une particule chargée traverse un milieu à une vitesse supérieure à celle qu’aurait la lumière dans ce matériau. Puisque nous parlons beaucoup de champs magnétiques dans l’article, on peut également mentionner la zone où le vent solaire rencontre le champ magnétique terrestre. Cette onde de choc a été observée pour la première fois le 7 octobre 1962 à 15h46 temps universel par Mariner 2, alors en route pour Vénus. Comme le montre le graphique ci-dessous, le champ magnétique mesuré par la sonde spatiale augmente brutalement lorsque celle-ci quitte le bouclier magnétique terrestre pour se retrouver avec le vent solaire turbulent de face. © MPIfR / A. Jessner Ce photomontage présente d’une part (à gauche) une image de la nébuleuse du Crabe dans la constellation du Taureau et d’autre part (à droite) des photographies (ordonnées par colonne) illustrant le cycle d’émission du pulsar central, une étoile à neutrons créé par l’explosion d’une supernova en 1054. Selon l’instant de la prise de vue, le pulsar (au-dessous et à droite de l’étoile fixe) est « allumé » ou « éteint ». Tous ces clichés ont été pris avec le télescope Mayall de 4 mètres de l’observatoire du Kitt Peak (Arizona). Et les particules neutres ? © The HESS Collaboration Au contraire des particules chargées, sans cesse soumises à l’action de champs électriques et magnétiques, les particules neutres se propagent en ligne droite sans réellement subir l’influence du milieu interstellaire. Elles apportent donc des témoignages plus fidèles sur leurs sources et les mécanismes d’accélération associés. Les photons (rayons X ou gamma) et les neutrinos sont des produits secondaires d’interaction entre protons tandis que les électrons peuvent également rayonner des photons par effet synchrotron lorsque leurs trajectoires sont courbées par des champs magnétiques. De nombreuses expériences, déjà opérationnelles ou encore en préparation, sont dédiées à la détection des particules neutres de haute énergie. Pour les photons, il faut soit aller dans l’espace (satellite GLAST-Fermi, voir «ICPACKOI») soit utiliser un réseau d’antennes au sol (télescope HESS en Namibie). Pour les neutrinos, toujours aussi discrets, il faut de grands volumes d’eau (projet ANTARES au large de Toulon, voir Élémentaire N°5) ou de glace (expériences Amanda puis IceCube, voir Élémentaire N°3). Observées de tous côtés, les particules énergétiques qui nous arrivent en provenance de l’espace finiront bien par dévoiler leurs secrets. page 52 Étoile à neutrons Comme son nom l’indique, il s’agit d’un astre composé presque exclusivement de neutrons. Une étoile à neutrons a un rayon d’une dizaine de kilomètres et « pèse » environ 1,4 masse solaire : sa densité (de l’ordre du milliard de tonnes/cm3) est donc phénoménale. Elle résulte de l’effondrement gravitationnel d’une étoile en fin de vie qui a fini de brûler tout son combustible nucléaire : une supernova. HESS « High Energy Stereoscopic System » (HESS) est un réseau de télescopes situés en Namibie et qui utilise la lumière Cerenkov produite par les gerbes de particules chargées qui apparaissent lorsqu’un photon très énergétique interagit dans l’atmosphère. HESS étudie ainsi en détail les sources connues de rayons gamma (comme le pulsar du Crabe) et permet également d’en découvrir de nouvelles grâce à son excellente sensibilité. ÉLÉMENTAÍRE Accélérateur Les accélérateurs de particules du futur Les grands accélérateurs de demain se préparent aujourd’hui : chaque nouveau projet nécessite des développements technologiques importants et de gros investissements, tant en ressources qu’en personnel. En conséquence, le temps séparant l’idée d’un nouvel appareillage de sa réalisation puis de sa mise en service s’allonge considérablement et peut facilement dépasser la dizaine d’années. Ainsi, certains chercheurs travaillaient déjà au début des années 1990 sur ce qui allait devenir le LHC alors que l’exploitation scientifique de cet accélérateur n’a véritablement commencé que le 30 mars dernier. En parallèle, le concept de « Super-LHC » (SLHC) génère déjà un effort soutenu de recherche-développement (R&D) dans de nombreux laboratoires : il s’agit de voir comment les performances nominales du LHC (que l’accélérateur mettra certainement plusieurs années à atteindre) pourraient être améliorées de manière significative à l’échelle d’une dizaine d’années. On parle d’une multiplication par dix du taux de collision ce qui augmenterait d’autant la quantité de données enregistrées par les expériences ATLAS et CMS. © ILC De nombreux projets d’accélérateurs sont donc actuellement sur la table. Tous ne sont évidemment pas au même stade d’avancement. Certains n’existent que sur le papier ou peinent à trouver un nombre suffisant de « supporters ». La limitation des moyens humains, techniques et financiers rend nécessaire un arbitrage au niveau mondial ; pour l’Europe, c’est le CERN qui établit les priorités au niveau scientifique. Certaines collaborations ont déjà rassemblé assez de main-d’œuvre pour commencer à tester les technologies nécessaires pour atteindre leurs objectifs. Cette phase de validation s’accompagne de l’écriture de rapports techniques très détaillés qui permettent ensuite d’obtenir un financement des organismes de tutelle et l’implication de laboratoires importants. Schéma de l’ILC : une fois produits, les paquets d’électrons (en bleu), sont « mis en forme » dans un anneau de stockage avant d’être envoyés au départ de la section d’accélération. Cette dernière comporte une déviation qui permet de récupérer une partie des électrons qui sont envoyés sur une cible faite dans un matériau dense (comme le tungstène) pour produire des positrons (en vert). Ces derniers sont ordonnés en paquets homogènes dans un anneau de stockage similaire à celui des électrons avant d’être accélérés dans la seconde section droite. Les deux faisceaux se rencontrent finalement au centre du détecteur. page 40 Le projet de « futur collisionneur linéaire » au sens large a un statut assez particulier : considéré depuis des années comme l’accélérateur à construire en priorité pour aller au-delà des résultats du LHC, son coût et sa complexité ralentissent son développement, tout comme les retards du calendrier du grand collisionneur du CERN – les caractéristiques de cette nouvelle machine dépendront en partie des découvertes faites au LHC. L’ILC (« International Linear Collider ») bénéficie néanmoins de l’implication de nombreux groupes de par le monde (environ 300 équipes, soit plus de 700 personnes travaillant sur l’accélérateur et plus de 900 sur les projets de détecteurs) ce qui lui permet de continuer à aller de l’avant malgré les difficultés. Actuellement, aucun nouveau projet de grand accélérateur n’a été formellement accepté et financé. ÉLÉMENTAÍRE Les accélérateurs de particules du futur Rayonnement synchrotron Lorsqu’une particule chargée se déplace dans un champ magnétique le long d’une trajectoire courbe, elle suit un mouvement non uniforme au cours duquel elle perd de l’énergie sous forme de rayonnement synchrotron. Le taux auquel ce phénomène se produit est proportionnel à la quantité 1 E 4 × r2 mc2 Pourquoi construire de nouveaux accélérateurs ? La réponse est évidente : pour mieux comprendre la structure de la matière et le monde des particules élémentaires. Pour atteindre ce but, il faut mettre au point des dispositifs expérimentaux susceptibles de révéler une physique nouvelle tout en étant technologiquement au point et suffisamment « bon marché » pour déboucher en quelques années sur des réalisations concrètes. Plusieurs directions sont explorées en parallèle : • l’accumulation de quantités plus importantes de données afin d’améliorer la précision des résultats actuels, ou de chercher des effets rares auxquels les expériences d’aujourd’hui ne sont pas sensibles ; • l’augmentation de l’énergie des collisions pour produire des particules plus massives ou en plus grand nombre ; • l’utilisation de particules différentes (muons ou photons) dans les collisionneurs ou de faisceaux très intenses de neutrinos pour accéder à de nouveaux tests du Modèle Standard ou étudier des effets inaccessibles auparavant. ( ) Dans la suite, nous passons en revue un certain nombre de projets, sans chercher à établir une hiérarchie tranchée entre eux ni pronostiquer lesquels seront effectivement réalisés. Dans tous les cas, les « heureux gagnants » auront certainement évolué entre maintenant et leur mise en service. Relire cet article d’ici une dizaine d’années – et comparer son contenu à la situation réelle de la physique des hautes énergies à ce moment-là – vaudra certainement le détour ! Le « futur » collisionneur linéaire Si les résultats du LHC sont encore à venir, on sait déjà que les études du boson de Higgs ou de la Nouvelle Physique ne pourront être menées que si les collisions électron-positron atteignent ou dépassent l’énergie de 500 GeV, soit un gain d’un facteur 2,5 ou plus par rapport au record du LEP (209 GeV). On apprécie encore mieux le défi à relever si l’on se souvient que ces particules légères perdent de l’énergie par rayonnement synchrotron lorsqu’elles circulent dans des anneaux de stockage. Cet effet augmente très rapidement avec l’énergie des faisceaux si bien que la technologie des collisionneurs circulaires doit être abandonnée pour les électrons, faute ÉLÉMENTAÍRE page 41 Pour prolonger les découvertes espérées au LHC – boson(s) de Higgs, particules ou effets au-delà du Modèle Standard, etc. – les physiciens peuvent utiliser les informations produites lors de collisions à hautes énergies entre des électrons et des positrons. En effet, contrairement aux protons, ces particules sont élémentaires et leurs interactions produisent des événements moins compliqués et plus propices à des mesures précises. Cette séparation entre « collisionneurs à découvertes » (pp ou pp) et « machines de précision » (e+e−) n’est pas nouvelle : les bosons W± et Z0, médiateurs avec le photon (γ) de l’interaction électrofaible, ont été - en 1983 avant d’être étudiés au LEP - (collisions pp) découverts au SppS (collisions e+e−) de 1989 à 2000 – voir Élémentaire 6. où E est l’énergie de la particule, m sa masse et r le rayon de la trajectoire de la particule. La puissance quatrième intervenant dans le premier facteur fait que la perte d’énergie augmente très vite avec l’énergie du faisceau et est beaucoup plus importante pour des électrons que pour des protons par exemple. Doubler l’énergie multiplie la perte par 16 et cette dernière est, à énergie constante, 11 mille milliards de fois plus importante pour un faisceau d’électrons que pour un faisceau de protons. C’est pour cela que le « L » (pour « Linéaire ») de « ILC » et « CLIC » (voir page suivante) est aussi important : déjà, lors de la première phase du LEP, les électrons perdaient à chaque tour 180 MeV sous forme de radiation synchrotron. D’où la complexité et la puissance du système de compensation d’énergie mis en place pour maintenir l’accélérateur en fonctionnement nominal. La seconde phase du LEP a vu l’énergie des collisions augmenter de manière importante (de 92 à 209 GeV) mais il est impossible technologiquement de continuer dans cette voie. Pour atteindre voire dépasser 500 GeV il faudrait construire un collisionneur immense ou limiter de manière drastique les courants de particules en circulation dans l’anneau. La perte d’énergie par rayonnement synchrotron se manifeste dès qu’il y a une accélération. Ainsi, une particule qui gagne de l’énergie dans un accélérateur linéaire grâce à la présence d’un champ électrique est également soumise à cet effet. Cependant, la puissance rayonnée reste négligeable devant celle qui est communiquée à la particule pour tous les accélérateurs actuels et futurs. En effet, le rapport entre ces deux quantités vaut: Prayonnée / Pcommuniquée ~ 4 10 -15 × champ accélérateur (MeV/m). Contrairement au cas des accélérateurs circulaires, ce résultat ne dépend pas de l'énergie du faisceau. Les accélérateurs de particules du futur de pouvoir compenser les pertes qui affecteraient les particules à chaque tour. Un champ électrique de 30 millions de volts par mètre correspond à environ dix fois la valeur dite « de claquage » au-dessus de laquelle l’air devient conducteur, ce qui se traduit par la formation d’éclairs. Ce phénomène dangereux est évité dans les accélérateurs en maintenant l’appareillage sous un vide poussé, ce qui permet également de minimiser les chocs entre les particules et les molécules d’air résiduelles. Une solution consiste donc à maintenir électrons et positrons sur une trajectoire rectiligne, ce qui ne va pas sans poser quelques problèmes. En effet, à énergies finales égales, un accélérateur circulaire est moins long qu’une machine linéaire puisqu’une augmentation importante de l’énergie peut être obtenue par l’accumulation de petites accélérations produites chaque fois que les particules traversent une zone particulière de l’anneau. De plus, cette configuration permet d’utiliser les mêmes faisceaux pendant longtemps et de produire de nouvelles collisions à chaque tour. Dans le cas d’un accélérateur linéaire, les paquets de particules sont perdus après un seul passage au centre du détecteur. Schématiquement, le futur collisionneur électrons-positrons « ILC » sera donc composé de deux sections rectilignes en face-à-face. Pour limiter leur taille, le champ électrique accélérateur devra dépasser les 30 millions de volts par mètre grâce à l’utilisation de technologies supraconductrices. Néanmoins, les sections mesureront tout de même près de 15 km de long pour une énergie de collision de 500 GeV ! Dans un second temps, cette valeur pourra être doublée pour atteindre 1 TeV ; ce gain sera obtenu en augmentant la valeur des champs électriques et en allongeant les sections accélératrices d’une dizaine de kilomètres chacune. Technologies supraconductrices Pour créer des champs électromagnétiques puissants il faut des courants électriques élevés. À température ambiante, tous les composants des circuits ainsi que les fils dissipent de l’énergie par effet Joule. Si cette propriété est bien utile pour fabriquer des radiateurs, les pertes qu’elle provoque limitent les possibilités des accélérateurs. Pour la contourner, il faut employer des matériaux supraconducteurs (par exemple des alliages à base de niobium) et descendre à des températures très basses de quelques degrés au-dessus du zéro absolu. Dans ces conditions, l’effet Joule et ses inconvénients associés — en particulier l’émission de chaleur — disparaissent dans les supraconducteurs et toute la puissance électrique peut être utilisée par les technologies accélératrices. Puisque les particules produites ne sont utilisées que lors d’un seul croisement des faisceaux (elles sont ensuite canalisées hors de la région d’interaction puis dirigées sur des blocs absorbeurs), il convient de s’assurer que ce dernier a lieu dans de bonnes conditions et produit en moyenne autant de collisions que possible. Pour cela, électrons et positrons sont regroupés dans des paquets contenant chacun environ 10 milliards de particules et dont la taille est compressée au maximum au point d’interaction : 5 nanomètres de haut pour 640 de large à l’ILC ! Les difficultés associées sont multiples : produire plus de cent mille milliards de positrons chaque seconde (on attend environ 14 000 croisements page 42 © Kérec d'après J.P. Delahaye Schéma montrant le principe d’accélération de CLIC : le « faisceau de puissance » d’électrons, très intense mais d’énergie limitée à quelques GeV au plus, circule parallèlement au faisceau principal qui doit être accéléré d’une dizaine de GeV à 1,5 TeV. Les transferts d’énergie du premier faisceau (ralenti) vers le second (accéléré) ont lieu dans des zones dédiées, réparties le long de la longue section droite accélératrice. ÉLÉMENTAÍRE Les accélérateurs de particules du futur Refroidir La température d’un gaz est reliée à l’agitation microscopique des molécules qui le composent. Plus sa température est élevée, plus le mouvement associé est énergétique. Par analogie, la mise en forme de paquets de particules, processus au cours duquel leurs propriétés sont uniformisées avec une grande précision, est appelée « refroidissement ». Toute la difficulté est de réduire la dispersion en énergie tout en maintenant les paquets denses. de paquets par seconde) ; les refroidir ; les transporter tout au long du collisionneur ; enfin s’assurer que les deux minuscules faisceaux se croisent bien au centre du détecteur. Si l’ILC est le projet de collisionneur linéaire de nouvelle génération le plus avancé – la phase de R&D devrait se terminer en 2012 avec la publication d’une description complète de l’accélérateur et du détecteur – il n’est pas le seul. La collaboration CLIC (« Compact LInear Collider »), dans laquelle le CERN joue un rôle moteur, étudie une technologie complètement différente, potentiellement prometteuse mais dont la faisabilité demande à être démontrée. Dans ce schéma, dit « à deux faisceaux », la puissance nécessaire pour accélérer le faisceau principal est puisée dans un autre faisceau très intense d’électrons relativistes qui circule en parallèle. Le ralentissement de ce faisceau de puissance produit de l’énergie qui est fournie au faisceau principal sous forme d’impulsions radiofréquence (RF). En théorie, une machine d’une cinquantaine de kilomètres de long au total (comme quoi, le mot « compact » n’a pas le même sens en physique des particules que dans le langage courant !) pourrait fournir des collisions électrons-positrons à 3 TeV. © INFN CLIC a plusieurs années de retard par rapport à l’ILC (sa phase d’étude est prévue pour durer jusqu’à 2016) mais, sur le papier, ses performances pourraient être supérieures. Les deux projets sont donc en concurrence directe – « il ne devra en rester qu’un ! » – ce qui ne va pas sans tension étant donnés les enjeux liés au futur collisionneur linéaire. Heureusement, le climat s’est détendu ces dernières années avec la reconnaissance de synergies entre les deux collaborations, concrétisée par la création de groupes de travail communs et la signature conjointe de déclarations d’intention. Si au final les deux technologies apparaissent viables, le choix dépendra des résultats du LHC : selon ce que les scientifiques auront appris de la Nouvelle Physique, ils seront à même de dire quel accélérateur correspond le plus à l’orientation qu’ils veulent donner à leurs recherches. Implantation proposée (en rouge) pour l’accélérateur SuperB sur le site du laboratoire de Frascati au sud de Rome. C’est la voie suivie par les « usines à mésons B » de première génération – BaBar aux États-Unis et Belle au Japon – qui ont collecté des données ÉLÉMENTAÍRE page 43 Comment faire pour obtenir des informations sur le contenu d’une boîte fermée par un cadenas ? La manière la plus naturelle est de l’ouvrir pour regarder à l’intérieur. Si l’on n’a pas la clef, on peut casser la boîte et identifier les morceaux éparpillés pour découvrir ce qu’elle cachait : c’est la stratégie des collisionneurs hadroniques comme le LHC. Mais on peut aussi procéder de manière plus indirecte (et moins violente) en agitant la boîte : le bruit produit apporte des renseignements sur son contenu. Mais l’information obtenue est seulement partielle : différents scénarios de Nouvelle Physique peuvent provoquer des bruits très similaires. Il faut donc réaliser le plus de tests possible pour faire un tri entre les différents modèles en concurrence. Schéma de l’accélérateur Super KEK-B avec le détecteur Belle-2. Au premier plan on peut voir la zone où les faisceaux d’électrons puis de positrons (obtenus après collisions d’électrons sur une cible) sont produits et mis en forme avant d’être injectés dans les deux tubes à vide du collisionneur (en jaune) qui se croisent au centre du détecteur (cylindre rouge sur fond bleu en haut à droite). Les objets colorés le long de l’anneau représentent les aimants de courbure et les zones d’accélération des particules. © KEK Les super usines à mésons B Les accélérateurs de particules du futur au cours de la décennie 2000. Ces expériences réalisent des collisions électron-positron à une énergie particulière (environ 10,6 GeV), nettement inférieure aux records du LEP, mais qui permet d’étudier une classe de particules, les mésons B, produits en abondance à cette énergie grâce à la présence d'une résonance le ϒ(4S) qui se désintègre en BB. Les nombreux résultats obtenus par ces deux collaborations ont bénéficié des performances des deux accélérateurs associés, PEP-II et KEK-B, qui ont battu des records de luminosité : des milliards de collisions intéressantes ont été enregistrées. Malgré leurs efforts, ni BaBar ni Belle n’ont réussi à mettre en échec le Modèle Standard : tous les tests effectués donnent des résultats en accord avec ses prévisions, une fois les incertitudes théoriques et de mesure prises en compte. Pour avoir une chance de voir leur quête couronnée de succès, les prochaines expériences devront donc chercher à mettre en évidence de petits effets ou des corrections très fines à des quantités bien connues. Cela passe nécessairement par l’accumulation de plusieurs dizaines de fois plus d’événements que BaBar ou Belle n’en ont enregistré. Pour parvenir à ce résultat en seulement quelques années de prise de données, il faut des accélérateurs bien plus « généreux » : les « super-usines à mésons B » actuellement en phase de R&D tablent sur une luminosité (et donc un taux de collision) 100 fois supérieure aux records actuels. Luminosité En physique des particules, chaque processus susceptible de se produire lors d’une collision, par exemple l’annihilation d’un électron et d’un positron en une paire de muons de charges opposées, a une certaine probabilité d’occurrence. Dans une expérience, le taux de ce processus (c’est-à-dire le nombre de fois où il se produit chaque seconde) est égal à cette probabilité multipliée par une quantité appelée luminosité. Plus elle est élevée, plus l’accélérateur est productif. La luminosité est proportionnelle au courant des faisceaux qui circulent dans les tubes à vide et augmente lorsque la section des paquets diminue. Elle dépend donc beaucoup de la qualité du guidage des particules au point de croisement et du contrôle que les opérateurs de l’accélérateur ont des propriétés des faisceaux à cet endroit. Deux voies sont possibles pour parvenir à ce résultat : soit augmenter fortement les courants des deux faisceaux, soit conserver les courants au niveau de ceux atteints à PEP-II et KEK-B de manière routinière et jouer sur d’autres paramètres pour augmenter la luminosité. La première solution a de nombreux désavantages : plus les faisceaux sont intenses, plus ils sont difficiles à contrôler, plus la puissance électrique nécessaire (et donc le coût de fonctionnement de l’accélérateur) est élevée et plus le bruit de fond parasite induit par leur passage est important. C’est pourquoi un consensus s’établit autour de la seconde alternative, portée par le projet SuperB à dominante italienne et à laquelle la collaboration Belle-2 qui se fédère autour de groupes japonais semble se rallier après avoir exploré l’autre voie en profondeur. Des simulations numériques, validées en 2008-2009 par des tests sur l’accélérateur de plus basse énergie (collisions à 1,02 GeV) DAΦNE, situé à Frascati au sud de Rome, ont montré qu’il était possible de créer et de contrôler des « micro-faisceaux » d’électrons et de positrons très denses. Ces faisceaux sont comprimés au point de croisement pour donner des « nano-faisceaux » afin d’obtenir la probabilité de collisions la plus élevée possible. Ces développements promettent des gains de luminosité importants et valables sur de longues périodes. page 44 SuperB et Belle-2 travaillent actuellement d’arrache-pied à la définition des caractéristiques de leurs accélérateurs et des détecteurs associés. Ces derniers devront en effet être capables de « digérer » un flot colossal de données tout en maintenant pendant au moins cinq ans un niveau de performances aussi bon que ceux atteints par BaBar et Belle. ÉLÉMENTAÍRE Les accélérateurs de particules du futur Collisionneurs à muons & usines à neutrinos Le muon – voir « Détection » – est le lepton chargé de la seconde famille des particules élémentaires. Cousin de l’électron, il est environ 207 fois plus massif que ce dernier et donc bien moins sujet aux pertes d’énergie par rayonnement synchrotron. Ainsi, un collisionneur de muons à une énergie de 4 TeV (valeur suffisante pour potentiellement révéler des effets inaccessibles au LHC puisque les muons sont des particules élémentaires alors que les collisions entre protons font intervenir leurs constituants, les quarks, qui n’emportent chacun qu’une fraction de l’énergie totale) ne ferait que deux kilomètres de diamètre environ, soit 4 fois moins que le LEP/LHC. De plus, le taux de production directe du boson de Higgs (H) lors de collisions leptonantilepton (e+e−→H ou μ+μ−→H par exemple) est proportionnel au carré de la masse des leptons. Cette propriété permettra peutêtre de produire des bosons de Higgs en abondance dans un collisionneur muon-muon. Bien que ce défi semble rédhibitoire, il a été relevé par différentes équipes de chercheurs, en particulier américaines, qui travaillent sur un tel projet de collisionneur. Une compagnie privée, Muons Inc., implantée à Batavia près du laboratoire Fermilab, promeut même ce type d’accélérateurs ainsi que les technologies associées. Si le calendrier d’une telle machine est encore plus lointain que celui de l’ILC (on parle d’un démarrage de la prise de données autour de 2030), la phase de R&D bat actuellement son plein. ÉLÉMENTAÍRE page 45 Les muons n’existant pas en quantité abondante dans la nature, il faut donc commencer par les produire. Pour cela on utilise des protons accélérés à quelques dizaines de GeV qu’on envoie sur une cible de mercure. Parmi les produits de ces collisions on trouve des pions chargés qui sont sélectionnés à l’aide d’un très fort champ magnétique (de l’ordre de 20 teslas). Ces mésons, instables également, se désintègrent presque toujours en une paire muon + antineutrino muonique. Cette procédure de conversion protons → muons a un rendement de l’ordre du pourcent et fournit des particules aux propriétés très hétérogènes : le faisceau ainsi produit ressemble à une « grosse patate » dont les particules sont éparpillées sur une distance de l’ordre du mètre. De plus, les impulsions des muons ont une dispersion de presque 100% autour de la valeur la plus probable qui est de l’ordre de 200 MeV/c. Implantation possible pour un collisionneur à muons sur le site de Fermilab, délimité par les pointillés. La partie en vert correspond à la production des muons suivie de leur organisation en paquets homogènes. Ces particules sont ensuite accélérées dans le « circuit » bleu où des neutrinos sont émis à mesure que des muons se désintègrent. Enfin, la partie rouge correspond à l’anneau de collisions où les faisceaux énergétiques se croisent en deux emplacements où sont installés des détecteurs. © Fermilab Alors, dans le muon, tout est bon ? En fait il y a un hic de taille : le muon n’est pas une particule stable… Sa durée de vie est même plutôt courte : 2,2 μs au repos et seulement 42 ms à 2 TeV une fois les effets relativistes pris en compte ! Toute la difficulté du collisionneur à muons découle de cette remarque : comment créer, mettre en forme et exploiter au mieux une quantité suffisante de ces particules, le tout en quelques centièmes de seconde ? Les accélérateurs de particules du futur γ À ce stade, il faut donc « freiner » les particules les plus rapides et « pousser » les plus lentes pour les grouper en paquets denses, puis « refroidir » le faisceau (étape qui, pour éviter de perdre trop de temps, devra avoir lieu en quelques microsecondes, soit sur une distance de 500 mètres environ), et enfin accélérer l’ensemble dans une série d’accélérateurs linéaires et de synchrotrons. Au final, le but est d’injecter de l’ordre de 1014 muons par seconde dans l’anneau où ils produiront des collisions pendant quelques centaines de tours, jusqu’à ce que la plupart de ces particules se soient désintégrées. e- γ Même après s’être désintégré, un muon reste intéressant. En effet, il donne un électron et surtout deux neutrinos, un antineutrino électron et un neutrino mu. Un collisionneur à muons est donc également une « usine à neutrinos » dont les faisceaux, très intenses et produits dans de longues sections droites dédiées, permettraient d’améliorer la connaissance de ces particules encore largement mystérieuses. Une idée serait d’envoyer ces faisceaux vers des détecteurs éloignés de plusieurs milliers de kilomètres afin d’étudier leurs oscillations (ICPACKOI). Si le coût d’un collisionneur à muons est considéré comme trop élevé au moment de décider de sa réalisation, une possibilité intermédiaire serait de se rabattre sur une « simple » usine à neutrinos. Un grand nombre des composants de l’accélérateur est commun aux deux approches (production et mise en forme des faisceaux de muons, anneaux de stockage, zones rectilignes pour obtenir beaucoup de neutrinos, etc.) mais le dispositif coûteux permettant aux paquets d’entrer en collision efficacement ne serait pas nécessaire ; de plus, accélérer les muons à 50 GeV (au lieu de 2 TeV) suffirait pour ce type d’application. + e Bien que les photons soient de masse nulle, ils transportent une énergie importante qui, lors d’une collision photon-photon est convertie pour partie en énergie de masse : les particules créées sont massives. L’énergie restante est distribuée aux produits de la collision (ici γγ donne e+e−). Dans un collisionneur à photons des électrons (en rouge) interagissent avec des photons du laser (en bleu). Ceuxci, déviés et devenus énergétiques, entrent en collision (vert) au centre du détecteur (non représenté ici). page 46 Exemples de motivation pour construire un collisionneur photon-photon Par exemple, le boson de Higgs tel qu’il est décrit par le Modèle Standard peut être créé directement lors d’une collision γγ (deux photons s’annihilent en un boson de Higgs et rien d’autre) alors que sa « fabrication » dans un collisionneur de matière (e+e− comme l’ILC ou pp comme le LHC) demande donc plus d’énergie. De plus, les paires de particules chargées (bosons W, quark et antiquark top, etc.) sont produites plus abondamment dans un collisionneur γγ : les processus mis en jeu ne sont pas les mêmes que lors de l’interaction électron-positron par exemple. Un autre élément à prendre en compte pour ce type d’accélérateur est la radioactivité qu’un tel équipement pourrait induire. Celle-ci se manifeste à deux niveaux, l’un assez classique et l’autre plutôt inattendu. Tout d’abord, les collisions entre le faisceau intense de protons et la cible de mercure produisent beaucoup de neutrons. Leur flux équivaut à, voire dépasse, celui d’une centrale nucléaire et nécessite donc une protection spécifique. Dans le même ordre d’idée, l’accélérateur doit être enterré suffisamment profondément (une centaine de mètres environ) pour que tous les muons soient absorbés avant d’arriver à la surface en cas de perte complète d’un faisceau. Plus surprenant, le flux des neutrinos produits est également potentiellement dangereux. Bien que ces particules n’interagissent presque pas avec la matière (ce qui explique pourquoi elles passent quasiment inaperçues même dans les détecteurs les plus performants), leur nombre est tellement élevé (de l’ordre de mille milliards de milliards par an) que la radioactivité accumulée n’est pas négligeable. À l’endroit où le faisceau sort de terre avec une taille d’environ un mètre carré, le taux mesuré annuellement serait comparable au seuil d’exposition maximum du personnel qualifié travaillant dans un grand laboratoire comme le CERN ! Cet emplacement devra donc être choisi avec soin (et clairement signalé) si une telle machine devait être construite un jour : le mieux serait qu’il soit à l’intérieur du périmètre réservé, toujours mis en place pour ce genre d’installation. ÉLÉMENTAÍRE Les accélérateurs de particules du futur Collisionneur à photons photon Parmi les propositions d’accélérateurs exotiques, certains utilisent des faisceaux de photons pour les collisions : ce sont les collisionneurs e-g ou gg. Comme toujours, la motivation pour construire de telles machines est à chercher au niveau de la physique. De plus, étudier les mêmes réactions dans des environnements très différents donne des points de vue complémentaires sur leurs caractéristiques et permet donc de mieux les comprendre. électron Le photon est une particule stable, abondante dans l’Univers. Par contre, sa neutralité électrique oblige les scientifiques à ruser pour obtenir des collisions satisfaisantes puisque les photons sont insensibles aux champs électriques et magnétiques utilisés pour accélérer et piloter les paquets de particules chargées dans les accélérateurs. Un collisionneur γγ utilise donc deux faisceaux d’électrons, conditionnés et guidés pour se croiser au point d’interaction, au centre du détecteur. Quelques millimètres avant cet endroit, les électrons interagissent par diffusion Compton inverse avec un laser ; les photons ainsi produits emportent une fraction importante de l’énergie des particules incidentes tout en se propageant globalement dans la même direction que ces dernières — les électrons sont finalement déviés hors du détecteur par de puissants champs magnétiques. Des collisions ont donc lieu, avec une luminosité comprise entre 15 et 30 % de celle du collisionneur de leptons correspondant. Le laser, d’une puissance de 100 kW environ, émet un flash de quelques joules d’énergie synchronisé avec le passage des paquets de particules chargées. Comme chaque diffusion affecte 1 photon sur 1 milliard en moyenne, sa lumière est stockée dans une cavité optique afin d’être réutilisée, le taux de croisement étant de l’ordre de 15000 par seconde. L’effet Compton est la diffusion d’un photon sur une particule de matière, par exemple un électron appartenant au nuage électronique d’un atome. Sous l’effet du choc, le photon est dévié et son énergie modifiée, ce qui se traduit par un changement de la fréquence de l’onde électromagnétique associée. Ce phénomène a été baptisé en l’honneur du physicien américain Arthur Compton qui l’a utilisé pour prouver expérimentalement l’existence du photon. La diffusion Compton inverse est la même réaction, mais on rajoute cet adjectif lorsque c’est l’électron qui est plus énergétique que le photon (et vient donc lui « taper dessus »), lui transmettant en partie son énergie et sa quantité de mouvement. Les difficultés d’un tel collisionneur sont nombreuses. Au point énergie de pompage d’interaction, il y a un mélange de collisions photon-photon, photon- miroir totalement électron, photon-positron et électron-positron. De plus, il faut éviter que réfléchissant les paquets d’électrons ou de positrons (perturbés par leur traversée du faisceau laser faisceau laser et dont les particules se retrouvent avec des énergies très milieu amplificateur variées) ne finissent leur course dans le détecteur, au risque de brouiller miroir semila signature de la collision γγ, voire d’endommager les instruments de réfléchissant mesure. ÉLÉMENTAÍRE page 47 Un laser est un appareil qui produit une lumière très particulière. Les photons qui la composent ont tous des propriétés voisines : on parle de cohérences spatiale et temporelle. Cette lumière, obtenue par émission stimulée (un phénomène qui permet de multiplier le nombre de photons d’énergie donnée en les faisant interagir avec les électrons du « milieu amplificateur », des molécules de gaz bien sûr mais également des liquides, des solides ou des plasmas), est maintenue dans une cavité optique par des miroirs partiellement réfléchissants afin que l’amplification ait lieu à chaque passage des photons réfléchis au travers du gaz. Ce processus est analogue à l’effet Larsen qui survient lorsque micro et haut-parleur sont trop rapprochés : un bruit, même très atténué, est capté par le micro puis retransmis par le haut-parleur et donc capté à nouveau par le micro. Le processus se poursuit, produisant à la fin un son désagréable caractéristique. La lumière laser a des propriétés extrêmement intéressantes qui expliquent son exploitation tant dans les laboratoires de recherche que dans l’industrie ou le commerce. La gamme de longueurs d’onde dans laquelle on peut créer des lasers s’allonge sans cesse : des microondes, on est passé à l’infrarouge, puis au visible, à l’ultraviolet et finalement aux rayons X. 2010 est l’année du cinquantenaire du laser – le premier fut mis en service en Californie en mai 1960 par Theodore Maiman. De nombreuses manifestations sont organisées à cette occasion – voir le site http://50ansdulaser.com/ pour plus de détails. Les accélérateurs de particules du futur Taux de collision élevé La probabilité que deux particules entrent en collision décroît comme l’inverse du carré de l’énergie de la collision. Toutes choses égales par ailleurs, accroître l’énergie d’un collisionneur fait donc automatiquement baisser le taux d’événements enregistrés. Pour compenser ce tour joué par la Nature, les équipes qui travaillent sur des projets d’accélérateurs s’efforcent d’augmenter en proportion la luminosité, c’est-à-dire les conditions dans lesquelles les collisions ont lieu : paquets plus denses, courant plus élevé dans les faisceaux, etc. Les nouvelles machines sont donc plus complexes à mettre au point et plus difficiles à piloter ce qui se traduit en particulier par de forts bruits de fond. Une simulation informatique de la future expérience FACET utilisant deux paquets d’électrons. L’avant du premier paquet ionise de la vapeur de lithium pour créer un plasma ; ensuite le cœur du paquet produit le sillage dans le plasma (contours verts). Le second paquet (en rouge) va surfer sur le sillage et être accéléré au double de son énergie initiale en environ 1 mètre. page 48 © FACET Plasma Dans des conditions normales, un gaz est formé de molécules neutres. Si on lui apporte suffisamment d’énergie, par exemple en le chauffant, on peut briser ces molécules, produisant ainsi un plasma, un milieu dans lequel circulent des charges électriques libres, positives (ions) comme négatives (électrons). Celles-ci interagissent entre elles. Elles sont sensibles aux champs électromagnétiques extérieurs et en créent elles-mêmes de nouveaux ! Elles permettent également la conduction du courant, ce qui donne aux plasmas des propriétés particulières. Il y a des plasmas naturels (étoiles, aurores polaires, éclairs, etc.) et d’autres artificiels : dans certaines lampes, dans l’industrie des matériaux (par exemple pour réaliser des soudures), ou encore dans les réacteurs d’étude de la fusion nucléaire. Bien que le coût d’un collisionneur spécialisé dans les collisions γγ soit annoncé par ses promoteurs comme étant inférieur à celui de l’ILC, seule une minorité de physiciens souhaite qu’un tel accélérateur voie le jour avant le futur collisionneur linéaire dont le champ d’action est plus vaste. Un compromis consisterait à construire cette dernière machine de façon à la modifier pour que des photons puissent également y entrer en collisions – le surcoût associé devrait être limité. Par contre, des études de prospective à très long terme semblent privilégier un collisionneur gamma-gamma multi-TeV par rapport à son équivalent électron-positron (ou muon-antimuon d’ailleurs). En effet, les équations décrivant de telles machines leptoniques n’ont pas de solution satisfaisante : impossible de conjuguer un taux de collision élevé avec un niveau de bruit de fond et une consommation électrique raisonnables. Utiliser des photons pourrait permettre de diminuer le bruit de fond (un des problèmes principaux pour tous les nouveaux concepts d’accélérateurs) et de résoudre ces mêmes équations. Tous ces éléments sont encore spéculatifs : ils devront être confirmés ou rejetés par des études futures. Accélération de particules par plasma Les accélérateurs de particules d’aujourd’hui doivent atteindre des énergies si élevées que, malgré les progrès continus et importants des dispositifs d’accélération, leur taille ne cesse d’augmenter. Ainsi, comme nous l’avons vu plus haut, les projets ILC et CLIC devraient faire plusieurs dizaines de kilomètres de long. C’est pour cela que d’autres voies sont aujourd’hui explorées, avec comme objectif d’obtenir un gradient d’accélération bien supérieur – et donc de raccourcir la taille des futures machines. Une piste intéressante, suivie par des équipes européennes et américaines, consiste à utiliser un plasma. Un tel milieu est riche en charges libres, positives comme négatives, qui se déplacent au hasard. Si on arrive à les ordonner de manière à créer une onde électromagnétique cohérente dans le plasma, celle-ci pourrait accélérer très violemment (jusqu’à mille fois les capacités d’un accélérateur linéaire actuel) un paquet de particules chargées le traversant, à la manière d’un surfeur profitant d’une vague parfaite. Prenons comme exemples les projets californiens FACET (au SLAC) et BELLA (à Berkeley) qui ont récemment bénéficié d’un financement supplémentaire dans le cadre du plan de relance américain. • FACET : un paquet dense d’électrons créé dans l’accélérateur linéaire de SLAC pénètre dans une zone contenant un gaz, par exemple du lithium. L’avant du paquet, fortement chargé, crée le plasma ; un sillage de charges s’y forme et est repoussé à mesure que le paquet progresse. L’inhomogénéité de charges à l’intérieur du plasma (défaut/ excès de charges négatives devant/derrière le paquet) crée un fort champ électromagnétique qui accélère l’arrière du paquet. En 2007, l’énergie des électrons a ainsi été doublée en moins d’1 m (42 à 85 GeV en 84 cm), au prix toutefois d’une perte significative au niveau de l’homogénéité du ÉLÉMENTAÍRE Les accélérateurs de particules du futur paquet puisque les particules à l’avant ont été ralenties. De nouvelles expériences sont en préparation dont le but est d’obtenir le même genre d’effet mais avec deux paquets séparés : le premier génèrerait le plasma et le champ accélérateur dont bénéficierait le second pour lequel les propriétés (densité, etc.) seraient ainsi préservées lors de la phase de gain d’énergie. © Berkeley • BELLA : l’expérience utilise un laser qui produit des impulsions très courtes mais extrêmement puissantes (50 fois plus que la foudre). La lumière laser est injectée dans un plasma d’hydrogène où elle produit un sillage d’électrons similaire à celui observé à SLAC. Par contre, les particules accélérées sont des électrons libres du plasma lui-même. L’objectif du programme est double : tout d’abord passer de 0 à 10 GeV en 80 cm (soit l’équivalent d’un champ accélérateur de 12 à 13 milliards d’électron-volts par mètre), puis ensuite faire fonctionner dix accélérateurs de ce type l’un derrière l’autre pour arriver à 100 GeV, l’ensemble produisant au final des paquets de particules plus denses que dans le cas de FACET. Une équipe au travail sur le laser de 40 térawatts de Berkeley. Le laboratoire Louis Leprince-Ringuet (LLR), situé sur le campus de l’École Polytechnique, travaille également sur des expériences d’accélération par laser, en collaboration avec le groupe SPL du Laboratoire d’optique appliquée (LOA) de l’ENSTA (École Nationale Supérieure de Techniques Avancées). En particulier, GALOP (Groupe d’Accélération par LAser et Ondes Plasma) a observé en 2008 que les paquets d’électrons accélérés par onde plasma peuvent avoir une dispersion en énergie inférieure au pourcent. De nombreuses avancées technologiques seront nécessaires pour que ce type d’accélération atteigne une maturité suffisante dans la prochaine décennie. Néanmoins, le jeu en vaut la chandelle car l’objectif est d’obtenir un champ électrique accélérateur de plusieurs GeV/m voire plusieurs dizaines de GeV/m sur une longue distance permettant d’atteindre l’énergie souhaitée. Ces valeurs sont à comparer aux objectifs de l’ILC (30 MeV/m) et de CLIC (60 MeV/m). Comparaison des tailles des collisionneurs de particules, en service (LHC) ou étudiés (ILC, CLIC, un collisionneur à muons et le VLHC). Dans cette vue d’artiste, les différents accélérateurs sont tous implantés sur une image satellite d’une partie de la côte du Lac Michigan (USA), région où est situé le laboratoire Fermilab visible sur la gauche. En conclusion, de nombreux projets d’accélérateurs sont actuellement dans les cartons, à des stades de développement plus ou moins avancés. En plus des difficultés techniques liées à la mise au point de leur machine, la plupart de ces équipes doivent résoudre des difficultés plus terre-àterre : trouver des gens disponibles pour y travailler, des financements et un laboratoire d’accueil qui fasse consensus. Le « Projet X », porté par Fermilab, n’a pas ce problème : il s’agit d’un accélérateur à protons de 8 GeV qui servira à la physique des neutrinos et de banc-test pour des activités de R&D liées aux collisionneurs à muons ou au « très grand collisionneur à hadrons » (VLHC), un hypothétique et lointain successeur des accélérateurs LHC et SLHC. ÉLÉMENTAÍRE page 49 Et bien d’autres encore … Le « Projet X » doit renouveler en profondeur le complexe accélérateur de Fermilab ce qui explique qu’il ait été difficile de lui donner un nom porteur de sens dès le début, d’où le choix, temporaire pensait-on, de la lettre « X » pour le désigner. Avec le temps cette dénomination a fait son chemin, les scientifiques appréciant la part de mystère qui lui est attachée. Bien que le projet soit beaucoup mieux défini aujourd’hui, il est probable qu’il garde son nom initial(e) !