ECOLE DES MINES DOUAI ______________ CHARBONNIER (Mathieu) CHARYK (Julien) ETUDE BIBLIOGRAPHIQUE Matière et Antimatière : Comment l’infiniment petit permet-il d’expliquer la création de l’Univers ? Promotion 2009 Année scolaire 2005-2006 2 3 Remerciements Nous tenons à remercier notre marraine d’étude bibliographique, Mme Nadine Locoge, Enseignante-chercheur du département Chimie & Environnement pour sa coopération et sa disponibilité. Avertissement Certaines sources, notamment des sites Internet ou l'ouvrage des frères Bogdanov, controversés dans le milieu scientifique, et cités dans cette étude, peuvent sembler refléter un manque de rigueur de notre part. Toutefois, afin de prévenir ces abus, toute source « litigieuse » a soigneusement été vérifiée, ou n'a été utilisée que pour en tirer un graphique, une représentation qui nous semblait pertinente des faits admis par une grande partie de la communauté scientifique. La physique des particules est un vaste domaine, qui n'a pas encore été pleinement exploré et compris par les physiciens. Les découvertes à venir dans ce domaine sont encore importantes, et permettront sans doute d'expliquer davantage les phénomènes que l'on peut observer. L'étude proposée n'est donc qu'une approche de ce sujet, telle qu'on peut le faire à notre époque, d'après ce qui est admis par la communauté scientifique, ou ce qui est prévu, mais non observé encore. Il en va de même au sujet du Big Bang, qui n'est à ce jour qu'une théorie qui n'a pas encore connu son aboutissement, car elle révèle encore certaines imperfections. De plus, certains chapitres comme le Théorème de Noether peuvent sembler superflus. Ils nous ont, toutefois, paru importants en raison de leur « poids » pour l’avancée de la recherche, ou des connaissances. 4 5 Sommaire Remerciements - Avertissement.................................................................................. 3 Sommaire.................................................................................................................... 5 Résumé....................................................................................................................... 7 Abstract....................................................................................................................... 9 Introduction ................................................................................................................. 11 I. Les constituants de l’atome ...................................................................13 I.1. Evolution du modèle atomique de l'Antiquité à nos jours ....................15 I.1.a. I.1.b. I.1.c. Les premières notions liées à la matière .............................................. 15 Les progrès scientifiques aux XVIIème et XVIIIème siècles ...................... 15 Le XIXème siècle ou le triomphe de l'atome ........................................... 16 I.2. Les différents modèles atomiques....................................................... 17 I.2.a. I.2.b. I.2.c. I.2.d. Le modèle de Thomson........................................................................ 17 Le modèle de Rutherford...................................................................... 17 Le modèle de Bohr............................................................................... 17 Le modèle actuel, de Schrödinger ........................................................ 18 I.3. Les théories physiques actuelles ........................................................19 I.3.a. I.3.b. I.3.c. La physique relativiste.......................................................................... 19 La physique quantique ......................................................................... 21 Unification de ces deux théories........................................................... 23 I.4. Du modèle standard aux propriétés des particules élémentaires........25 I.4.a. I.4.b. I.4.c. Introduction .......................................................................................... 25 Le modèle standard et la classification des particules .......................... 26 Les interactions fondamentales............................................................ 32 I.5. Les interactions particulaires et les limites du modèle standard..........34 I.5.a. I.5.b. I.5.c. I.5.d. I.5.e. Les lois de conservation....................................................................... 34 La représentation (ou diagramme) de Feynman................................... 35 Les interactions entre particules........................................................... 35 La désintégration du proton.................................................................. 38 Les limites du modèle standard ............................................................ 41 II. Les accélérateurs de particules...................................................................43 II.1. Les accélérateurs linéaires..................................................................46 II.1.a. Les accélérateurs électrostatiques ....................................................... 46 II.1.b. Les accélérateurs de type Wideroë ou Alvarez..................................... 47 II.2. Les accélérateurs circulaires...............................................................48 II.2.a. Cyclotron.............................................................................................. 49 II.2.b. Synchrotron.......................................................................................... 50 II.3. Large Hadron Collider (LHC)...............................................................52 II.4. Conclusion ..........................................................................................54 6 III. Le Big Bang ................................................................................................... 55 III.1. La théorie du Big Bang........................................................................57 III.2. Les limites de la théorie.......................................................................63 III.3. Le futur instrument de recherche, le GLC ...........................................64 III.3.a. Un nouveau type d’accélérateur linéaire............................................... 64 III.3.b. A quoi cela va-t-il servir ? ..................................................................... 65 Conclusion.........................................................................................................67 Références Bibliographiques............................................................................. 69 Annexes.............................................................................................................71 7 Résumé Comment expliquer l’origine de la matière, et des grands astres qui nous entourent ? Les physiciens répondent actuellement à cette question en avançant l’explication du Big Bang, qui n’est pour l’instant qu’une théorie limitée. Pour comprendre ce grand mécanisme originel de tout ce qui est, il nous faut revenir à la structure particulaire de la matière. Les progrès observés dans ce domaine ces dernières années sont en effet les plus importants jamais réalisés. Ils nécessitent d’ailleurs souvent l’élaboration de nouveaux modèles physiques. La meilleure illustration est peut-être que ce champ de recherche était encore inconnu il y a quelques décennies. Planck ne dit-il pas lui-même, à la fin du XIXème siècle, que les sciences avaient atteint un niveau tel qu’il ne restait que « quelques chiffres à ajouter après la virgule », avant de révolutionner les perceptions physiques ? Les physiciens tentent ainsi de remonter toujours plus loin dans le temps, en découvrant l’organisation de la matière à l’aide de dispositifs tels que les accélérateurs de particules. Ces derniers permettent, en effet d’explorer la matière en détail, et de détecter les particules élémentaires la constituant. Les recherches permettront peut-être, un jour, d’expliquer ce qui s’est réellement passé lors de la formation de l’Univers il y a quelques 15 milliards d’années… Mots matières : - Matière - Antimatière - Particules - Accélérateurs de particules - Atome - Interactions - Big Bang - Univers 8 9 Abstract How to explain the origin of matter, and of big stars that surround us ? Physicists now answer this question by arguing the Big Bang theory, which is just a limited one for the moment. In order to understand this mechanism, basis of everything that is, we have to study the elementary particles of matter. In fact, progresses made in this field in the recent years are the most important ever realized. Besides, they often need the elaboration of new models. Maybe that the best illustration of this phenomenon is that this field of research was unknown a few decades ago. Didn’t Planck himself say, at the end of the 19h century, that Science have reached such a level, that they just remain «a few numbers to add after the comma», before revolutionizing physics. Scientists forever want to go back far and far away in the time, discovering the organisation of matter, with such systems as particles accelerators. These accelerators permit to explore matter in details and to detect elementary particles which constitutes this one. We now hope, that researches will explain, one day, what really happened at the formation of the Universe, nearly 15 billion years ago. Keywords : - Matter - Antimatter - Particles - Accelerator - Atom - Interactions - Big Bang - Universe 10 11 Introduction Au cours de l'Histoire, les Hommes ont tenté de comprendre le monde qui les entoure. De nombreuses croyances, théories et preuves scientifiques se sont succédées afin de répondre à la question : « De quoi la matière est-elle faite et d’où vient-elle ? » Du Grec Démocrite (IVème siècle avant J.C.) au célèbre Dmitri Mendeleïv (XIXème siècle), de nombreuses réponses ont été proposées. Au début du XXème siècle, la plupart des scientifiques s'accordaient sur l'idée que la matière était faite d'atomes. Ces atomes étaient considérés comme des particules « insécables » (comme le suggère l'étymologie grecque de leur nom). Mais rapidement de nouvelles études indiquèrent qu’ils étaient constitués de protons, de neutrons et d’électrons. Plus tard, une nouvelle découverte montra que ces protons et neutrons étaient euxmêmes constitués d'autres particules qui furent appelées des quarks. Dans cette optique, les physiciens ont développé les accélérateurs de particules afin de faire entrer en collision ces particules à des niveaux d’énergie très élevés et d’observer plus précisément les différents constituants de la matière qui nous entoure. Enfin, voyager au cœur de la matière permet également de voyager dans le temps, jusqu’à l’origine de l’Univers… La compréhension de l’atome peut expliquer la théorie du Big Bang. Au cours de notre étude, nous avons élaboré une synthèse de la composition de la matière, base indispensable à la compréhension de l’Univers qui nous entoure. Nous tenterons ensuite d’expliquer les différents outils employés par les physiciens : les accélérateurs de particules. Nous conclurons notre travail en étudiant l’une des grandes questions existentielles concernant la formation de l’Univers, et la théorie actuelle, celle du Big Bang. 12 13 I. Les constituants de l’atome 14 15 I.1. Evolution du modèle atomique de l'Antiquité à nos jours [1] [6] I.1.a. Les premières notions liées à la matière D'après la doctrine d'Empédocle, médecin grec du Vème siècle avant J-C, la matière peut prendre quatre états : l'eau, le feu, l'air, et la terre. Cette croyance trouve une explication dans l'observation de la combustion d'un morceau de bois : il y a production de fumée (air), de vapeur d'eau (eau) et de cendre (terre). Leucippe et Démocrite d'Abdère, reprennent ses idées, et imaginent un constituant insécable de base de la manière : l'atome (atomos [ατομος]), littéralement « que l'on ne peut diviser », comme un « grain composant la matière », qui peut toutefois différer par sa forme. Ce dernier énonça que « Rien ne vient du néant, et rien, après avoir été détruit, n'y retourne. ». Il y a donc de la matière et du vide. Selon Epicure (IIIème siècle avant J.C.), l'atome a une forme, un poids, une vitesse, vibre, et est en déplacement dans le vide. Si les atomes ne peuvent s'entrechoquer, c'est en raison d'une déviation spontanée (le clinamen). Les atomes s'unissent pour former des ensembles comme la terre, la mer, le ciel, ou tous les êtres vivants. A ce stade, l'existence de l'atome n'est qu'une intuition sans aucune base expérimentale. Il faudra attendra plus de vingt siècles pour tenter de prouver que l'atome constitue la matière. I.1.b. Les progrès scientifiques aux XVII ème et XVIIIème siècles En 1644, René Descartes émet l'idée que les gaz sont constitués de particules tourbillonnantes. Il s'agit encore d’une supposition imagée, sans l'appui de l'expérience. Des scientifiques, comme Newton ou Galilée, se rallient à la conception atomiste du monde. Les progrès scientifiques se poursuivent. En effet, vers 1730, les Suisses Euler et Bernouilli émettent une conception « cinétique « des gaz qui explique la température d'un gaz et sa pression grâce au mouvement des particules de ce corps. La chimie prend véritablement naissance lorsqu'en 1773, Antoine Laurent de Lavoisier déclare que « Rien ne se perd, rien ne se crée, tout se transforme ». Cela induit que la masse se transforme (on ne parle pas encore de « quantité de matière «, et que les éléments chimiques se conservent, sans garder la même organisation. Le Français réalise la première synthèse chimique : celle de l'eau en substances élémentaires : le dioxygène et le dihydrogène. A la suite de cette découverte de grande importance, des chimistes anglais, Joseph Black, Henry Cavendish et Joseph Priestley mettent en évidence, à la fin du XVIIIè siècle différents gaz : le gaz carbonique (« air fixe » ), le dihydrogène (« air inflammable »), le diazote, ou le dioxygène. En 1808, le chimiste anglais John Dalton pensa qu'il existait d'autres composants de la matière, les molécules, et que les atomes pouvaient se regrouper entre eux de différentes manières. Il émit de ces observations des idées à la base de la théorie atomique : les molécules sont formées par des atomes, selon des proportions définies, et les atomes d'un même élément ont les mêmes propriétés (leur masse est propre à l'élément). 16 I.1.c. Le XIXème siècle ou le triomphe de l'atome Dès lors, la chimie se développe, intéressant de nombreux scientifiques qui participent à son essor. En 1869, le Russe Dmitri Ivanovitch Mendeleïev, classe les atomes par masse croissante. En observant, de plus, des similitudes de propriétés chimiques, il établit un tableau de classification : le Tableau de classification périodique des éléments, empirique, et qui sera ensuite vérifié lorsque la structure des atomes sera connue. Dans le même temps, un chimiste allemand, Lothar Meyer, effectue le même travail sans que les deux hommes ne le sachent. Sa classification paraît en 1870, mais cette dernière reste peu utilisée. En 1900, l'Allemand Max Planck montre la quantification des niveaux d'énergie de l'électron autour de l'atome, selon la relation E = hν (E représente l'énergie de la particule, v est la longueur d'onde de l'onde émise, et h est appelée «constante de Planck», cf. chapitre II.3.b. sur la physique quantique). Louis de Broglie, père de la mécanique ondulatoire, dira de ce dernier que «l’œuvre qu’il a accomplie est de celles qui assurent à leur auteur une gloire immortelle». En 1905, L'Allemand Albert Einstein et le Polonais Marian von Smoluchowski évoquent la théorie atomique du mouvement Brownien, dont le nom provient du biologiste écossais Robert Brown. Il décrit le mouvement aléatoire d'une «grosse» particule immergée dans un fluide et qui ne subit comme seule interaction que les chocs des molécules, de plus petite taille, du fluide environnant. Ce mouvement reprend l'observation de Brown, qui observait le déplacement de grains de pollen dans l'eau. Il en va de même de la molécule qui se déplace au sein d'un gaz. En 1907, Ernest Rutherford of Nelson observe la déviation d'atomes d'Hélium, qui va bouleverser les connaissances de la matière, car il montre ainsi que l'atome n'est pas insécable, puisqu'il est constitué de particules plus élémentaires. En 1927, Heisenberg énonce son «principe d'incertitude» : on ne peut connaître à la fois la position spatiale et la vitesse d'une particule. Cela est valable dans le monde microscopique, alors que macroscopiquement nous ne rencontrons pas cette incertitude. Explication qualitative : Considérons un électron dont nous voulons déterminer à la fois la position et la vitesse. Pour déterminer ces composantes, nous pouvons utiliser un rayon lumineux, compris dans le domaine des ondes électromagnétiques, dont la longueur d'onde est approximativement comprise entre le mètre (appelons cette étude «cas 1») et 10-11m (un millième de milliardième de mètre) («cas 2»). Si nous prenons le premier cas, la position de la particule ne sera connue qu'à une longueur d'onde près, soit une incertitude absolue d'un mètre. Dans le second cas, la précision est accrue. Cependant, l'énergie des photons qui composent ce rayonnement gamma est très grande. Leur rencontre avec l'électron est violente et le choc perturbe le mouvement de la particule, donc sa vitesse. En conséquence, une grande incertitude affecte maintenant notre détermination de cette dernière. La solution serait de communiquer une énergie moindre au photon, ce qui revient à revenir dans le cas précédent. On ne peut donc pas connaître à la fois la position et la vitesse d'une particule microscopique. Il s'agit d'une propriété intrinsèque à la matière, indépendante de nos instruments d'observation. 17 I.2.. Les différents modèles atomiques [3] Les philosophes Grecs et les premiers scientifiques imaginaient l'atome selon un modèle de «sphère dure», autrement dit une boule impénétrable, ce qui constitue la première représentation de ce qui constitue la matière, mais ce n'est pas un modèle dans le sens où cela n'est qu'une supposition, et ne reste pas avéré. On peut évoquer un premier «modèle» atomique, à proprement parler, à partir de la fin du XIXème siècle, alors que les découvertes scientifiques, notamment dans ce domaine, prennent un essor important, et permettent de juger de la validité ou de l'invalidité d'un modèle avec l'expérience. I.2.a. Le modèle de Thomson En 1897, l'Anglais Joseph John Thomson établit son modèle de l'atome, celui du «plum-pudding». Ce modèle est le suivant : [Figure 1] Modèle de Thomson http://upload.wikimedia.org/wikipedia/commons/thumb/f/ff/Plum_pudding_atom.svg/348pxPlum_pudding_atom.svg.png L'atome est formé d'une matrice globalement positive, et de particules chargées négativement : Thomson a découvert l'électron. I.2.b. Le modèle de Rutherford En 1907, Rutherford, en bombardant une mince feuille d'or avec des particules radioactives alpha (soit des atomes d'Hélium), observa les déviations de ces particules. Il conclut son expérience en fournissant un nouveau modèle atomique. La charge positive du noyau est confinée dans une petite portion de volume de l'atome, et les électrons sont situés loin de ce noyau. I.2.c. Le modèle de Bohr En 1913, Niels Bohr, un physicien danois, réunit les concepts de Planck et de Rutherford, et propose un nouveau modèle. Dans celui-ci, les orbites des électrons (qui gravitent autour du noyau), ont des rayons définis. Ainsi, il n'existe que quelques orbites « autorisées ». Les échanges d'énergie quantifiés correspondent à des sauts entre les orbites définies. Lorsque l'électron est sur l'orbite la plus basse, il ne peut pas prendre un niveau inférieur, mais ce modèle n'en donne pas la raison. 18 [Figure 2] : Modèle de Bohr http://upload.wikimedia.org/wikipedia/fr/9/90/Atome_bohr.png I.2.d. Le modèle actuel, de Schrödinger La naissance de la mécanique ondulatoire de Louis de Broglie, en 1924, généralisée par Erwin Schrödinger, amène à proposer un nouveau modèle, dont les aspects relativistes furent décrits par Paul Dirac en 1928. Celui-ci permet d'expliquer la stabilité de l'atome et la description des termes spectroscopiques. Dès lors, les électrons ne sont plus des particules localisées sur une orbite, mais sont représentés en terme de probabilité de présence. Cette révolution modifie l'approche des scientifiques, qui faisaient l'amalgame avec les visions macroscopiques, transposées jusqu'alors dans le monde microscopique. L'électron, depuis les années 1930, est plutôt perçu comme une «fonction d'onde», dont la représentation est plus mathématique. Une figuration de cette idée peut se percevoir en observant un graphique traduisant (forcément de manière plus ou moins grossière) cette probabilité de présence. [Figure 3] Probabilité de présence d'un électron, sur un orbitale donnée : http://www.obs-besancon.fr/publi/DavidViennot/coherent2.png Le modèle de Schrödinger est le modèle actuel de l'atome. 19 I.3. Les théories physiques actuelles [2] [4] [6] I.3.a. La Physique relativiste Bases de la relativité A l'inverse de ce que prônait Aristote dans l'Antiquité (IVème siècle avant J-C.), Galilée est le premier à évoquer la notion de relativité de mouvement, au début du XVIIème siècle. En observant les astres, le scientifique observe que le déplacement d'un corps dépend du lieu d'observation. Il n'existe pas, pour la Terre comme pour tous les objets, ou systèmes, d'état de repos absolu, principe proposé par Aristote, puisque celle-ci tourne bien autour du Soleil. Toute définition de mouvement doit donc être accompagnée de la précision du référentiel d'observation. A la fin de ce siècle, Newton instaure la Physique classique, qui permet de mieux comprendre les mouvements des objets étudiés. Dans son oeuvre Optiks, publiée en 1704, Newton énonce la nature corpusculaire de la lumière, dont on connaît la vitesse dans le vide, depuis les travaux de l'astronome danois Ole Christensen Rømer, vitesse qui est d'environ 212 000 km/s (soit une erreur de 29% avec la valeur connue actuellement). Quid de l'éther Au XIXème siècle, le physicien écossais James Maxwell, voulant compléter ces connaissances, reprend l'idée que l'espace est empli d'un milieu immobile et invisible, l'éther, imaginé par le Français René Descartes et le Néerlandais Christian Huygens deux siècles auparavant. Cette hypothèse justifie les équations électromagnétiques qu'il met en place, partant du principe que la lumière, perçue comme une onde, se propage dans un certain milieu. Seulement, l'existence de l'éther comme référentiel absolu est incompatible avec la physique de Newton, notamment pour les problèmes de référentiel (il n'existe pas de référentiel absolu d'après Newton), ainsi qu'au sujet de la nature, corpusculaire ou ondulatoire, de la lumière. En conséquence, il fallait décider quelle théorie était validée par l'expérience, sachant que l'hypothèse de Maxwell incluait que la mesure du temps dépend du référentiel dans lequel elle est effectuée. L'expérience de Michelson-Morley devait définitivement répondre à cette interrogation. Menées entre 1881 et 1887 par les deux scientifiques américains, plusieurs mesures ont tenté de montrer l'existence de l'éther. Si la lumière se déplace à vitesse constante dans l'éther, alors, en faisant une mesure de cette vitesse dans le sens du déplacement de la Terre par rapport à l'éther, on doit obtenir un résultat plus faible que si la mesure est faite dans la direction opposée. La différence nous donne alors une estimation de la vitesse de la Terre dans l'Ether. Or, l'expérience montra une similitude des vitesses, ne confirmant pas l'écart de temps attendu. On tenta d'expliquer cela par la Physique classique, jusqu'à ce que l'Autrichien Ernst Mach vienne à la conclusion, quelques années plus tard, que l'éther n'existe pas. Michelson pose alors le problème de l'éther, car il est inconcevable à cette époque, que la lumière se déplace dans le vide. Du développement des mathématiques à l'énoncé de la Relativité Poincaré écrit dans son livre intitulé La science et l'hypothèse : « Peu nous importe que l’éther existe réellement, c’est l’affaire des métaphysiciens ; l’essentiel pour nous c’est que tout se passe comme s’il existait et que cette hypothèse est commode pour l’explication des phénomènes. » Il permit de démontrer également que la célérité de la lumière dans le vide est une constante. 20 Le théorème de Noether Etabli en 1918 par la mathématicienne allemande Emmy Noether, ce théorème a pour énoncé : « A toute transformation infinitésimale qui laisse invariante l'intégrale d'action, correspond une grandeur qui se conserve. » Qualifié par Albert Einstein de « monument de la pensée mathématique », ce théorème se manifeste sous divers aspects. Il induit, par exemple, que la symétrie de translation dans l'espace est liée à la quantité de mouvement (le produit de la masse et de la vitesse d'un corps), ou que cette même symétrie dans le temps inclut une conservation de l'énergie du corps étudié. Ce théorème relie donc directement une symétrie dans une dimension (le temps ou l'espace) à la conservation d'un paramètre physique d'un corps. Il a permis des développements de la mécanique relativiste, et sa meilleure compréhension. Les travaux de Lorentz, Poincaré, Minkowski et Einstein : l'énoncé du principe Pour interpréter les résultats des expériences de Michelson, vues précédemment, le Néerlandais Hendrick Lorentz développa en 1907 l'idée de contraction des longueurs. Pour expliquer cela, il mit au point les transformations de Lorentz, en étroite collaboration avec le Français Henri Poincaré, qui permettent principalement de changer le point de vue duquel on décrit les évènements sans que la vitesse de la lumière soit changée. Lorentz démontre en outre qu'aucun corps ne peut avoir une vitesse supérieure ou égale à la vitesse de la lumière. Les formules galiléennes sont une bonne approximation de la Physique Relativiste, car l'effet de non-addition des vitesses ne se fait ressentir qu'à partir de vitesses de l'ordre de 10% de la vitesse de la lumière (ce qui représente déjà 108 millions de kilomètres à la seconde !). L'année suivante, le scientifique allemand Hermann Minkowski, crée l'espace-temps qui porte son nom, en joignant aux trois coordonnées de l'espace une composante de temps. L'espace de Minkowski repère ainsi un point selon quatre composantes : celles de l'espace et celle du temps. En 1905, dans une note à l'Académie des Sciences de Paris, Poincaré a présenté sa découverte des transformations de vitesse, qui manquaient à Lorentz, ce qui lui a permis de franchir le dernier pas vers la découverte de la théorie de la relativité dite restreinte. En 1915, Einstein énonce finalement les principes de la relativité générale, dix ans après sa première publication importante à ce sujet. Il donne ainsi une cohérence aux travaux de Lorentz, Poincaré et Minkowski (exprimant par exemple les transformations de Lorentz dans les espaces non-euclidiens de Minkowski). L'hypothèse fondamentale de la relativité générale est qu'il n'y a pas d'état de repos absolu pour un référentiel, quel qu'il soit. Toutes les forces sont dès lors liées à un principe d'accélération. Einstein énoncera un an plus tard le principe de relativité en ces termes : « les lois de la nature doivent être valides dans tous les systèmes de référence, quel que soit leur état ».Ainsi, toute mesure, y compris celle du temps dépend de son référentiel d'observation. La Physique Relativiste implique également une possibilité d'expansion de l'Univers, rendant crédible l'hypothèse selon laquelle l'histoire de l'Univers a une origine. 21 Un exemple célèbre de Relativité : le « Paradoxe des jumeaux » Cette explication de certains aspects de la relativité fut imaginée en 1911 par le physicien français Paul Langevin. Il n'y a cependant pas de paradoxe, puisqu'il ne comporte aucune contradiction logique. Considérons deux jumeaux. Plaçons l'un d'entre eux dans un vaisseau spatial qui s'éloigner à vitesse constante de son frère, resté sur Terre. Lorsque son frère le rejoint finalement, celui qui est resté sur Terre constatera que son frère semble plus jeune que lui. Cela est dû à la dilatation du temps, conséquence des transformations de Lorentz. En effet, celles-ci stipulent que la mesure du temps dépend de la vitesse du référentiel. L'ajout du temps mesuré pendant le trajet aller et de celui pendant le retour n'a donc en fait aucun sens puisque ces deux valeurs correspondent à des référentiels galiléens différents. I.3.b. La Physique Quantique Origine et principe Face à l'échec de la Physique classique pour décrire l'infiniment petit (atomes et particules), et certaines propriétés comme le rayonnement électromagnétique, et l'insuffisance de la Physique Relativiste pour expliquer notamment les interactions faible et forte du noyau atomique, la Physique Quantique a vu le jour au XXème siècle. Elle regroupe en fait plusieurs grandes théories physiques. Basée sur la notion d'onde, introduite en 1927 par Edwin Schrödinger, c'est-à-dire qu'on raisonne plus en terme de probabilité mathématique que d'observation concrète, la Physique Quantique demeure opposée à l'intuition. Cette notion de probabilité se comprend pleinement en incluant le principe d'incertitude d'Heisenberg (voir par ailleurs). Le mathématicien américain Richard Feynman, déclara même que « Personne ne comprend vraiment la physique quantique ». La nécessité d'élaborer un autre modèle que la Physique classique, se fit sentir lorsque des notions électromagnétiques furent appliquées à l'atome. En effet, la stabilité d'un atome est incompréhensible dans le cadre de la théorie classique. La théorie de Maxwell nous dit que toute charge accélérée rayonne de l'énergie sous forme d'onde électromagnétique. Dans un modèle planétaire classique, les électrons sont accélérés sur leur orbites au sein de l'atome, et leur énergie doit donc diminuer : les électrons tombent alors sur le noyau ! Un calcul de la durée caractéristique de ce phénomène donne de l'ordre de 10 ns, donc les atomes classiques seraient dès lors instables, ce que l'expérience contredit manifestement. En Physique Quantique, le vide (ce que l'on considère comme l'absence totale de particules dans un espace donné, durant une période donnée) n'existe pas, car les particules sont présentes, statistiquement, selon une certaine probabilité, en tout point de l'espace. Niels Bohr, intégrant une composante quantique dans son modèle de l'atome en 1917, fut le premier à appliquer des lois de la mécanique quantique, avant même que cette dernière ait été définie (avec près de 10 ans d'avance). La définition de cette théorie a permis d'expliquer les travaux de Bohr. De plus, la théorie quantique des champs, initiée par le Français Paul Dirac, permet de prendre en compte la présence du photon, non prévue par les équations de Maxwell. 22 Les constantes de Planck Le physicien Max Planck apporta une très grande contribution à la théorie quantique ; il découvrit la valeur d’une constante qui portera son nom et qui exprime le seuil d’énergie minimum que l'on puisse mesurer sur une particule. Energie de Planck Max Planck, physicien allemand, découvrit cette constante en 1900. A cette époque, les scientifiques pensaient que les échanges d’énergie entre la matière et le rayonnement s’effectuaient de façon continue, alors que les expériences prouvaient le contraire. Planck introduisit la valeur de cette constante, notée h, dans ses calculs, avec par la suite l’intention de faire tendre sa valeur vers 0, pour revenir à une description continue du rayonnement. Mais ses efforts furent vains : la constante h ne pouvait être annulée sans contredire les expériences : h = 6,63 * 10 -34 J.s La constante de Dirac ħ est le quantum de spin, c'est-à-dire que le spin de n'importe quelle particule, mesuré par rapport à n'importe quel choix particulier d'axe, est toujours un multiple entier de cette valeur. Pour une particule, le coefficient de ħ pour son moment angulaire est aussi appelé nombre de spin. Longueur de Planck La longueur de Planck est généralement décrite comme la longueur à partir de laquelle la gravité commencerait à présenter des effets quantiques. Cela nécessiterait une définition de la théorie de la gravité quantique. En conséquence, la longueur de Planck serait, dans l'état actuel de la physique, la longueur minimale qu'il soit possible de mesurer de façon significative. La longueur de Planck est définie par : (en m) Temps de Planck Le temps de Planck est le temps qu'il faudrait à un photon dans le vide pour parcourir une distance égale à la longueur de Planck. Il s'agit de la plus petite mesure de temps qui ait une signification physique dans les théories actuelles : (en s) 23 Le chat de Schrödinger Illustrant peut-être au mieux la Physique Quantique et ses lacunes, l'expérience du chat de Schrödinger a été imaginée par le physicien en 1935. L'énoncé est le suivant : Imaginons un chat enfermé dans une boîte, munie d'un dispositif qui tue le chat dès qu'une désintégration d'un atome radioactif a été détectée (on peut imaginer un détecteur de type Geiger, relié a un interrupteur provoquant la chute d'un marteau cassant dans son mouvement une fiole emplie d'un gaz mortel pour l'animal). L'atome radioactif en question est tel qu'il y a exactement une chance sur deux que l'atome se soit désintégré de manière radioactive en une minute. La question est la suivante : si l'on ouvre la boîte après une minute, le chat est-il mort ou vivant ? Le mécanisme de Schrödinger lie l'état du chat (mort ou vivant) à l'état de la particule radioactive (désintégrée ou intacte), de sorte que, tant que la boîte est fermée, le chat se trouve mort et vivant à la fois, d'après les probabilités de désintégration. Cette expérience n'est en fait qu'une question purement intellectuelle et philosophique (eu égard aux nombreuses approches proposées, dont certaines faisaient intervenir la conscience de l'observateur), et n'a jamais été réalisée, dont le but est de marquer les esprits. Si la théorie quantique, d'une grande rigueur mathématique, est indispensable pour comprendre le monde microscopique, elle est inapplicable à l'échelle macroscopique. En effet, les objets nous entourant, présentés comme de gros amas d'atomes, ne sont pas des fonctions d'ondes, mais existent bel est bien, sans qu'un système de probabilités ne règle leur position, ce qui induit que la physique quantique est incompatible à une échelle non microscopique. I.3.c. Unification de ces deux théories Le but de la Physique est de décrire les phénomènes observés avec exactitude. Alors, l'existence de deux descriptions différentes, à savoir la Physique Relativiste et la Physique Quantique, symbolise une imperfection, qui subsistera tant que ces deux théories seront indépendantes, et qu'il n'existera pas de grande théorie englobant ces deux approches. Une grande part des dernières recherches sur la relativité est consacrée à la création d'une Mécanique Quantique Relativiste qui soit pratique à manipuler. Une théorie relativiste de l'électron fut développée en 1928 par le mathématicien et physicien Paul Dirac. Par la suite, une théorie satisfaisante, appelée Electrodynamique Quantique, unifia les concepts Relativistes et de la Physique Quantique ; cette théorie est particulière à l'étude de l'interaction entre les électrons, les positons et le rayonnement électromagnétique. Théorie des cordes et supercordes En 1968, le scientifique italien Gabriele Veneziano présenta une nouvelle théorie : les particules sont liées entre elles par des «cordes» (mathématiquement parlant) ; celles-ci sont tendues lorsque les particules sont proches, et libres en mouvement, tandis qu'au fur et à mesure que les particules s'éloignent, les cordes se tendent et peuvent casser, libérant ainsi l'énergie accumulée. Ce modèle ne fournit pas de résultat probant, mais fut important, car il permit d'établir la chromodynamique quantique, et la théorie des cordes. 24 L'idée développée ensuite fut que les particules peuvent être représentées sous forme de cordes, ouvertes (ce sont alors des lignes courbes), ou fermées (définissant une certaine extension spatiale), de longueur proche de la longueur de Planck, et qui vibrent à des fréquences caractéristiques Une théorie des cordes, de l'aveu du scientifique Wolfgang Pauli, ne peut pas être fausse. Il en existe en effet plusieurs : La théorie des cordes bosoniques, qui ne semble valable que si l'espacetemps possède 26 dimensions, décrit l'Univers comme étant uniquement constitué de bosons, sous forme de cordes ouvertes ou fermées. Cependant, l'existence, par le calcul, d'une particule (le tachyon) dont la valeur de la masse est un nombre imaginaire pur, et qui se déplace à une vitesse supérieure à celle de la lumière dans le vide, la rend impropre à décrire la réalité. Cinq théories de supercordes à 10 dimensions, qui reprennent les principes de la théorie des cordes, et diffèrent entre elles par les groupes de symétrie. Les théories des supercordes se distingue de la théorie des cordes en permettant d'incorporer de la matière (sous forme de fermions) dans les cordes bosoniques. Chaque particule possède une superparticule associée, dont, d'après la théorie, la masse est la même, mais le nombre de spin est différent (voir Annexe 1). La théorie de supersymétrie (ou théories des supercordes) présente de nombreux avantages: expliquer pourquoi l'énergie de Higgs est relativement faible (en dessous du TeV), ainsi que la «matière noire», indétectable et supposée contenir près de 30% de la masse totale de l'Univers, par le biais des neutralions (particule supersymétrique du neutrino). En outre, en postulant l'existence de particules supersymétriques, elle rend possible une unification des interactions forte, faible et électromagnétique à une échelle d'énergie de l'ordre de 1016 GeV. Théorie M Présentée en 1990 par deux scientifiques, le Tchèque Petr Horava et principalement mise en place par l'Américain Edward Witten, la théorie M semble regrouper les cinq théories de supercordes, dont elle représenterait différentes limites, en fixant une limite a une dimension. La théorie M a comme objet fondamental, plutôt qu'une corde, une membrane, ou p-brane (représentant une membrane en p dimensions, par exemple la corde a une dimension de 1, une surface plane a une dimension de 2) L'origine de son nom n'a pas été expliquée, M pouvant signifier «Magic», «Mystic» ou «Mystery». Certains y voient aussi l'initiale, retournée, de Witten. 25 I.4. Du modèle standard aux propriétés des particules élémentaires [1] [2] [3] I.4.a. Introduction Comme nous le verrons plus tard, il existe des éléments élémentaires de la matière dénommés antiparticules, associés à une particule respective. Les antiparticules ont généralement la même masse que leur particule associée, et une charge électrique opposée. Une particule et une antiparticule réagissent ensemble en s'annihilant, c'est-à-dire que lorsqu'une antiparticule rencontre sa particule associée, il n'en résulte rien, si ce n'est un dégagement d'énergie sous la forme, généralement, d'un photon. Un couple particule/antiparticule peut très bien ne naître de rien, d'une absence totale de matière. Caractérisation des particules Toute particule élémentaire peut être ramenée aux informations la caractérisant. Ces informations se conservent lors des réactions entre particules. Par exemple, une collision entre un électron (de charge négative) et un photon (charge électrique nulle) ne peut donner naissance qu'à un ensemble de particules (ou une seule) donc le total des charges est négatif. D'autre informations se conservent ainsi, telle que la masse. Le Spin Introduit par Paul Dirac en 1924 afin d'expliquer un résultat expérimental, observé sur l'électron, non conforme à la théorie, le spin a d'abord été interprété (par les Hollandais Uhlenbeck et Goudsmit, en 1925), comme étant un moment cinétique intrinsèque, similairement à une rotation de la particule sur elle-même. Or une «rotation propre» autour de son axe n'a pas de sens physique si la particule est ponctuelle, car l'axe de rotation d'un système est défini comme étant l'ensemble des points de ce système qui restent immobiles. Dans ce cas, la particule serait immobile. Si la particule est non ponctuelle, une autre difficulté se présente. Considérons un électron, de masse m (environ 9,11 × 10-31 kg) et de rayon a : D'après la relation , on peut écrire En attribuant à l'électron un moment cinétique de valeur ђ/2, on obtient, pour un point de vitesse v, l'équation suivante : Connaissant une estimation de ce rayon a, qui est d'environ 10-15m, on obtient une vitesse d'environ 6.1010 m/s, soit mille fois plus que la vitesse de la lumière ! 26 Or d'après la théorie de la relativité restreinte, il n'y a pas de vitesse supérieure à la célérité de la lumière dans le vide. En conclusion, le spin n'a aucun équivalent en physique classique. Le spin est généralement un multiple de la constante de Dirac (cf. chapitre II.3.b. sur la Physique Quantique). On appelle le coefficient de ce nombre le «nombre de spin», il arrive parfois que le spin et le nombre de spin soient confondus. Notons que le spin caractérise les propriétés par rotation. Ainsi, en particulier, une particule de nombre de spin 1 conserve la direction de ses vecteurs (de l'attirance électromagnétique par exemple) après un tour sur elle-même. En règle générale, une particule de nombre de spin entier devra, pour retrouver la direction de ses vecteurs, effectuer moins d'un tour sur elle-même. De l'existence particulaire Comment déterminer l'existence d'une particule ? Pour «exister», une particule doit être détectable. L'échelle de temps des particules peut être fixée à 10-23 seconde. C'est-à-dire qu'une particule qui a une durée de vie inférieure à celle-ci ne peut traverser un noyau atomique à la vitesse de la lumière. Les particules considérées ayant une durée de vie de 10-13 seconde au minimum sont considérées comme «stables». I.4.b. Le modèle standard et la classification des particules Ces découvertes ont permis la découverte de nouvelles particules, les plus élémentaires à ce jour, que l'on a regroupées en deux catégories, appelées «familles». Les fermions sont des particules dont le nombre de spin est un demi-entier, tandis que celui du boson est un entier naturel. Les fermions Le Principe d’exclusion de Pauli Enoncé en 1925 par le scientifique américain Wolfgang Pauli, le Principe d'exclusion stipule que les fermions ne peuvent se trouver au même endroit (au sein d'un atome par exemple) en ayant le même état quantique. Par exemple au sein d'un même atome, plus de deux électrons ne peuvent se trouver sur la première couche électronique. Si les fermions obéissent à ce principe, ce n'est pas le cas des bosons. De fait, ces derniers forment difficilement des structures stables. Cette différence entre fermions et bosons est à la source de la distinction que l'on fait entre ce qui est matière, et ce qui ne l'est pas comme la lumière. En conséquence, comme de nombreux noyaux ou atomes sont des bosons, dans certains cas ils peuvent s'accumuler dans le même niveau. Ceci permet d'expliquer le phénomène des lasers par exemple. Les fermions peuvent être subdivisés en deux catégories : les leptons et les quarks. 27 Les leptons élémentaires Les leptons ne sont pas soumis à l'interaction forte. Lepton, en grec, signifie léger, en référence à la faible masse du premier lepton découvert, l'électron. La famille des leptons comporte, par groupe de particule/antiparticule : L'électron / le positon L'électron est une particule découverte en 1897 par Thomson (voir par ailleurs l'expérience de Thomson), qui possède une charge négative. L'existence de son antiparticule, le positon, a été prédite par Paul Dirac en 1928. Le positon fut la première antiparticule observée expérimentalement, par Carl David Anderson en 1932. Le muon / l'antimuon Le muon, chargé négativement, est noté μ-, tandis que l'antimuon, de charge opposée, est noté μ+. Le muon et l'antimuon ne participent pas à l'interaction nucléaire forte, mais subissent les interactions faibles. Le muon a les mêmes particularités que l'électron, à l'exception de la masse qui est bien supérieure à celle d'un électron, c'est pourquoi le muon est également parfois appelé « électron lourd ». Le tauon / l'antitauon (ou tau / antitau) Le tauon, ou tau, chargé négativement et noté τ− est une particule élémentaire très instable (de durée de vie moyenne de l’ordre de 2,8.10-13 seconde). Comme le muon, il ne participe pas à l’interaction nucléaire forte, mais subit les interactions faibles. Ses propriétés sont celles de l’électron, à l’exception de la masse qui est environ 3 500 fois plus importante. C’est pourquoi on l’appelle aussi « électron super lourd » . L'antitauon est chargé positivement. Il est noté τ+. A ces particules, il convient d'ajouter leur neutrino respectif, noté respectivement νe pour le neutrino électronique, νμ pour le neutrino muonique, et ντ pour le neutrino tauonique. Les neutrinos, particules élémentaires non chargées découvertes en 1956 suite aux prédictions de Wolfgang Pauli, ne subissent pas l'interaction électromagnétique. Ils interagissent peu avec la matière, en raison de leur masse, qui fut longtemps supposée nulle. Toutefois, d'après l'expérience de Super-Kamiokande réalisée près de Mozumi (Japon), on sait maintenant que leur masse est non nulle, du fait de leur oscillation. Celle-ci a également permis d'observer qu'en réalité un neutrino serait le mélange des trois saveurs, électronique, muonique et tauonique, mais que l'une de ces trois saveurs serait dominante. Ce phénomène n'est possible que si les neutrinos possèdent une masse, qui diffère selon la saveur dominante. Enfin, à ces neutrinos il convient de faire correspondre leurs antiparticules associées : les antineutrinos, notés : Les quarks , , . 28 L’hypothèse de l’existence des quarks a été proposée en 1963 par les physiciens américains Murray Gell-Mann et George Zweig. En 1968, grâce aux accélérateurs linéaires, les physiciens se sont aperçus que les nucléons (neutrons et protons) étaient en fait un assemblement de composants plus élémentaires nommés «quarks». Deux sortes de quarks ont alors été observées : le quark u (« up ») et le quark d (« down »). En augmentant encore l'énergie dans les accélérateurs de particules, donc directement la masse des particules accessibles, quatre autres types de quarks furent découverts : le c (« charmed »), le s (« strange »), le t (« top ») et le b (« bottom »). Le nom donné à ces particules n'a aucune signification physique. Chacun de ces quarks apparaît en trois variétés dénommées rouge, vert et bleu, correspondant à une charge particulière de l’interaction nucléaire forte. Encore une fois, le nom n’a pas de lien avec les couleurs habituelles, il s’agit juste là d’une convention. [Figure 3] Représentation des couleurs d’un quark http://molaire1.club.fr/forte.html La charge d’un quark a la particularité d’être fractionnaire, pouvant être égale à +2/3 ou à -1/3 fois la charge élémentaire du proton valant 1,602.10-19 Coulomb, comme l'indique le tableau ci-dessous : Quark Fraction de la charge élémentaire u (« up ») + 2/3 d (« down ») - 1/3 c (« charmed ») + 2/3 s (« strange ») - 1/3 t (« top ») + 2/3 b (« bottom ») - 1/3 [Figure 4] : Les quarks et leur charge électrique Source : [6] Les antiparticules des quarks s'appellent les antiquarks, et ont comme couleur cyan, magenta et jaune. [Figure 5] Représentation des couleurs des antiquarks http://molaire1.club.fr/forte.html 29 Les bosons Les bosons sont des particules qui agissent comme les intermédiaires des interactions fondamentales. Leur appellation est dérivée du nom du scientifique indien Satyendranath Bose, qui a publié en 1924 un article intitulé Planck's Law and the Hypothesis of Light Quanta (La règle de Planck et l'hypothèse de la lumière quantique), traitant des statistiques quantiques appliquées aux photons. Adopté par Einstein, puis étendu par celui-ci aux atomes, le phénomène sera appelé plus tard Condensat de Bose-Einstein. Parmi les bosons, on peut observer : le photon Souvent représenté par la lettre γ (gamma), le photon est, notamment, la particule qui véhicule la lumière. De masse nulle, les photons se déplacent dans le vide à une vitesse de 299 792 458 mètres par seconde. les gluons de l'interaction forte Découverts en 1980 au sein de l'accélérateur PETRA de Hambourg, les gluons sont un assemblement d'un quark et d'un antiquark. Les gluons ont une masse nulle. Les différentes combinaisons de quarks au sein d'un gluon pourraient alors être : bleu/antibleu bleu/antivert bleu/antirouge vert/antibleu vert/antivert vert/antirouge rouge/antibleu rouge/antivert rouge/antirouge Cependant, une règle fondamentale de la chromodynamique quantique stipulent que : bleu/antibleu + vert/antivert + rouge/antirouge = 0 Cette relation lie les gluons entre eux réduit d'une unité le nombre de degrés de liberté. Il y a donc huit combinaisons de gluons possibles. les bosons de l'interaction faible + - Ils sont notés W , W et Z°. Le boson Z° n'a pas de charge électrique, c'est-à-dire qu'un quark quelconque qui émet ou capte ce boson ne change pas sa nature. Au contraire, les bosons W+ et W- peuvent modifier la nature d'un quark (ce qui est expliqué au chapitre 5.c.) le graviton Le graviton est une particule qui n'a jamais été observée, mais qui est prédite par la théorie pour véhiculer l'interaction gravitationnelle. Supposé de masse nulle et de spin 2, la faiblesse de son observation réside dans le fait que les scientifiques ne sont pas encore parvenus à énoncer une théorie simple de la gravité quantique. le boson de Higgs N'ayant pas encore été observé, le boson de Higgs est une particule élémentaire dont l'existence permettrait de justifier la masse des particules (voir L'interaction électrofaible et le boson de Higgs). 30 Les particules composites : Les hadrons L'avènement des accélérateurs de particules synchroton permit de mettre en évidence de nouvelles particules, subissant l'interaction nucléaire, appelés «hadrons» (du grec hadros, fort). Les particules chargées de couleur ne peuvent exister individuellement. C'est pour cette raison que les quarks, qui portent une charge de couleur, sont confinés en groupe avec d'autres quarks pour former les particules appelées hadrons. Ces particules composites sont de couleur neutre (ou blanche). Celle-ci peut s'obtenir de deux manières : en combinant 3 quarks (on forme alors un baryon, de «baryos» qui signifie «lourd» en grec), ou 2 quarks (pour former un méson, «milieu» en grec). [Figure 6] Un hadron est formé de 3 quarks http://molaire1.club.fr/forte.html La chromodynamique quantique stipule que la couleur des quarks s'additionne ainsi : bleu + rouge + vert = blanc Et pour les antiquarks : cyan + magenta + jaune = blanc Les quarks sont liés entre eux par la force d'interaction forte. Le nombre baryonique Le mathématicien suisse Hermann Weyl semble être le premier à se demander pourquoi la matière ne se désintègre pas continuellement. Par exemple, au sein d'un atome coexistent électrons et protons, et la charge électrique globale du système regroupant un électron et un proton est neutre. Ces deux particules pourraient donner naissance à un nucléon par exemple. Il imagina que chacune de ces entités portait une charge séparée, qui empêchait l'union de ces deux particules. Ses idées furent reprises par deux physiciens : le Suisse E. Stuckelberg de Breidenbach et le Hongrois E. Wigner, qui proposèrent en 1949 un complément sous la forme d'une nouvelle loi de conservation, baptisée depuis « nombre baryonique ». Les particules plus légères, comme le photon, l'électron, le positon, le neutrino, le graviton ou le muon se sont vu attribuer un nombre baryonique nul. Le nombre baryonique d'une particule peut être défini ainsi : un quark a un nombre baryonique de 1/3, un antiquark correspond à une charge baryonique de - 1/3. Les hadrons forment un ensemble de q quarks et a antiquarks liés entre eux. Ces nombres doivent satisfaire à la relation suivante : q - a = 3 B, où le nombre B, appelé nombre baryonique, doit être un entier relatif. 31 Voyons quelques possibilités, le tableau représente les nombres baryoniques : a\q 0 1 2 3 0 -1/3 -2/3 -1 1 1/3 0 -1/3 -2/3 2 2/3 1/3 0 -1/3 3 1 2/3 1/3 0 [Figure 7] : Tableau des nombres baryoniques http://lpsc.in2p3.fr/fuks/file/HHM_summary.pdf En fonction du nombre baryonique, les hadrons se divisent en deux classes de particules : les baryons et les mésons. Les particules appartenant à ces deux subdivisions sont toujours telles que la somme de leur charge électrique (en fraction de charge élémentaire) est entière, et que la somme de leurs charges de couleur est blanche. Les particules pouvant exister ont un nombre baryonique entier. De plus, la théorie nous dit que le spin des baryons est un demi-entier, tandis que celui des mésons est nul. Les baryons Les baryons son constitués de 3 quarks, ou 3 antiquarks. Ainsi, le nombre baryonique d'un baryon est 1 ou -1. Comme leur spin est un demi-entier, ce sont des leptons (non élémentaires car ils sont constitués de quarks). Table des baryons en document annexe (Annexe 2a) Les mésons Les mésons sont constitués d'un quark et de son antiquark. (Ainsi, le nombre baryonique d'un méson est nul.) D'autres modèles sont envisageables, comme des combinaisons de deux quarks et deux antiquarks, mais n'ont encore jamais été observées à ce jour. Pour les mésons, la chromodynamique quantique stipule, en terme de couleur, que quark rouge + antiquark cyan = quark vert + antiquark magenta = quark bleu + antiquark jaune = méson neutre Table des mésons en document annexe (Annexe 2b) N.B. : Les baryons et les mésons sont les seules combinaisons stables de quarks de couleur neutre. Il existe une troisième famille de particules, nommée «hypérons», dont les éléments sont formés de trois quarks dont au moins un strange ou charmed (ou leur antiparticule associée, antistrange ou anticharmed), mais qui est très instable (d'une durée de vie de l'ordre de 6.10-20 secondes). Le premier hypernoyau fut découvert en 1952, au moment de la mise en évidence de la particule Λ. Il était formé de deux protons, d'un neutron, et d'une particule Λ. Un hypernoyau ΛΛ fut observé en 1963, mais on n'aura la preuve de son existence qu'en 2001. Les hypérons se désintègrent en protons, neutrons et mésons. Ils forment des hypernoyaux, lorsqu'ils sont contenus dans un noyaux atomique. 32 I.4.c. Les interactions fondamentales Les quatre interactions fondamentales Les interactions dites «fondamentales» qui existent au sein des particules microscopiques sont au nombre de quatre. Par ordre chronologique de découverte, on distingue : L’interaction de gravitation Elle s'exerce entre deux objets massiques, et est proportionnelle au produit des masses des objets, inversement au carré de leur distance. L’interaction électromagnétique Elle assure la cohésion de l'atome. Deux éléments de charge opposée s'attirent, tandis que deux éléments de charge identique se repoussent. L’interaction forte, ou nucléaire Elle est à l'origine de la cohésion du noyau atomique, malgré la présence de forces de répulsion entre les protons. L’interaction faible Elle est responsable de la désintégration spontanée de certains noyaux radioactifs, et subie par toutes les particules de matière, sans considération de la charge électrique (donc les particules neutres la subissent également). Les quanta des forces La théorie quantique stipule que l'interaction entre deux particules s'exerce à distance par l'échange de «grains d'énergie» appelés quanta. Ces quanta sont des particules que l'on peut mettre en évidence. Par exemple, les interactions électromagnétiques se transmettent sous forme de champ, véhiculé par une particule sans masse : le photon. La force faible est transmise à l'aide de particules appelées «bosons intermédiaires» W+, Wet Z°, mis en évidence expérimentalement en 1983 au CERN. L'interaction forte agit par échange de gluons. On associe aux interactions de gravitation le graviton, bien que ces ondes gravitationnelles n'aient jamais été observées (cf. Les particules élémentaires, p. 26) Les interactions fondamentales diffèrent par leur intensité ainsi que la distance à laquelle elles agissent. Les forces véhiculées par des particules de masse nulle (le graviton et le photon, qui sont respectivement associés à aux interactions de gravité et électromagnétique) ont une portée infinie, tandis que la masse des particules associées aux autres forces limitent la portée de celles-ci. Enfin, leur intensité est bien différente. Attribuons, arbitrairement, une valeur d'intensité de 1 à l'interaction forte. Les autres interactions se placent par rapport à elle, à l'échelle atomique, comme l'indique le tableau suivant, qui résume quelques propriétés des forces élémentaires : 33 Interactions Quanta associés Portée Intensité Interactions de gravitation graviton infinie 10-40 Interactions électromagnétiques photon infinie 10-2 Interactions fortes gluon 10-15 m 1 boson intermédiaire -18 10-5 Interactions faibles 10 m [Figure 8] Caractéristiques des interactions fondamentales [1] L’univers des particules, M. Crozon L'unification des interactions L'interaction électrofaible et le boson de Higgs Les interactions électromagnétique et faible constituent les deux composantes d'une seule interaction fondamentale, baptisée «électrofaible». L'unification de ces deux interactions a été proposée par les scientifiques américains Sheldon Glashow et Steven Weinberg, et par le Pakistanais Abdus Salam en 1967. Ces travaux leur vaudront le Prix Nobel en 1979. Ils démontrèrent que les champs de jauge de l'interaction faible étaient structuralement identiques aux champs électromagnétiques. Or d'après la théorie électrofaible, il y aurait 4 bosons médiateurs de masse nulle : le photon, et les bosons W+ et W-. Ceci est en contradiction avec les faits. En 1983 au CERN, le scientifique Carlo Rubbia a bien observé les bosons Zo et W prévus par la théorie, mais ces derniers avaient une masse, de l'ordre de 90 fois celle du proton. Pour expliquer cette masse, les scientifiques ont imaginé un nouveau champ de forces, appelé «champ de Higgs», du nom du physicien écossais Peter Higgs, véhiculé par un boson, le boson de Higgs. Ce champ n'agirait qu'avec les bosons intermédiaires, leur donnant une énergie donc une masse (d’après la relation E=mc²), mais n'interagissant pas avec le photon, qui conserve une masse nulle. Dès lors que l'on introduit ce boson supplémentaire au sein des équations physiques, la théorie électrofaible est crédible, tant qu'elle a permis de déterminer la masse des bosons intermédiaires avant leur découverte. Seulement le boson de Higgs n'a jamais été détecté, et la preuve expérimentale de son existence validerait la théorie électrofaible. A noter que pour obtenir cette unification entre ces deux forces, l'énergie à communiquer à la particule est équivalente à une température de 1015 K (soit environ cent mille fois la température qui règne au centre du Soleil !) La théorie de la Grande Unification Afin d'expliquer les interactions fondamentales par le biais d'un unique principe, les physiciens tentent de développer une théorie de «Grande Unification», qui permettrait de relier ces quatre forces. 15 En effet, nous avons vu précédemment qu'à une température de 10 K, les interactions électromagnétique et faible peuvent se simplifier en une seule force, la force électrofaible. En extrapolant ce résultat, les théories dites de grande unification prévoient qu'à une température de 1028 K, les forces électrofaibles et nucléaires fortes ne seraient plus qu'une. De plus, lorsque la température est encore augmentée à 1032 K, les quatre interactions fondamentales n'en forment plus qu'une, d’où une Unification des interactions. 34 En augmentant encore l'énergie, à une température de 1032 K, on prévoit que les quatre interactions fondamentales n'en formeraient plus qu'une, comme l'illustre le graphique suivant : [Figure 9] La Théorie de la Grande Unification http://nrumiano.free.fr/Fcosmo/cg_standard.html Maintenant que les expériences peuvent être réalisées, et répétées, on peut mieux constater si une théorie est conforme ou non à ce que l'on constate au sein des accélérateurs de particules. Cependant, la limite d'énergie des accélérateurs de particules actuels est de 1011 eV, soit une température de 1015°C, ce qui fait que cette Grande Unification reste théorique et ne peut être observée avec les moyens actuels. I.5. Les interactions particulaires et les limites du modèle standard [1] [2] [5] [6] [16] [17] I.5.a. Les lois de conservation L'expérience acquise en radioactivité nous enseigne que tout processus de désintégration envisageable se produira spontanément (selon sa loi de désintégration propre). Même si ce processus n'apparaît pas directement, il peut survenir à la suite de plusieurs désintégrations, tant qu'il ne viole pas les lois de conservation. Considérons ici la désintégration d'une particule, qui n'est qu'un cas particulier de transformation particulaire, mais dont les règles s'étendent aux transformations plus complexes, comme les interactions entre particules. La loi de conservation de l'énergie est aisément compréhensible. Lorsqu'une particule se désintègre, il faut que le produit de cette transformation ait une masse inférieure à celle de la particule initiale. Il ne suffit pas que ces masses soient égales, car une partie de la masse de la particule désintégrée doit être convertie en énergie cinétique. Ainsi, pour débuter l'étude de la stabilité d'une particule, on peut commencer par établir la liste des particules plus légère que celle-ci. Ensuite, il faut étudier la seconde loi de conservation : celle de la conservation de la charge électrique. Benjamin Franklin fut le premier à se rendre compte que la quantité globale de charge électrique ne croît ni ne décroît lors d'une transformation nucléaire. Enfin, dans le cas de l'interaction entres baryons doit respecter la règle du nombre baryonique. Nous expliciterons celle-ci en étudiant la désintégration du proton, car son énoncé n'aura d'influences que dans des cas particuliers, comme pour cette transformation. 35 I.5.b. La représentation (ou diagramme) de Feynman Proposée par Richard Feynman dans les années 1940, la représentation des interactions entre particules, qui peut sembler sommaire, sert aussi bien pour décrire un phénomène que pour établir des bases de calcul. Les conventions à adopter sont les suivantes : I. les fermions sont symbolisés par des segments droits II. les bosons sont symbolisés par des segments ondulés ou des lignes brisées III. le point de rencontre de plusieurs lignes porte le nom de vertex exemple de représentation de Feynman : [Figure 10] Un électron émet ou absorbe un photon [1] L'univers des particules, Michel Crozon Nous rencontrerons cette représentation dans la suite de ce chapitre. I.5.c. Les interactions entre particules Les gluons et les quarks D'après la chromodynamique quantique, l'interaction forte est expliquée comme l'échange de gluons entre fermions élémentaires possédant une charge de couleur. Seuls les quarks possèdent une charge de couleur, tandis que les leptons sont de couleur neutres. Par conséquent, ces derniers ne sont donc pas soumis à cette force. Les gluons portent une couleur et une anti-couleur (par exemple rouge/antibleu, comme le montre l'exemple ci-dessous). Un quark émet ou absorbe un gluon, la couleur du quark change pour que la charge de couleur soit conservée. Par exemple, un quark rouge peut se transformer en quark bleu à condition d'émettre un gluon rouge/antibleu, afin que la couleur «de base» soit toujours rouge (cette couleur sera à son tour transmise par réaction avec un quark bleu, ce qui fait qu'au final, un quark bleu et u quark rouge se transforment respectivement en un quark rouge et un quark bleu). Cette transformation est illustrée ci-dessous : [Figure11] Emission d’un gluon par un quark http://cpep.lal.in2p3.fr/color.html 36 Une conséquence de ce mécanisme est que la charge de couleur d'un quark donné va changer de manière continuelle par échange de gluons avec ses voisins, mais neutralité la charge totale d'un système isolé de particules sera conservée au cours du temps. Si l'un des quarks d'un hadron donné est éjecté par ses voisins, le champ de force de couleur s'étire entre ce quark et ses voisins. Par ce phénomène, de plus en plus d'énergie s'ajoute au champ de force de couleur au fur et à mesure que les quarks sont poussés. A ce stade, le champ de force de couleur dépense moins d'énergie s'il se transforme en deux nouveaux quarks. L'énergie est ainsi conservée et convertie en masse des nouveaux quarks, et le champ de force de couleur peut retourner à un état non étiré. La masse des gluons est nulle, mais comme ils portent une charge de couleur, qui explique donc qu'ils peuvent interagir entre eux, la portée de l'interaction forte n'est pas infinie, elle est de l'ordre de 10-15 m. Le comportement de l'interaction forte est ainsi assez bizarre : plus les quarks sont éloignés, plus leur interaction est forte... A la limite où ils sont infiniment proches, ils n'interagissent plus du tout. Cette caractéristique est à l'origine du confinement des quarks à l'intérieur des hadrons : elle montre que les quarks ne peuvent pas être isolés, devant maintenir entre eux un champ de forces de couleur. [Figure 12] Représentation de Feynman de l'interaction entre un quark (initialement chargé vert et un gluon vert/antibleu) http://hyperphysics.phy-astr.gsu.edu/hbase/particles/expar.html Les photons L’électrodynamique quantique stipule que l'interaction électromagnétique est expliquée comme l'échange de photons entre fermions élémentaires, qui possèdent une charge électrique. Le photon, ayant une charge électrique neutre, les particules qui échangent des photons conservent leur charge électrique. L'inverse est également envisageable : un photon peut donner naissance à une particule et à son antiparticule. Ces deux cas sont présentés dans les diagrammes de Feynman suivants : [Figure 13a] Un électron et un positon s'annihilent, en émettant un photon [Figure 13b] Un photon donne naissance à une paire électron/positon http://www2.slac.stanford.edu/vvc/theory/feynman.html De plus, il est à noter que comme la masse du photon est nulle, la portée de l'interaction électromagnétique est infinie. Les bosons W+, W -, Z0, et les quarks Les bosons W, particules vecteurs de l'interaction faible, ont une charge électrique non nulle (positive pour le boson W +, négative pour le boson W -). Cela qui signifie que lors de l'échange d'un boson W, les fermions changent de charge électrique (au travers des quarks les constituant). Ils changent donc, par cette transformation, de saveur (la «saveur» d'un fermion est simplement sa nature : électron, neutrino, quark u, quark d...). 37 Ainsi, la radioactivité β d'un neutron est expliquée par l'émission d'un W- par un quark d du neutron. Il change donc alors de saveur et devient un quark u, puis le W- se matérialise en un électron et un anti-neutrino électronique. Voici la représentation de Feynman de cette transformation : [Figure 14] Représentation de Feynman de la désintégration β d’un neutron http://hyperphysics.phy-astr.gsu.edu/hbase/particles/expar.html Voici une autre représentation (non normalisée), qui permet de mieux percevoir ce qui se passe au niveau des quarks pour cette réaction : [Figure 15] Evolution de la saveur des quarks lors de la désintégration β d’un neutron [3] La physique des particules, Robert Zitoun On voit bien sur ce dernier schéma que l'action du boson W - modifie la charge électrique du quark bleu, qui était un quark « down » (de charge électrique de -1/3), et devient un quark « up » (qui est chargé +2/3). Cela montre bien que la charge du boson W- qui est émis est négative. La transformation inverse est donc logiquement l'exacte symétrie de la précédente, à savoir : [Figure 16] Evolution de la saveur des quarks lors de la formation d’un neutron [3] La physique des particules, Robert Zitoun 38 Le Z0 n'a pas de charge électrique. Il n'induit donc aucun changement de saveur lors d'une interaction faible, car il ne modifie ni la charge électrique, ni la masse de la particule. En fait, l'interaction faible du boson Z0 est assez similaire à l'échange d'un photon. En règle générale, si deux fermions peuvent échanger un photon, ils peuvent aussi échanger un Z0. La réciproque n'est pas évidente. Par exemple, un neutrino peut échanger un Z0 avec une autre particule mais pas un photon. La masse des W et du Z0 est très élevée (presque cent fois plus qu'un proton), la portée de l'interaction faible est très courte, de l'ordre de 10-18m. Le boson de Higgs Le boson de Higgs est, à l'heure actuelle, une particule dont l'existence n'a pas été détectée expérimentalement. Cependant, comme cela a déjà été remarqué dans le chapitre précédent, son existence semble induire qu'il réagit avec des particules. Le boson de Higgs, + permet de conférer une masse aux boson intermédiaires (W , W , Z0) et interagissant avec eux. Elle n'exerce aucune force sur le photon. Le graviton Bien que l'on n'ait jamais, expérimentalement, mis particule en évidence, postulée par la physique quantique, on peut supposer qu'elle influe sur la matière de la même manière que le photon, sans interagir avec la masse ni la charge électrique des particules. I.5.d. La désintégration des protons Principe La découverte de la radioactivité en 1896 par Antoine Henri Becquerel mit fin à une certitude scientifique, celle que les atomes étaient éternels. Pourtant, si cela est vrai pour des éléments lourds, comme l'uranium ou le radium, on peut maintenant penser que des noyaux plus légers peuvent se désintégrer. Seulement, la matière n'est tout de même pas très évanescente, et il faut réaliser que si Becquerel a mis en évidence la désintégration de l'uranium dans un cristal de sels d'uranium d'une masse de l'ordre de grandeur du gramme, pour observer celle d'atomes «ordinaires» il faut considérer un échantillon de plusieurs tonnes. Les scientifiques ont prouvé que le proton a une durée de vie au moins 1020 supérieure à l'âge de l'Univers, mais la théorie indique qu'il n'est pas éternel. Comment le proton, qui est au coeur de l'atome, peut-il se désintégrer ? Nous avons vu, en introduction à ce chapitre, les lois de conservation régissant les interactions entre particules, au travers d'une désintégration. Connaissant ces lois de conservation, tentons de les appliquer aux composants de l'atome. Considérons tout d'abord un électron, de masse 9,11 × 10-31 kg. Beaucoup de particules ont une masse inférieure à celle-ci, comme le photon, le graviton (tous deux de masse nulle) ou le neutrino. Pourtant, il n'existe pas de particule connue possédant cette propriété qui soit chargée négativement. En conséquence, l'électron est la particule chargée négativement la plus fondamentale qui existe, et il est insécable. 39 Maintenant, penchons nous sur le cas d'un proton (de charge électrique positive, et de masse) En appliquant ces mêmes lois de conservation, on peut obtenir plusieurs «combinaisons» répondant à ces critères. Divers mésons chargés positivement, ou un positon, remplissent les conditions nécessaires pour être des produits de désintégration du proton. Leur formation peut s'accompagner de la formation de particules neutres, comme des neutrinos. Le proton est un nucléon, donc sa désintégration produirait la modification de la nature de l'élément chimique considéré, et la libération d'énergie serait bien supérieure à celle produite par les désintégrations que l'on sait actuellement provoquer (au sein d'un réacteur nucléaire par exemple). Lors d'une transformation, le nombre baryonique (voir chapitre 4 sur les hadrons) se conserve, de la même manière que le nombre de charge électrique. La désintégration d'un proton et d'un électron en particules neutres violerait cette règle, et n'est, par voie de conséquence, pas acceptée comme telle. En revanche, rien n'empêche à un neutron de se désintégrer en un électron et un proton (car cette transformation respecte toutes les lois de conservation connues), connue sous le nom de «Désintégration bêta du neutron» (car il y a émission d'un élément radioactif bêta, soit un électron. Limite du nombre baryonique On peut se montrer sceptique à l'encontre de la notion de «nombre baryonique». Elle n'existe en effet que pour justifier la possibilité ou non d'une désintégration, sans autre signification. Elle n'a pas, à l'instar de la charge électrique, une signification dynamique concrète. En effet, si la charge électrique crée un champ électrique, qui a des propriétés électromagnétiques, qui n'a un sens que parce que la charge électrique est conservée, la conservation du nombre baryonique n'entraîne rien de cet ordre. On pourrait pourtant imaginer l'apparition d'une «force baryonique». Prenons le cas de la Terre, qui possède un nombre de protons et de neutrons de l'ordre de 4x1051, et qui a donc un nombre baryonique énorme. Deux corps de masse identique peuvent avoir un nombre baryonique dont la valeur diffère de un pour cent. Or on sait que les forces existant entre deux corps massiques sont fonction de leur masse, de leur distance, mais leur nombre baryonique ne joue aucun rôle. Les travaux des Chinois Chen Ning Yang, Tsung-Dao Lee, datant de 1951, ont montré que si cette force existe, elle serait 40 fois inférieure à la force gravitationnelle, ce qui rend l'existence d'une telle interaction peu probable. Pour justifier certains phénomènes, les scientifiques sont habitués à manipuler des grandeurs qui ne semblent pas avoir de correspondance dynamique, telle que celle observée avec la chargé électrique. C'est le cas, par exemple, de l'étrangeté (qui explique, pourquoi les mésons K et les hypérons ne peuvent être observés séparément). Il semblerait que le nombre baryonique soit également une grandeur sans signification concrète. Observation de la désintégration d'un proton Principe : le rayonnement, ou radiation Cerenkov Le rayonnement Cerenkov, du nom du scientifique russe Pavel Cerenkov, qui observa pour la première fois ce phénomène en 1934, est le résultat de l'onde de choc produite par une particule chargées électriquement, qui se déplace dans un milieu (autre que le vide) à une vitesse supérieure à celle de la lumière dans ce milieu. 40 Des photons sont émis, à l'intérieur d'un cône dont l'ouverture est fonction du milieu et de la vitesse de la particule d'après la relation suivante : θ étant l'angle caractéristique du cône, β le rapport de la vitesse de l'onde et de la célérité de la lumière dans le vide, et n l'indice de réfraction du milieu. On l'observe en particulier dans les centrales nucléaires (où il est responsable de la couleur bleue des piscines) ou lors de l'entrée de rayons cosmiques dans l'atmosphère terrestre. En effet, la vitesse de la lumière, si elle ne peut être dépassée, ni même atteinte, d'après la théorie relativiste, peut être dépassée dans un milieu autre : la vitesse de la lumière dans un milieu donnée, est obtenue par la relation suivante : c(milieu) = c(vide) n-1, n étant l'indice de réfraction du milieu, c étant la vitesse de la lumière. Sachant que l'air a un indice de réfraction de 1.00029, la vitesse de la lumière dans ce milieu vaut 0,099971 c(vide). Si l'on soumet des électrons à une différence de potentiel de 700 MeV, il peuvent atteindre une vitesse de 0,999999 c(vide), et sont donc susceptibles de produire une radiation Cerenkov. Dans un tube photomultiplicateur, le rayonnement Cerenkov est le signal d'une possible désintégration de proton, mais aussi d'interactions de particules très énergétique venant de l'espace. En effet, la plupart des émissions de lumière détectées par les tubes photomultiplicateurs ne proviennent pas de produits de désintégration du proton, comme la collision d'un neutrino. Le nombre de cônes de rayonnement Cerenkov et leurs orientations permettront de distinguer ces deux cas. En effet, la désintégration d'un proton en un positon et un méson neutre, par exemple, donnerait naissance à trois cônes de rayonnement Cerenkov selon des angles caractéristiques. Le positon donnerait, en effet, naissance à un cône, tandis que le méson pi neutre, serait responsable des deux autres cônes lumineux. L'interaction du neutrino engendre une seule cascade de particules chargées électriquement, elle est en conséquence observée comme un cône isolé de rayonnement Cerenkov. Ces rayonnements peuvent être enregistrés grâce à un compteur Cerenkov. [Figure 17] Principe de détection de la désintégration d’un proton [1] Les particules élémentaires, Michel Crozon 41 Comment observer une désintégration de protons ? Pour observer la désintégration d'un proton, il convient de placer des capteurs de type Cerenkov au sein de matière. Néanmoins, le proton n'est pas une particule dont la durée de vie est courte, on peut le sentir en observant que la matière ne change pas en permanence de nature, ce qui implique une certaine stabilité de son noyau atomique, donc ce phénomène est observable soit en visualisant un petit nombre de protons sur une grande période, soit en considérant un échantillon de plusieurs tonnes de matières. Il semble plus aisé de considérer la seconde approche. Les recherches les plus avancées à ce jour, dont les résultats aient été publiés, furent entreprises en collaboration par des chercheurs de l'Université Case Western Reserve, de l'Université du Witwatersrand, et de l'Université de Californie à Irvine, qui ont observé 20 tonnes d'or, à 3200 mètres de profondeur d'une mine d'or sud-africaine. Les résultats, publiés récemment, ont permis d'affirmer que la durée de vie moyenne du proton de l'ordre de 1030 années (cette valeur est la période radioactivité du proton). Vers la désintégration de toute matière ? La désintégration du proton inclut une «explosion» de la structure de l'atome, car elle influe sur l'équilibre même de son noyau. Toutefois, à notre échelle, cela a un impact négligeable, car, à titre de comparaison, si la période radioactive du proton est de l'ordre de 1030 années, l'âge de l'Univers est de 1010 années ! I.5.e. Les limites du modèle standard Comme nous venons de le voir, l'atome n'a pas fini de nous livrer ses secrets. La théorie atomique a fait d'énormes progrès lors du dernier siècle (la découverte de l'électron a 111 ans, ce qui est relativement récent), conduisant à l'aboutissement de la Physique Relativiste et à l'élaboration de la Physique Quantique, et nous permettant de mieux comprendre les constituants de l'atome, dont on ignorait jusqu’à l’existence-même il y a moins d'un siècle ! L'ensemble des connaissances atomiques actuelles est cependant encore incapable de répondre à certaines questions. Par exemple elle ne sait pas dire pourquoi il existe trois familles de quarks et de leptons, expliquer la nature profonde de la masse, ou prouver l'existence des dimensions supplémentaires prévues par les théories des supercordes. Le moyen actuel de valider les théories repose sur l'observation ce qui se passe lors des collisions atomiques, au sein des accélérateurs de particules. L'effort à fournir pour permettre d'affiner les d'études est, en effet, autant théorique qu'expérimental. Les prochains bouleversements importants se produiront d'ailleurs certainement après la mise en fonction du Large Hadron Collider, en 2008, qui va offrir de larges perspectives de recherche aux physiciens. 42 43 II. Les accélérateurs de particules 44 45 Les accélérateurs de particules sont des dispositifs destinés à la recherche fondamentale en sciences physiques. Ils servent à accélérer des faisceaux de particules chargées (électrons, positrons, protons, antiprotons...) pour les faire entrer en collision et étudier les particules générées au cours de cette collision. L'énergie des particules ainsi accélérées se mesure en électronvolts (1 eV est l’énergie imprimée à un électron ou proton -19 par une différence de potentiel de 1 Volt, soit environ 1,602 x 10 Joule) mais les unités 6 couramment employées sont souvent le million (1Mev = 10 eV), ou le milliard d'électronvolts (1Gev = 109 eV). Les accélérateurs actuels emploient des énergies de plusieurs centaines de GeV. −36 Un électronvolt correspond à une masse de 1.783 × 10 kg (d’après la relation E=mc²). Ainsi, pour évoquer la masse d’une particule, on préfèrera citer l’énergie nécessaire pour la mettre en évidence. Dans les années 1930, les scientifiques pensaient que les électrons, les protons et les neutrons étaient les plus petits objets en quoi la matière pouvait être divisée. On les désigna comme des « particules élémentaires » pensant qu'ils étaient indivisibles ; les nouveaux « atomes » selon le terme originel. Pour étudier l'interaction des neutrons et des protons dans le noyau de l'atome, les physiciens construisirent des accélérateurs de particules. Ceux-ci sont constitués de trois parties : une source de particules élémentaires, un tube placé sous vide partiel dans lequel les particules peuvent se déplacer librement, et des dispositifs d’accélération des particules. Leur rôle est de transmettre aux particules une énergie cinétique suffisamment grande et de les faire entrer en collision. L'énergie de ces collisions produit toutes sortes de particules qui sont ensuite détectées. À l'aide des accélérateurs, il fallut peu de temps pour réaliser qu'il y avait encore un autre niveau de structure à l'intérieur des protons et des neutrons. Ceux-ci étaient composés de plus petites particules qu'on baptisa quarks. Les protons et les neutrons sont construits à partir de trois quarks chacun. Jusqu'à maintenant, aucune sous-structure ne fut découverte aux quarks et aux électrons. Ce sont donc les nouvelles particules élémentaires. Mais l'histoire ne s'arrête pas aux quarks et aux électrons. L'observation de plusieurs centaines de particules différentes, souvent instables, a permis aux physiciens de déduire l'existence de quelques autres particules élémentaires. La description de la nature et de l'interaction de ces particules se trouve dans la théorie physique appelée le « modèle standard ». Au fil du temps, les scientifiques ont développé des accélérateurs de plus en plus puissants et permettant ainsi de nouvelles découvertes. 46 II.1. Les accélérateurs linéaires [6] [7] [8] [9] Ce type d'accélérateur correspond a la «première génération» d'accélérateur. Ils sont les plus anciens, apparaissant dès les années 1930 aux Etats-Unis. En France, au début des années 60, un accélérateur linéaire et son Anneau de Collision (ACO) dont l'énergie était de l'ordre du GeV a été construit à Orsay (Essone). [Figure 18] : Actuellement, le plus grand accélérateur linéaire au monde est celui de Stanford, aux Etats-Unis [5] La première seconde, Hubert Reeves Il existe deux types d’accélérateurs de particules linéaires : les premiers apparus sont les accélérateurs électrostatiques, puis le Norvégien Rolf Wideroë mit au point un nouveau type d’accélérateurs de particules : II.1.a. Les accélérateurs électrostatiques Des particules chargées peuvent être accélérées par un champ électrostatique. Une haute tension statique est appliquée entre 2 électrodes produisant ainsi un champ électrique. L'énergie acquise par les particules est égale, en électronvolts, à la différence de potentiel. En 1932, les scientifiques britanniques John D. Cockcroft et Ernest Walton ont pu accélérer des protons à 250 MeV en plaçant des électrodes ayant une différence de potentiel élevée à chaque extrémité d'un tube sous vide. [Figure 19] Principe d’un accélérateur de particules électrostatique http://sfp.in2p3.fr/accelerateur/cours/Intro-Acc-SFP.pdf Au début des années 1930, le physicien américain Robert Jemison Van de Graaff met au point l'accélérateur de type Van de Graaf : une différence de potentiel est établie entre deux électrodes par transport de charges sur un système en mouvement. Actuellement, ce type de dispositif est utilisé dans les microscopes électroniques pour l'étude des grosses molécules : cellules, virus... 47 II.1.b. Les accélérateurs de type Wideroë ou Alvarez Le faisceau, en passant dans une suite de cavités où règne un champ électrique alternatif délivré par le générateur Hautes Fréquences (HF), va pouvoir atteindre une énergie de quelques centaines de MeV. Rolf Wideröe fut le premier à construire une telle machine pour accélérer des ions K+ à 50 keV (1928). [Figure 20] Principe d’un accélérateur de type Wideroë [2] Les particules élémentaires, Michel Crozon et François Vanucci En 1931, D. Sloan et E. Lawrence construisirent un générateur HF de 50 kW à 10 MHz et purent ainsi accélérer des ions Hg+ à 1,26 MeV dans une machine qui comportait 30 tubes. Ce type d'accélérateurs convient principalement pour les ions de basse énergie. En 1970, un tel accélérateur, qui fournissait des électrons de 10GeV, a permis de mettre en évidence la structure interne des protons. D'autres accélérateurs, plus récents, sont les accélérateurs circulaires. Ils ont des dimensions inférieures à celles des accélérateurs linéaires pour une énergie égale. On en distingue 2 grands types : le cyclotron et le synchrotron. Les accélérateurs linéaires sont encore très utilisés, notamment pour accélérer les électrons. Ils servent comme injecteurs des accélérateurs circulaires. 48 II.2. Les accélérateurs circulaires [6] [7] [8] [9] On distingue aussi deux types d'accélérateurs circulaires : - les cyclotrons où les trajectoires des particules sont des spirales, sont constitués d'un seul aimant de courbure dont le diamètre peut atteindre plusieurs mètres. En France, le GANIL (Grand Accélérateur National d'Ions Lourds) situé à Caen est constitué de deux cyclotrons isochrones (qui ont la même fréquence). [Figure 21] Le GANIL (Grand Accélérateur National d'Ions Lourds) http://www.futura-sciences.com//img/ganil.jpg - les synchrotrons : Dans ce type d'accélérateur, les particules circulent sur la même trajectoire presque circulaire à l'intérieur d'une série d'aimants de courbure. Afin de maintenir les particules sur la même trajectoire, le champ magnétique augmente au fur et à mesure que l'énergie des particules augmente. Au CERN, à Genève, le Super Proton Synchrotron (SPS) atteint des énergies de 450 GeV. Il a servi d'injecteur au Large Electron Positron (LEP) et servira au futur Large Hadron Collider (LHC). [Figure 22] Le SPS (Super Proton Synchrotron) http://na47sun05.cern.ch/target/CERNSPS.html 49 II.2.a. Cyclotron Le cyclotron est un type d’accélérateur circulaire inventé par Ernest Orlando Lawrence en 1929. Dans un cyclotron, les particules placées dans un champ magnétique suivent une trajectoire en forme de spirale et sont accélérées par un champ électrique alternatif à des énergies de quelques MeV à une trentaine de MeV. [Figure 23] : Trajectoires de particules au sein d’un cyclotron [6] Les particules élémentaires Le champ magnétique est appliqué perpendiculairement dans une chambre vide en forme de disque, laquelle contient deux électrodes semi-circulaires en forme de D. Sous peine de perdre leur énergie par collision sur les molécules de l’atmosphère, les ions doivent être accélérés dans une enceinte où la pression est environ 10 milliards de fois plus faible que la pression atmosphérique. Les portions rectilignes de ces électrodes se font face. Le flux d’électrons ou d’ions traversant ce champ magnétique est soumis à une force perpendiculaire à la direction du mouvement (ce principe est utilisé pour le fonctionnement des moteurs électriques). Le champ magnétique force donc les électrons ou les ions à tourner sur un cercle de rayon proportionnel à leur vitesse. À chaque passage entre les électrodes 1 et 2, les ions reçoivent un supplément de vitesse qui les place sur une orbite un peu plus grande. Cette accélération est engendrée par un générateur de tension alternative. D’autres types d’accélérateur circulaire, d’invention plus récente, permettent d’atteindre des énergies supérieures : synchrocyclotron (centaines de MeV) et synchrotron (millions de MeV, ou TeV). 50 II.2.b. Synchrotron Le synchrotron est le plus récent des accélérateurs circulaires. Il est composé d'un tore (ou anneau de stockage) avec des aimants situés à intervalles réguliers. Ceux-ci servent à garder le flux de particules (électrons ou positrons) au centre du tube. D'autres aimants dans l'anneau permettent d'accélérer les particules (à une vitesse proche de celle de la lumière) en un ou plusieurs points à chaque fois que la particule fait un tour complet. Les particules entrent par bouffées dans le synchrotron, déjà accélérées à plusieurs MeV ; pour que les particules gardent le trajet imposé au fur et à mesure qu'elles sont accélérées, les forces des aimants sont augmentées. En quelques secondes, les particules atteignent une énergie de 1GeV ; lorsqu'elles atteignent une énergie suffisante, elles sont éjectées pour servir à des expériences ultérieures ou vers une cible particulière et une autre bouffée est injectée. Ils génèrent alors un rayonnement synchrotron qui sera exploité dans diverses expériences. Ce rayonnement est collecté à différents endroits du tore, les lignes de lumière. Chaque ligne de lumière est ensuite traitée avec des lentilles et monochromateurs afin de sélectionner une ou plusieurs longueurs d'onde précises. «A l’extrémité» de chaque ligne de lumière sont installés des appareils de mesure (spectromètre de masse, cristallographes,..) permettant de faire des expériences. Suivant la taille de l'anneau, des dizaines d'expériences peuvent être menées simultanément. La lumière synchrotron possède des caractéristiques exceptionnelles en comparaison à d'autres sources de lumière: son spectre d'émission s'étend de l'infrarouge aux rayons X. De plus, son rayonnement est pulsé, donc très stable. Le synchrotron permet, par ses qualités, l'accès à de nombreuses expériences : absorption des rayons X, cinétique chimique, cristallographie de protéines, etc… Ces expériences concernent des domaines très variés, allant de la chimie et la physique fondamentales, aux datations archéologiques ou à l´étude d'organismes microscopiques. Elles peuvent également être employées à des fins industrielles. En 1956, c'est grâce à un synchrotron à 6 GeV que les premiers antiprotons ont été identifiés à Berkeley. D'autres découvertes, comme les neutrinos muoniques, ont été faites grâce à de tels dispositifs. 51 Pour mieux comprendre le fonctionnement d’un accélérateur de particules synchrotron, nous pouvons étudier SOLEIL, qui est une source de lumière extrêmement puissante qui permet d’explorer la matière, inerte ou vivante. Plus concrètement, c’est un accélérateur de particules qui produit un rayonnement synchrotron. Ce rayonnement est fourni par un anneau de stockage de 354 m de circonférence dans lequel des électrons de très haute énergie circulent quasiment à la vitesse de la lumière. [Figure 24] L’accélérateur SOLEIL http://www.synchrotron-soleil.fr/francais/vie-scientifique/experiences Un faisceau d’électrons fin comme un cheveu est d’abord accéléré dans un accélérateur linéaire (1), un Linac de 27 mètres où il atteint la vitesse de la lumière. Après cette première accélération, le faisceau d’électrons est dirigé vers un deuxième injecteur appelé booster (2) qui porte leur énergie à la valeur de fonctionnement de SOLEIL soit 2,75 GeV. Ayant atteint 2,75 GeV grâce aux deux accélérateurs, les électrons sont injectés dans l’anneau de stockage de 364 mètres de circonférence (3). Le faisceau d’électrons tourne dans l’anneau de stockage, où sont installés différents dispositifs magnétiques : les aimants de courbure (4) dans les sections courbes, les quadrupôles et sextupôles (5), les wigglers et les onduleurs (6) dans les sections droites. A chaque passage dans les dispositifs magnétiques, les électrons sont accélérés et perdent de l’énergie sous forme d’une lumière particulière appelée « rayonnement synchrotron ». L’énergie perdue par les électrons en émettant le rayonnement synchrotron est compensée par une ou plusieurs cavités Radio-Fréquence RF (non représentées sur la figure). Le rayonnement synchrotron, produit dans les aimants de courbures et les éléments d’insertion (onduleurs et Wiggler), est dirigée par des systèmes optiques vers les stations expérimentales. Chaque ligne de lumière (7) constitue un véritable laboratoire de biologie, chimie, sciences de la Terre… 52 II.3. Large Hadron Collider (LHC) [9] [13] Le LHC (Large Hadron Collider) est le prochain grand accélérateur de particules qui sera mis en opération en 2007 au CERN en Suisse. À sa complétion, il sera le plus grand accélérateur du monde. Il est situé dans le tunnel de son prédécesseur, le collisionneur LEP (Large Electron Positron), qui fait 27 kilomètres de circonférence. [Figure 25] Le LHC (Large Hadron Collider) http://livefromcern.web.cern.ch/livefromcern/antimatter/history/historypictures/LHC-drawing-half.jpg Le projet LEP (collisionneur circulaire électron–positon du CERN) a été mis en fonctionnement en 1989. Son objectif principal était de mesurer avec précision des grandeurs physiques dans le but de tester le Modèle Standard des interactions électrofaibles et fortes. L’accélérateur a aussi permis de découvrir des particules plus lourdes non encore observées dans les autres accélérateurs. Après 12 ans de fonctionnement, il a été définitivement arrêté en Novembre 2000. Aujourd’hui encore, des physiciens analysent encore la multitude de données qui y ont été collectées. [Figure 26] Le LEP(Large Electron Positron) http://www.interactions.org/LHC/images/aerial.jpg Le LHC sera construit dans le même tunnel que le « Large Electron Positron Collider » (grand collisionneur électron-positon) LEP du CERN, et coûtera donc beaucoup moins qu'une machine similaire bâtie sur un site vierge. Les faisceaux de protons seront préparés par la chaîne d'accélérateurs existants au CERN avant d'être injectés dans le LHC. 53 [Figure 27] Schéma de principe du LHC http://lhc-injection-test.web.cern.ch/lhc-injection-test À la différence du LEP, des protons (une variété de hadrons) seront accélérés pour produire des collisions, au lieu des électrons ou des positons. Ces protons seront accélérés jusqu'à une énergie de 7 TeV (pour une énergie de collision de 14 TeV). Cinq expériences seront installées sur cet accélérateur, soit Atlas, CMS, TOTEM, LHC-b et Alice.Les deux premières étudieront la physique des particules, en particulier la recherche du boson de Higgs et des particules supersymétriques, TOTEM mesurera la section efficace totale du LHC, LHC-b étudiera la violation de la symétrie CP, et Alice étudiera la physique nucléaire. 54 [Figure 28] Les expériences réalisées sur le LHC http://felix.web.cern.ch/FELIX/Loi/HTML/C10/img1.gif II.4. Conclusion Au fil du temps, les accélérateurs de particules permettent d’atteindre des niveaux d’énergie (de collision) toujours plus importants (comme l’atteste le diagramme de Livingston, fourni en Annexe 3). A l’aide de ces dispositifs, les physiciens espèrent répondre à plusieurs questions. Ils sont en effet incapables, à l’aide des moyens actuels, d’expliquer l’origine de la masse, ou plutôt sa vraie nature. Des accélérateurs plus puissants pourraient également permettre de déterminer si l’antimatière est une réflexion parfaite de la matière (en terme de masse et de charge électrique). De plus, la prochaine construction du LHC permettra, espérons-le, de déterminer l’existence du boson de Higgs. La découverte expérimentale de ce dernier pourrait permettre de justifier l’interaction électrofaible, postulée jusqu’ici. Dernièrement, un projet a été formulé par des physiciens Japonais avec le concours de collègues d'autres nations asiatiques, en vue de construire un nouvel accélérateur leptonique au Japon. Cet accélérateur , déjà baptisé « GLC », serait un complément très utile au LHC. Le GLC (Global Linear Collider) serait une toute nouvelle sorte d’accélérateurs et pourrait permettre aux physiciens d’étudier plus précisément les phénomènes liés au Big Bang, et les tous premiers instants de notre Univers... 55 III. Le Big Bang 56 57 Élaboré dans les années 1940, le modèle du Big Bang est à la fin du XXème siècle la représentation théorique la moins contestée des modèles cosmologiques et la plus en accord avec les observations. Selon le modèle du Big Bang, une explosion initiale, survenue il y a une quinzaine de milliards d'années dans un Univers alors extrêmement dense et chaud, est à l'origine de l'expansion et de la structure de l'Univers tel qu'il est observé aujourd'hui. L'expression Big Bang, de l'anglais « big » (grand) et de l'onomatopée « bang » décrivant le bruit d'une explosion violente, fut conçue en 1950 par l'astronome américain Fred Hoyle dans un esprit de facétie et de provocation, puisqu'il était lui-même l'un des fondateurs d'un autre modèle, celui de la théorie dite quasi-stationnaire. III.1. La théorie du Big Bang [4] [5] [10] [11] [12] Il est important de signaler que le Big Bang (comme d'ailleurs le modèle standard des particules) n'est qu'une théorie, admise néanmoins par la plus grande partie de la communauté scientifique. Cette théorie change et s'affine rapidement. Ainsi des notions telles que l'âge exact de l'Univers, ou encore son devenir (évolution vers une dilution ou une recontraction), sont encore des sujets de controverse. Le Big Bang ne peut être décrit selon les équations connues de la physique qu'à partir de 10-6 seconde. Entre 10-43 et 10-6 seconde, le Big Bang n'est qu'un ensemble d'hypothèses. Avant 10-43 seconde, l'environnement de l'Univers est si extrême (masse de l'Univers concentré dans un point et température infinie?) que notre physique est pour l'instant humblement muette... Le meilleur argument de la création soudaine est l'expansion de l'univers non pas comme une explosion mais plutôt comme une dilatation. C'est en 1929 que l'expansion de l'Univers a bouleversé les idées. Jusque là, on considérait que l'univers était statique, que rien ne bougeait. Mais un astronome américain, Edwin Hubble découvrit que les galaxies s'éloignaient les unes des autres, particulièrement grâce à l'effet Doppler. Ce phénomène est appelé « la fuite des galaxies ». On en déduisit que si des choses s'éloignent les unes des autres, elles étaient auparavant rapprochées, d’où l'origine du Big Bang. Voici les différentes étapes du Big Bang, dans leur ordre de réalisation : Avant 10-43 secondes Tout ce qui se passe avant cette date chronologique incroyablement courte est un mystère total. 10-43 seconde correspond à ce que l'on dénomme le temps de Planck, sorte de quantum temporel incompressible (cf. chapitre I.3.b.). 58 Nul ne sait encore très bien à quoi pouvait bien ressembler notre univers à une telle échelle. La difficulté apparaît dès que l'on met en rapport un temps aussi minuscule que 10-43 seconde avec la colossale énergie de l'univers, concentrée, à l'époque, dans un volume aussi infime. A l'instant « 0 », on suppose toutefois que l'Univers avait une densité et une température infinie, mais aussi une taille infiniment petite. De 10 -43 à 10 -35 seconde : période dite de Grande Unification -33 Au temps de Planck, l’Univers mesurait environ 10 cm de diamètre, c'est-à-dire 10 millions de milliards de fois plus petit qu'un atome d'hydrogène. Sa température est de 1032 Kelvin. La Superforce se scinde en deux forces: la gravitation, et la force électronucléaire. [Figure 29] La Superforce http://molaire1.club.fr/bigbang.html La gravitation fait sécession et quitte le monde quantique. Désormais, son action à l'échelle des particules sera négligeable sauf dans des cas extrêmes (explosion d'étoiles par exemple). La force électronucléaire regroupe les interactions forte et électrofaible. Elle est décrite par la théorie actuelle de Grande Unification. De 10-35 à 10-32 seconde... l'inflation de l'Univers L’Univers a une température d’environ 1028 Kelvin. A ce moment précis de l'évolution universelle, il y a sécession de la force électronucléaire en interaction forte et en interaction électrofaible. Avec la gravitation, Il existe donc désormais trois forces distinctes dans l'Univers. [Figure 30] L’interaction électronucléaire http://molaire1.club.fr/bigbang.html 59 28 A cette température de 10 K, l'énorme énergie du vide est libérée et imprime à l'Univers une expansion fulgurante que le physicien Alan Guth a appelé inflation. -35 -32 Entre 10 et 10 seconde, son volume augmente d'un facteur 1027 alors que dans les 15 milliards d'années suivantes, son volume n'augmentera que d'un facteur 109. De 10 -32 à 10 -12 seconde : la naissance des quarks -32 A la fin de la période d'inflation, vers 10 seconde après le Big Bang, l'Univers mesure 25 quelques centimètres et sa température est de 10 K. C'est à ce moment que les premières particules de quarks et d'antiquarks surgissent du vide quantique dans un bain de photons. Cette matérialisation de matière et d'antimatière va entraîner aussitôt une lutte à mort entre ces deux composantes antagonistes: Les paires de particule / antiparticule vont s'annihiler pour devenir lumière (photons). Puis, ces mêmes photons vont, par une réaction symétrique, se matérialiser (E=mc² !) en paires de particule / antiparticule. L'Univers est alors une soupe de quarks et d'antiquarks en perpétuelle annihilation - matérialisation ! Cependant, la création initiale des couples particule-antiparticule ne va pas se faire de façon parfaitement symétrique: Un petit excédent de matière va apparaître : Pour 1 000 000 000 d'antiquarks créés, il y a 1 000 000 001 de quarks créés, et donc 1 seul quark survivant à la future grande annihilation : Un rapport de 1 pour 1 milliard, et voici comment une brisure de symétrie est responsable de l'existence de la matière dont nous sommes actuellement constitués ! De 10 -12 à 10 -6 seconde... la naissance des leptons 15 L'Univers se refroidit toujours (10 kilomètres. K) et grossit pour devenir une sphère de 300 millions de L'interaction électrofaible se dissocie à son tour en interactions faible et électromagnétique. Les 4 interactions fondamentales de l'univers sont donc différenciées comme elles le sont toujours actuellement. [Figure 31] L’interaction électrofaible http://molaire1.club.fr/bigbang.html Par ailleurs, la « soupe » de quarks et d'antiquarks s'est enrichie de particules légères, sensibles à l'interaction faible : les leptons. Ces leptons regroupent les électrons, muons, tau et leurs neutrinos correspondants, ainsi que leurs antiparticules. 60 [Figure 32] L’électron et son antiparticule, le positron (ou positon) http://molaire1.club.fr/bigbang.html De 10-6 à 10-4 seconde : la phase des hadrons (A partir de ce moment que les mathématiques laissent leur place aux sciences physiques.) 13 Le volume de l'Univers est équivalent à celui du système solaire actuel, soit 10 13 température est désormais de 10 K. m et sa La baisse de température fait que les quarks n'ont plus assez d'énergie pour exister seuls : l'interaction forte peut alors grouper les quarks en hadrons : [Figure 33] Différents hadrons http://molaire1.club.fr/bigbang.html 3 quarks forment des baryons: les protons et les neutrons naissent. 3 antiquarks forment des antibaryons: antiprotons et antineutrons. les paires quark/antiquark forment des mésons. La fin de cette période marque aussi la disparition des antiquarks . En effet, nous avons vu qu'il y avait un léger excès de quarks (1 quark en trop pour 1 milliard d'antiquarks) à 10-32s. Ainsi tous les protons et neutrons, nouvellement formés, vont finir de s'annihiler avec leurs antiparticules: Il ne restera donc au final qu'un léger excédent de matière. La température est devenue trop faible pour que les photons puissent se rematérialiser en couple paticule/antiparticule. Les rares protons et neutrons survivants sont donc « gelés» et forment la matière de l'Univers. De 0,0001 à 1 seconde : la phase des leptons 10 La température de l’Univers est maintenant de 10 K A cette température, il se produit une deuxième grande annihilation de matière et d'antimatière: elle concerne cette fois les leptons et leurs antiparticules. En effet, les photons, épuisés par l'expansion de l'Univers, n'ont plus assez d'énergie pour se convertir (par matérialisation) en paire électron/ntiélectron. 61 Les paires lepton/antilepton subissent ainsi le sort des hadrons : elles s'annihilent dans un océan de photons et seule une fraction d'un milliardième de leptons survit à l'hécatombe. L’antimatière disparaît en quelque sorte de l’Univers. La matière est désormais au grand complet, mais la température est toujours trop élevée pour que les atomes puissent se former. L'Univers est une grosse masse lumineuse de plasma brûlant formé de hadrons et de leptons célibataires. Les neutrinos cessent d'interagir avec la matière et s'en séparent. De 1 à 3 secondes : Formation des premiers noyaux d'atomes La température chute à 106 K : elle est suffisamment basse pour que les protons et neutrons puissent s'assembler durablement. [Figure 34] Deux noyaux atomiques : l’Hydrogène et l’Helium http://molaire1.club.fr/bigbang.html Les protons seuls forment des noyaux d'hydrogène (constitués d’un proton et d’un électron) Les protons et neutrons qui se rencontrent, peuvent aussi s'assembler pour former des noyaux d'hélium (2 protons + 2 neutrons): Cette phase se nomme la nucléosynthèse primordiale. La matière de l'Univers se compose alors des noyaux d'atomes suivants : environ 75% d'hydrogène H environ 25% d'hélium He des traces de Li-7 (lithium à 3 protons et 4 neutrons) et d'isotopes tels que Deutérium (H-2, dont le noyau est constitué d’un proton et de deux neutrons), He-3, He-4... 99% de la matière actuelle de l'Univers se forme à cette lointaine époque. Le 1% restant, non encore apparu, est constitué de tous les atomes ayant plus de 2 protons dans leur noyau, parmi lesquels les atomes de carbone, d'azote et d'oxygène dont nous sommes constitués. Tous ces atomes complexes seront formés dans les réactions thermonucléaires du coeur des étoiles qui vont naître... A cette époque, les électrons sont toujours libres car très énergétiques. Ils ne se lient donc pas encore aux noyaux pour former les atomes H (hydrogène) et He (hélium). 62 De 3 minutes à 300 000 ans : l'Univers devient transparent L’Univers est à une température de 10 000 K Jusque là, les photons étaient continuellement émis et absorbés par les particules environnantes. Puis, avec la chute de température et de densité de l'Univers, les photons vont cesser d'interagir avec la matière : ils vont pouvoir enfin traverser l'Univers sans obstacle: il y a découplage entre les photons et la matière: l'Univers devient subitement transparent. Cette lumière libérée et provenant de tout point de l'espace peut être actuellement captée par nos astrophysiciens: c'est ce qui est appelé le fameux «rayonnement fossile » à 3K de l'Univers, vestige du Big Bang. [Figure 35] : Le rayonnement fossile à 3 K vu par le satellite COBE http://cas.sdss.org/dr4/en/astro/universe/images/cobe.jp 300 000 ans et après : la formation des premiers atomes 300 000 ans après le Big Bang, les électrons vont pouvoir être captés autour des noyaux d'hydrogène et d'hélium présents. Les premiers atomes naissent alors, et l'interaction électromagnétique peut enfin jouer pleinement son rôle. Ces évènements ultrarapides de la naissance de l'Univers se sont déroulés il y a environ 15 milliards d'années. Certaines découvertes astrophysiques récentes pencheraient même pour un âge de l'Univers plus récent, de l'ordre de 10 milliards d'années. Après un milliard d'années, les galaxies commencent à se former, ainsi que des étoiles. L'Univers est maintenant prêt à accueillir la formation de nouvelles étoiles et planètes, ainsi que tous les phénomènes qui se produisent aujourd'hui. Le processus qui vient d'être décrit ici comporte cependant encore de nombreux points obscurs. Un schéma résumant la chronologie du Big Bang est consultable en document annexe (cf. Annexe 4) 63 III.2. Les limites de la théorie [4] [5] [10] [11] Malgré une réputation mondiale, la théorie du Big Bang a ses faiblesses. Certains éléments sont encore inexpliqués et inexplicables par cette théorie. L'homogénéité de l'univers: Quelle que soit la direction dans laquelle on regarde, toutes les régions de l'univers possèdent la même température, la même pression. Or, si l'univers a effectivement 15 milliards d'années, il est impossible que toutes ses régions aient eu le temps de s'homogénéiser, surtout les plus éloignées. Même la matière s'est organisée (regroupée en galaxies et amas de galaxies), elle forme des grumeaux dans l'univers. Une théorie a été avancée pour expliquer ce phénomène: l'inflation. La platitude de l'univers : Des études récentes ont montré que notre univers est plat. Alors que toute la matière le composant devrait le courber, rendant son rayon très petit. Les chances que l'univers soit «préparé» dès sa naissance à être ainsi sont quasi-nulles. Là encore la théorie de l'inflation peut être utilisée, puisqu'elle explique que l'univers s'est aplati peu de temps après le Big Bang. Temps « 0 » : Est il vraiment sérieux d'imaginer un temps « zéro » et l'infinité de l'univers ? Le temps zéro et sa densité infinie s'écartent de la science et de toute loi physique. Et comment cela auraitil pu donner naissance à la matière ? La température de l’Univers à ce temps « 0 », est supposée tendre vers l’infini. Or, dans la physique «classique», une théorie aboutissant à une grandeur infinie est considérée comme fausse. Que penser alors de la théorie du Big Bang ? Le Big Bang a beau décrire avec précision les premiers moments de l'univers, de nombreux problèmes semblent donc insolubles. Ainsi, il est dit qu'au soi-disant temps «zéro», les lois de la physique n'ont aucun sens. La théorie de l'inflation continue résout pour sa part certains problèmes mais pas tous. De plus, elle est considérée par un certain nombre de physicien et astrophysicien comme un bricolage, une théorie inventée pour combler les «trous» du Big Bang. Inventer pour remplir, en quelque sorte... La théorie du Big Bang n'est donc finalement pas aussi stable qu'on peut le penser. Tous ses problèmes peuvent très bien amener à une nouvelle théorie; le Big Bang ne deviendrait alors qu'une théorie ayant fait son temps, amenée irrémédiablement à disparaître... Cependant, avant d’élaborer une nouvelle théorie, plus performante, pour expliquer l’origine de l’Univers, il faudrait avant toute chose comprendre les erreurs d’appréciations que nous faisons 64 III.3. Le futur instrument de recherche, le GLC [13] Le GLC est un nouvel accélérateur de particule qui permettra, si il est construit, aux physiciens de voir ce qui s'est produit quelques instants après le Big Bang. Contrairement à ses prédécesseurs qui étaient circulaires, cet accélérateur sera construit en ligne droite. Il permettra d'explorer de nouvelles plages d'énergie où les physiciens des particules espèrent mettre en évidence des particules jusqu'à présent inconnues et en déduire de nouvelles théories décrivant le fonctionnement des particules les plus petites de notre Univers. Cependant il reste de nombreux défis technologiques à relever avant de pouvoir commencer la construction du GLC. Les physiciens des particules espèrent pouvoir analyser les premières données produites par le GLC aux environs de l'année 2015. Malgré d'intenses recherches durant la dernière décennie, aucune trace de théorie ``au-delà du Modèle Standard'' n'a été trouvée. Cela s'explique par le fait que les phénomènes qu'elles gouvernent se produisent à des énergies supérieures à celles atteintes par les accélérateurs de particules actuels. Pour atteindre les énergies requises par ces théories, il est nécessaire d'utiliser un accélérateur de particules plus puissant. Le GLC (Global Linear Collider) est un projet formulé par des physiciens Japonais avec des collègues issus d'autres nations asiatiques en vue de construire un nouvel accélérateur leptonique au Japon. Cet accélérateur leptonique serait un complément très utile au LHC. III.3.a Un nouveau type d'accélérateur linéaire Traditionnellement, les accélérateurs de particules, qu'ils soient leptoniques ou hadroniques) sont circulaires. Cela permet d'accélérer les particules pendant de nombreux tours et donc d'atteindre des énergies élevées grâce à ces accélérations répétées. Malheureusement, les électrons émettent des radiations lorsqu'ils suivent une trajectoire courbe et perdent une partie de leur énergie. Plus ils vont vite, plus l'énergie perdue est grande, jusqu'à un point où ils perdent autant d'énergie en un tour qu'ils n'en gagnent. Pour aller au-delà de cette énergie, il faut utiliser un accélérateur linéaire. Cependant, dans un accélérateur linéaire, les électrons ne passent qu'une seule fois dans chaque structure accélératrice, l'accélérateur doit donc avoir un nombre de structures suffisantes pour atteindre les énergies voulues. Pour atteindre les énergies requises par les nouvelles théories, il faut un accélérateur ayant une longueur d'environ 25-30km. [Figure 36] Schéma de collision au sein d’un accélérateur linéraire http://fr.lc.delerue.org/ Construire un nouvel accélérateur de cette sorte n'est pas facile et nécessite de nombreuses études avant même de pouvoir commencer la construction. 65 III.3.b A quoi cela va-t-il servir? Il n'est pas possible de démarrer un projet d'un tel coût sans se demander comment il va affecter notre vie quotidienne. Si les avancées attendues dans le domaine de la physique des particules sont clairement identifiées, les retombées de ces découvertes pour le grand public sont beaucoup plus difficiles à évaluer. Cependant, il est possible de regarder en arrière. Lorsque J.J.Thompson découvrit l'électron en 1897 personne ne suspectait les implications que cette découverte allait avoir sur notre vie quotidienne. Pourtant les faisceaux d'électrons sont indispensables au fonctionnement des télévisions cathodiques. Les accélérateurs de particules sont aussi utilisés pour traiter certains cas de cancer ou pour produire des rayons X très puissants permettant de voir au coeur des matériaux. Lors de la construction d'un Airbus, par exemple, certaines pièces importantes sont exposées aux rayonnements produits par un accélérateur de particules pour s'assurer qu'elles ne présentent aucun défaut. Enfin, c'est au CERN, l'un des plus grands accélérateurs de particules du monde, qu'a été mis au point le web, pour répondre aux besoins des physiciens des particules. Si nous ne savons pas encore exactement quelles seront les retombées pour le grand public du futur accélérateur linéaire, il est difficile de douter qu'elles seront nombreuses. Le projet GLC implique déjà des centaines de physiciens dans le monde et une douzaine d'années seront nécessaires avant sa réalisation, cependant une fois ce travail titanesque achevé, les physiciens des particules espèrent pouvoir répondre à de nombreuses questions laissées en suspend par le Modèle Standard. 66 67 Conclusion Bien que la majeure partie de la communauté scientifique approuve la théorie du Big Bang et l’avance afin d’expliquer la création de l’Univers, il est avéré que de nombreux points des cette théorie demeurent obscurs. Dans le but de percer ces mystères, les physiciens ont développé les accélérateurs de particules, qui permettent d’explorer des plages d’énergie de plus en plus larges. La physique des particules est donc un domaine en perpétuelle évolution. La mise en évidence expérimentale de certaines particules, dont on soupçonne l’existence, pourrait permettre aux scientifiques de franchir une nouvelle étape dans la compréhension de la création de l’Univers, mais pourrait sérieusement remettre en cause toute la théorie actuelle du Big Bang. Récemment, des scientifiques américains ont collecté de nouvelles données recueillies grâce au satellite WMAP (Wilkinson Microwave Anisotropy Probe). Celui-ci a permis de cartographier la chaleur dégagée lors de l’explosion initiale qui semblent confirmer l’existence d’un Big Bang, dont les résultats ont récemment été publiés, le 21 mars 2006. Ainsi, on constate bien que les perspectives d’avancées dans ce domaine sont encore grandes, car les données recueillies par astrophysiciens aussi bien que par les spécialistes en physique des particules tentent d’expliquer l’origine de notre Univers. 68 69 Références bibliographiques Ouvrages : [1] CROZON M. – L’univers des particules – Paris : Seuil, 1999, 256p. [2] CROZON M. & VANUCCI F. – Les particules élémentaires – Paris : 1993, 128p. [3] ZITOUN R. – La physique des particules – Paris : Nathan, 1998, 128p. [4] BOGDANOV I. & G. – Avant le Big Bang – Paris : Grasset, 2004, 394p. [5] REEVES H. – La première seconde, Dernières nouvelles du cosmos – Paris : Seuil, 1995, 258p [6] Les particules élémentaires – Paris : Pour la Science, 1986, 218p. Sites Internet : [7] Wikipédia (consulté le 20/10/2005), http://fr.wikipedia.org/wiki/Acc%C3%A9l%C3%A9rateur_de_particules [8] Site du CERN (consulté le 20/11/2005), http://public.web.cern.ch/public/Welcome-fr.html [9] Wikipédia (consulté le 20/11/2005), http://fr.wikipedia.org/wiki/CERN [10] Wikipédia (consulté le 20/11/2005) http://fr.wikipedia.org/wiki/Big_bang#L.27instant_du_Big Bang [11] Site réalisé par Cyberic WOLLBRETT (consulté le 03/12/2005) http://molaire1.club.fr/bigbang2.html [12] Site réalisé par Sébastien Guéret (consulté le 04/12/2005) http://www.astrofiles.net/article31.html [13] Site réalisé par Nicolas Delerue (consulté le 22/11/2005) http://fr.lc.delerue.org [14] futura-sciences.com (consulté le 13/12/2005) http://www.futura-sciences.com/comprendre/d/dossier516-1.php [15] http://hyperphysics.phy-astr.gsu.edu/hbase/particles/expar.html [16] Site du SLAC (consulté le 20/12/2005) http://www2.slac.stanford.edu/vvc/theory/feynman.html [17] Site de l’in2p3 (consulté le 20/12/2005) http://voyage.in2p3.fr/standard.html 70 71 Annexe 1 Les particules élémentaires, et leur superparticule associée http://www.diffusion.ens.fr/vip/pageI01.html 72 Annexe 2a Table des baryons Nom Symbole Constitution en quarks Charge* Proton p up, up, down 1 Neutron n down, down, up 0 Lambda Λ +c up, down, charmed 1 Lambda Λ0 up, down, strange 0 Sigma Σ+ up, up, strange 1 Sigma Σ- down, down, strange -1 Sigma Σ0 up, down, strange 0 Delta Δ++ up, up, up 2 Delta Δ+ up, up, down 1 Delta Δ- down, down, down -1 Delta Δ0 up, down, down 0 Xi Cascade Ξ- down, strange, strange -1 Xi Cascade Ξ0 up, strange, strange 0 Omega Ω- strange, strange, strange -1 * (en fraction de charge élémentaire) http://hyperphysics.phy-astr.gsu.edu/hbase/particles/baryon.html 73 Annexe 2b Table des mésons Nom Symbole Constitution en quarks Charge* Pion π+ π- up, anti-down 1 down, anti-up -1 Pion π0 up,anti-up ou down-anti down 0 Kaon K+ up, anti-strange 1 Kaon K- strange, anti-up -1 Kaon K0 down, anti-strange ou strangeantidown 0 Eta η0 η'0 η»0 ρ+ up, antiup 0 down, antidown 0 strange, antistrange 0 up, antidown 1 down, antiup -1 up-antiup ou down-antidown 0 up-antiup ou down-antidown 0 strange, antistrange 0 Pion Eta Eta Rho Rho Rho Omega Phi ρρ0 ω0 φ * (en fraction de charge élémentaire) A noter que des mésons peuvent être constitués des mêmes quarks, comme c'est le cas par + + exemple du π et du ρ qui diffèrent cependant par leur nombre de spin, et leur masse. http://hyperphysics.phy-astr.gsu.edu/hbase/particles/meson.html 74 Annexe 3 Ce graphique montre la progression régulière des énergies atteintes par l'accélération des particules depuis les années 1930 (date de construction des premiers accélérateurs). Il faut, de plus, noter que l'échelle est logarithmique. Des innovations successives ont alimenté ce progrès, mais un certain ralentissement semble aujourd'hui se manifester. [1] L’univers des particules, Michel Crozon 75 Annexe 4 Expansion de l’Univers de sa création à nos jours http://molaire1.club.fr/bigbang.html 76