CHARBONNIER (Mathieu) CHARYK (Julien)

publicité
ECOLE DES MINES DOUAI
______________
CHARBONNIER (Mathieu)
CHARYK (Julien)
ETUDE BIBLIOGRAPHIQUE
Matière et Antimatière :
Comment l’infiniment petit permet-il d’expliquer la création de l’Univers ?
Promotion 2009
Année scolaire 2005-2006
2
3
Remerciements
Nous tenons à remercier notre marraine d’étude bibliographique, Mme Nadine
Locoge, Enseignante-chercheur du département Chimie & Environnement pour sa
coopération et sa disponibilité.
Avertissement
Certaines sources, notamment des sites Internet ou l'ouvrage des frères
Bogdanov, controversés dans le milieu scientifique, et cités dans cette étude, peuvent
sembler refléter un manque de rigueur de notre part. Toutefois, afin de prévenir ces
abus, toute source « litigieuse » a soigneusement été vérifiée, ou n'a été utilisée que
pour en tirer un graphique, une représentation qui nous semblait pertinente des faits
admis par une grande partie de la communauté scientifique.
La physique des particules est un vaste domaine, qui n'a pas encore été pleinement
exploré et compris par les physiciens. Les découvertes à venir dans ce domaine sont
encore importantes, et permettront sans doute d'expliquer davantage les
phénomènes que l'on peut observer.
L'étude proposée n'est donc qu'une approche de ce sujet, telle qu'on peut le faire à
notre époque, d'après ce qui est admis par la communauté scientifique, ou ce qui est
prévu, mais non observé encore.
Il en va de même au sujet du Big Bang, qui n'est à ce jour qu'une théorie qui n'a pas
encore connu son aboutissement, car elle révèle encore certaines imperfections.
De plus, certains chapitres comme le Théorème de Noether peuvent sembler
superflus. Ils nous ont, toutefois, paru importants en raison de leur « poids » pour
l’avancée de la recherche, ou des connaissances.
4
5
Sommaire
Remerciements - Avertissement.................................................................................. 3
Sommaire.................................................................................................................... 5
Résumé....................................................................................................................... 7
Abstract....................................................................................................................... 9
Introduction ................................................................................................................. 11
I.
Les constituants de l’atome ...................................................................13
I.1. Evolution du modèle atomique de l'Antiquité à nos jours ....................15
I.1.a.
I.1.b.
I.1.c.
Les premières notions liées à la matière .............................................. 15
Les progrès scientifiques aux XVIIème et XVIIIème siècles ...................... 15
Le XIXème siècle ou le triomphe de l'atome ........................................... 16
I.2. Les différents modèles atomiques....................................................... 17
I.2.a.
I.2.b.
I.2.c.
I.2.d.
Le modèle de Thomson........................................................................ 17
Le modèle de Rutherford...................................................................... 17
Le modèle de Bohr............................................................................... 17
Le modèle actuel, de Schrödinger ........................................................ 18
I.3. Les théories physiques actuelles ........................................................19
I.3.a.
I.3.b.
I.3.c.
La physique relativiste.......................................................................... 19
La physique quantique ......................................................................... 21
Unification de ces deux théories........................................................... 23
I.4. Du modèle standard aux propriétés des particules élémentaires........25
I.4.a.
I.4.b.
I.4.c.
Introduction .......................................................................................... 25
Le modèle standard et la classification des particules .......................... 26
Les interactions fondamentales............................................................ 32
I.5. Les interactions particulaires et les limites du modèle standard..........34
I.5.a.
I.5.b.
I.5.c.
I.5.d.
I.5.e.
Les lois de conservation....................................................................... 34
La représentation (ou diagramme) de Feynman................................... 35
Les interactions entre particules........................................................... 35
La désintégration du proton.................................................................. 38
Les limites du modèle standard ............................................................ 41
II. Les accélérateurs de particules...................................................................43
II.1. Les accélérateurs linéaires..................................................................46
II.1.a. Les accélérateurs électrostatiques ....................................................... 46
II.1.b. Les accélérateurs de type Wideroë ou Alvarez..................................... 47
II.2. Les accélérateurs circulaires...............................................................48
II.2.a. Cyclotron.............................................................................................. 49
II.2.b. Synchrotron.......................................................................................... 50
II.3. Large Hadron Collider (LHC)...............................................................52
II.4. Conclusion ..........................................................................................54
6
III. Le Big Bang ................................................................................................... 55
III.1. La théorie du Big Bang........................................................................57
III.2. Les limites de la théorie.......................................................................63
III.3. Le futur instrument de recherche, le GLC ...........................................64
III.3.a. Un nouveau type d’accélérateur linéaire............................................... 64
III.3.b. A quoi cela va-t-il servir ? ..................................................................... 65
Conclusion.........................................................................................................67
Références Bibliographiques............................................................................. 69
Annexes.............................................................................................................71
7
Résumé
Comment expliquer l’origine de la matière, et des grands astres qui nous
entourent ? Les physiciens répondent actuellement à cette question en avançant
l’explication du Big Bang, qui n’est pour l’instant qu’une théorie limitée.
Pour comprendre ce grand mécanisme originel de tout ce qui est, il nous faut
revenir à la structure particulaire de la matière. Les progrès observés dans ce
domaine ces dernières années sont en effet les plus importants jamais réalisés. Ils
nécessitent d’ailleurs
souvent l’élaboration de nouveaux modèles physiques. La
meilleure illustration est peut-être que ce champ de recherche était encore inconnu il
y a quelques décennies.
Planck ne dit-il pas lui-même, à la fin du XIXème siècle, que les sciences
avaient atteint un niveau tel qu’il ne restait que « quelques chiffres à ajouter après la
virgule », avant de révolutionner les perceptions physiques ?
Les physiciens tentent ainsi de remonter toujours plus loin dans le temps, en
découvrant l’organisation de la matière à l’aide de dispositifs tels que les
accélérateurs de particules. Ces derniers permettent, en effet d’explorer la matière
en détail, et de détecter les particules élémentaires la constituant.
Les recherches permettront peut-être, un jour, d’expliquer ce qui s’est
réellement passé lors de la formation de l’Univers il y a quelques 15 milliards
d’années…
Mots matières :
- Matière
- Antimatière
- Particules
- Accélérateurs de particules
- Atome
- Interactions
- Big Bang
- Univers
8
9
Abstract
How to explain the origin of matter, and of big stars that surround us ?
Physicists now answer this question by arguing the Big Bang theory, which is just a
limited one for the moment.
In order to understand this mechanism, basis of everything that is, we have to
study the elementary particles of matter. In fact, progresses made in this field in the
recent years are the most important ever realized. Besides, they often need the
elaboration of new models. Maybe that the best illustration of this phenomenon is
that this field of research was unknown a few decades ago.
Didn’t Planck himself say, at the end of the 19h century, that Science have
reached such a level, that they just remain «a few numbers to add after the comma»,
before revolutionizing physics.
Scientists forever want to go back far and far away in the time, discovering the
organisation of matter, with such systems as particles accelerators. These
accelerators permit to explore matter in details and to detect elementary particles
which constitutes this one.
We now hope, that researches will explain, one day, what really happened at
the formation of the Universe, nearly 15 billion years ago.
Keywords :
- Matter
- Antimatter
- Particles
- Accelerator
- Atom
- Interactions
- Big Bang
- Universe
10
11
Introduction
Au cours de l'Histoire, les Hommes ont tenté de comprendre le monde qui les
entoure. De nombreuses croyances, théories et preuves scientifiques se sont
succédées afin de répondre à la question : « De quoi la matière est-elle faite et d’où
vient-elle ? »
Du Grec Démocrite (IVème siècle avant J.C.) au célèbre Dmitri Mendeleïv
(XIXème siècle), de nombreuses réponses ont été proposées. Au début du XXème
siècle, la plupart des scientifiques s'accordaient sur l'idée que la matière était faite
d'atomes. Ces atomes étaient considérés comme des particules « insécables »
(comme le suggère l'étymologie grecque de leur nom). Mais rapidement de nouvelles
études indiquèrent qu’ils étaient constitués de protons, de neutrons et d’électrons.
Plus tard, une nouvelle découverte montra que ces protons et neutrons étaient euxmêmes constitués d'autres particules qui furent appelées des quarks.
Dans cette optique, les physiciens ont développé les accélérateurs de
particules afin de faire entrer en collision ces particules à des niveaux d’énergie très
élevés et d’observer plus précisément les différents constituants de la matière qui
nous entoure.
Enfin, voyager au cœur de la matière permet également de voyager dans le
temps, jusqu’à l’origine de l’Univers… La compréhension de l’atome peut expliquer la
théorie du Big Bang.
Au cours de notre étude, nous avons élaboré une synthèse de la composition
de la matière, base indispensable à la compréhension de l’Univers qui nous entoure.
Nous tenterons ensuite d’expliquer les différents outils employés par les physiciens :
les accélérateurs de particules. Nous conclurons notre travail en étudiant l’une des
grandes questions existentielles concernant la formation de l’Univers, et la théorie
actuelle, celle du Big Bang.
12
13
I. Les constituants de
l’atome
14
15
I.1. Evolution du modèle atomique de l'Antiquité à nos jours [1] [6]
I.1.a.
Les premières notions liées à la matière
D'après la doctrine d'Empédocle, médecin grec du Vème siècle avant J-C, la matière
peut prendre quatre états : l'eau, le feu, l'air, et la terre. Cette croyance trouve une
explication dans l'observation de la combustion d'un morceau de bois : il y a production de
fumée (air), de vapeur d'eau (eau) et de cendre (terre).
Leucippe et Démocrite d'Abdère, reprennent ses idées, et imaginent un constituant insécable
de base de la manière : l'atome (atomos [ατομος]), littéralement « que l'on ne peut diviser »,
comme un « grain composant la matière », qui peut toutefois différer par sa forme. Ce
dernier énonça que « Rien ne vient du néant, et rien, après avoir été détruit, n'y retourne. ».
Il y a donc de la matière et du vide.
Selon Epicure (IIIème siècle avant J.C.), l'atome a une forme, un poids, une vitesse, vibre, et
est en déplacement dans le vide. Si les atomes ne peuvent s'entrechoquer, c'est en raison
d'une déviation spontanée (le clinamen). Les atomes s'unissent pour former des ensembles
comme la terre, la mer, le ciel, ou tous les êtres vivants.
A ce stade, l'existence de l'atome n'est qu'une intuition sans aucune base expérimentale. Il
faudra attendra plus de vingt siècles pour tenter de prouver que l'atome constitue la matière.
I.1.b. Les progrès scientifiques aux XVII
ème
et XVIIIème siècles
En 1644, René Descartes émet l'idée que les gaz sont constitués de particules
tourbillonnantes. Il s'agit encore d’une supposition imagée, sans l'appui de l'expérience. Des
scientifiques, comme Newton ou Galilée, se rallient à la conception atomiste du monde. Les
progrès scientifiques se poursuivent. En effet, vers 1730, les Suisses Euler et Bernouilli
émettent une conception « cinétique « des gaz qui explique la température d'un gaz et sa
pression
grâce
au
mouvement
des
particules
de
ce
corps.
La chimie prend véritablement naissance lorsqu'en 1773, Antoine Laurent de Lavoisier
déclare que « Rien ne se perd, rien ne se crée, tout se transforme ». Cela induit que la
masse se transforme (on ne parle pas encore de « quantité de matière «, et que les
éléments chimiques se conservent, sans garder la même organisation. Le Français réalise la
première synthèse chimique : celle de l'eau en substances élémentaires : le dioxygène et le
dihydrogène.
A la suite de cette découverte de grande importance, des chimistes anglais, Joseph Black,
Henry Cavendish et Joseph Priestley mettent en évidence, à la fin du XVIIIè siècle différents
gaz : le gaz carbonique (« air fixe » ), le dihydrogène (« air inflammable »), le diazote, ou le
dioxygène.
En 1808, le chimiste anglais John Dalton pensa qu'il existait d'autres composants de la
matière, les molécules, et que les atomes pouvaient se regrouper entre eux de différentes
manières. Il émit de ces observations des idées à la base de la théorie atomique : les
molécules sont formées par des atomes, selon des proportions définies, et les atomes d'un
même élément ont les mêmes propriétés (leur masse est propre à l'élément).
16
I.1.c.
Le XIXème siècle ou le triomphe de l'atome
Dès lors, la chimie se développe, intéressant de nombreux scientifiques qui
participent à son essor.
En 1869, le Russe Dmitri Ivanovitch Mendeleïev, classe les atomes par masse croissante.
En observant, de plus, des similitudes de propriétés chimiques, il établit un tableau de
classification : le Tableau de classification périodique des éléments, empirique, et qui sera
ensuite vérifié lorsque la structure des atomes sera connue. Dans le même temps, un
chimiste allemand, Lothar Meyer, effectue le même travail sans que les deux hommes ne le
sachent. Sa classification paraît en 1870, mais cette dernière reste peu utilisée.
En 1900, l'Allemand Max Planck montre la quantification des niveaux d'énergie de l'électron
autour de l'atome, selon la relation E = hν (E représente l'énergie de la particule, v est la
longueur d'onde de l'onde émise, et h est appelée «constante de Planck», cf. chapitre II.3.b.
sur la physique quantique).
Louis de Broglie, père de la mécanique ondulatoire, dira de ce dernier que «l’œuvre qu’il a
accomplie est de celles qui assurent à leur auteur une gloire immortelle».
En 1905, L'Allemand Albert Einstein et le Polonais Marian von Smoluchowski évoquent la
théorie atomique du mouvement Brownien, dont le nom provient du biologiste écossais
Robert Brown. Il décrit le mouvement aléatoire d'une «grosse» particule immergée dans un
fluide et qui ne subit comme seule interaction que les chocs des molécules, de plus petite
taille, du fluide environnant. Ce mouvement reprend l'observation de Brown, qui observait le
déplacement de grains de pollen dans l'eau. Il en va de même de la molécule qui se déplace
au sein d'un gaz.
En 1907, Ernest Rutherford of Nelson observe la déviation d'atomes d'Hélium, qui va
bouleverser les connaissances de la matière, car il montre ainsi que l'atome n'est pas
insécable, puisqu'il est constitué de particules plus élémentaires.
En 1927, Heisenberg énonce son «principe d'incertitude» : on ne peut connaître à la fois la
position spatiale et la vitesse d'une particule. Cela est valable dans le monde microscopique,
alors que macroscopiquement nous ne rencontrons pas cette incertitude.
Explication qualitative :
Considérons un électron dont nous voulons déterminer à la fois la position et la vitesse. Pour
déterminer ces composantes, nous pouvons utiliser un rayon lumineux, compris dans le
domaine des ondes électromagnétiques, dont la longueur d'onde est approximativement
comprise entre le mètre (appelons cette étude «cas 1») et 10-11m (un millième de
milliardième de mètre) («cas 2»).
Si nous prenons le premier cas, la position de la particule ne sera connue qu'à une longueur
d'onde près, soit une incertitude absolue d'un mètre.
Dans le second cas, la précision est accrue. Cependant, l'énergie des photons qui
composent ce rayonnement gamma est très grande. Leur rencontre avec l'électron est
violente et le choc perturbe le mouvement de la particule, donc sa vitesse. En conséquence,
une grande incertitude affecte maintenant notre détermination de cette dernière. La solution
serait de communiquer une énergie moindre au photon, ce qui revient à revenir dans le cas
précédent.
On ne peut donc pas connaître à la fois la position et la vitesse d'une particule
microscopique. Il s'agit d'une propriété intrinsèque à la matière, indépendante de nos
instruments d'observation.
17
I.2..
Les différents modèles atomiques [3]
Les philosophes Grecs et les premiers scientifiques imaginaient l'atome selon un
modèle de «sphère dure», autrement dit une boule impénétrable, ce qui constitue la
première représentation de ce qui constitue la matière, mais ce n'est pas un modèle dans le
sens où cela n'est qu'une supposition, et ne reste pas avéré.
On peut évoquer un premier «modèle» atomique, à proprement parler, à partir de la fin du
XIXème siècle, alors que les découvertes scientifiques, notamment dans ce domaine,
prennent un essor important, et permettent de juger de la validité ou de l'invalidité d'un
modèle avec l'expérience.
I.2.a.
Le modèle de Thomson
En 1897, l'Anglais Joseph John Thomson établit son modèle de l'atome, celui du
«plum-pudding». Ce modèle est le suivant :
[Figure 1] Modèle de Thomson
http://upload.wikimedia.org/wikipedia/commons/thumb/f/ff/Plum_pudding_atom.svg/348pxPlum_pudding_atom.svg.png
L'atome est formé d'une matrice globalement positive, et de particules chargées
négativement : Thomson a découvert l'électron.
I.2.b. Le modèle de Rutherford
En 1907, Rutherford, en bombardant une mince feuille d'or avec des particules
radioactives alpha (soit des atomes d'Hélium), observa les déviations de ces particules. Il
conclut son expérience en fournissant un nouveau modèle atomique. La charge positive du
noyau est confinée dans une petite portion de volume de l'atome, et les électrons sont situés
loin de ce noyau.
I.2.c.
Le modèle de Bohr
En 1913, Niels Bohr, un physicien danois, réunit les concepts de Planck et de
Rutherford, et propose un nouveau modèle. Dans celui-ci, les orbites des électrons (qui
gravitent autour du noyau), ont des rayons définis. Ainsi, il n'existe que quelques orbites
« autorisées ». Les échanges d'énergie quantifiés correspondent à des sauts entre les
orbites définies. Lorsque l'électron est sur l'orbite la plus basse, il ne peut pas prendre un
niveau inférieur, mais ce modèle n'en donne pas la raison.
18
[Figure 2] : Modèle de Bohr
http://upload.wikimedia.org/wikipedia/fr/9/90/Atome_bohr.png
I.2.d.
Le modèle actuel, de Schrödinger
La naissance de la mécanique ondulatoire de Louis de Broglie, en 1924, généralisée
par Erwin Schrödinger, amène à proposer un nouveau modèle, dont les aspects relativistes
furent décrits par Paul Dirac en 1928. Celui-ci permet d'expliquer la stabilité de l'atome et la
description des termes spectroscopiques. Dès lors, les électrons ne sont plus des particules
localisées sur une orbite, mais sont représentés en terme de probabilité de présence. Cette
révolution modifie l'approche des scientifiques, qui faisaient l'amalgame avec les visions
macroscopiques, transposées jusqu'alors dans le monde microscopique. L'électron, depuis
les années 1930, est plutôt perçu comme une «fonction d'onde», dont la représentation est
plus mathématique. Une figuration de cette idée peut se percevoir en observant un
graphique traduisant (forcément de manière plus ou moins grossière) cette probabilité de
présence.
[Figure 3] Probabilité de présence d'un électron, sur un orbitale donnée :
http://www.obs-besancon.fr/publi/DavidViennot/coherent2.png
Le modèle de Schrödinger est le modèle actuel de l'atome.
19
I.3. Les théories physiques actuelles [2] [4] [6]
I.3.a.
La Physique relativiste
 Bases de la relativité
A l'inverse de ce que prônait Aristote dans l'Antiquité (IVème siècle avant J-C.), Galilée est le
premier à évoquer la notion de relativité de mouvement, au début du XVIIème siècle. En
observant les astres, le scientifique observe que le déplacement d'un corps dépend du lieu
d'observation. Il n'existe pas, pour la Terre comme pour tous les objets, ou systèmes, d'état
de repos absolu, principe proposé par Aristote, puisque celle-ci tourne bien autour du Soleil.
Toute définition de mouvement doit donc être accompagnée de la précision du référentiel
d'observation.
A la fin de ce siècle, Newton instaure la Physique classique, qui permet de mieux
comprendre les mouvements des objets étudiés. Dans son oeuvre Optiks, publiée en 1704,
Newton énonce la nature corpusculaire de la lumière, dont on connaît la vitesse dans le vide,
depuis les travaux de l'astronome danois Ole Christensen Rømer, vitesse qui est d'environ
212 000 km/s (soit une erreur de 29% avec la valeur connue actuellement).
 Quid de l'éther
Au XIXème siècle, le physicien écossais James Maxwell, voulant compléter ces
connaissances, reprend l'idée que l'espace est empli d'un milieu immobile et invisible, l'éther,
imaginé par le Français René Descartes et le Néerlandais Christian Huygens deux siècles
auparavant. Cette hypothèse justifie les équations électromagnétiques qu'il met en place,
partant du principe que la lumière, perçue comme une onde, se propage dans un certain
milieu. Seulement, l'existence de l'éther comme référentiel absolu est incompatible avec la
physique de Newton, notamment pour les problèmes de référentiel (il n'existe pas de
référentiel absolu d'après Newton), ainsi qu'au sujet de la nature, corpusculaire ou
ondulatoire, de la lumière. En conséquence, il fallait décider quelle théorie était validée par
l'expérience, sachant que l'hypothèse de Maxwell incluait que la mesure du temps dépend
du référentiel dans lequel elle est effectuée.
L'expérience de Michelson-Morley devait définitivement répondre à cette interrogation.
Menées entre 1881 et 1887 par les deux scientifiques américains, plusieurs mesures ont
tenté de montrer l'existence de l'éther. Si la lumière se déplace à vitesse constante dans
l'éther, alors, en faisant une mesure de cette vitesse dans le sens du déplacement de la
Terre par rapport à l'éther, on doit obtenir un résultat plus faible que si la mesure est faite
dans la direction opposée. La différence nous donne alors une estimation de la vitesse de la
Terre dans l'Ether. Or, l'expérience montra une similitude des vitesses, ne confirmant pas
l'écart de temps attendu. On tenta d'expliquer cela par la Physique classique, jusqu'à ce que
l'Autrichien Ernst Mach vienne à la conclusion, quelques années plus tard, que l'éther
n'existe pas. Michelson pose alors le problème de l'éther, car il est inconcevable à cette
époque, que la lumière se déplace dans le vide.
 Du développement des mathématiques à l'énoncé de la Relativité
Poincaré écrit dans son livre intitulé La science et l'hypothèse : « Peu nous importe que
l’éther existe réellement, c’est l’affaire des métaphysiciens ; l’essentiel pour nous c’est que
tout se passe comme s’il existait et que cette hypothèse est commode pour l’explication des
phénomènes. »
Il permit de démontrer également que la célérité de la lumière dans le vide est une
constante.
20
 Le théorème de Noether
Etabli en 1918 par la mathématicienne allemande Emmy Noether, ce théorème a pour
énoncé : « A toute transformation infinitésimale qui laisse invariante l'intégrale d'action,
correspond une grandeur qui se conserve. »
Qualifié par Albert Einstein de « monument de la pensée mathématique », ce théorème se
manifeste sous divers aspects. Il induit, par exemple, que la symétrie de translation dans
l'espace est liée à la quantité de mouvement (le produit de la masse et de la vitesse d'un
corps), ou que cette même symétrie dans le temps inclut une conservation de l'énergie du
corps étudié.
Ce théorème relie donc directement une symétrie dans une dimension (le temps ou l'espace)
à la conservation d'un paramètre physique d'un corps. Il a permis des développements de la
mécanique relativiste, et sa meilleure compréhension.
 Les travaux de Lorentz, Poincaré, Minkowski et Einstein : l'énoncé du principe
Pour interpréter les résultats des expériences de Michelson, vues précédemment, le
Néerlandais Hendrick Lorentz développa en 1907 l'idée de contraction des longueurs. Pour
expliquer cela, il mit au point les transformations de Lorentz, en étroite collaboration avec le
Français Henri Poincaré, qui permettent principalement de changer le point de vue duquel on
décrit les évènements sans que la vitesse de la lumière soit changée.
Lorentz démontre en outre qu'aucun corps ne peut avoir une vitesse supérieure ou égale à la
vitesse de la lumière.
Les formules galiléennes sont une bonne approximation de la Physique Relativiste, car l'effet
de non-addition des vitesses ne se fait ressentir qu'à partir de vitesses de l'ordre de 10% de
la vitesse de la lumière (ce qui représente déjà 108 millions de kilomètres à la seconde !).
L'année suivante, le scientifique allemand Hermann Minkowski, crée l'espace-temps qui
porte son nom, en joignant aux trois coordonnées de l'espace une composante de temps.
L'espace de Minkowski repère ainsi un point selon quatre composantes : celles de l'espace
et celle du temps.
En 1905, dans une note à l'Académie des Sciences de Paris, Poincaré a présenté sa
découverte des transformations de vitesse, qui manquaient à Lorentz, ce qui lui a permis de
franchir le dernier pas vers la découverte de la théorie de la relativité dite restreinte.
En 1915, Einstein énonce finalement les principes de la relativité générale, dix ans après sa
première publication importante à ce sujet. Il donne ainsi une cohérence aux travaux de
Lorentz, Poincaré et Minkowski (exprimant par exemple les transformations de Lorentz dans
les espaces non-euclidiens de Minkowski). L'hypothèse fondamentale de la relativité
générale est qu'il n'y a pas d'état de repos absolu pour un référentiel, quel qu'il soit. Toutes
les forces sont dès lors liées à un principe d'accélération.
Einstein énoncera un an plus tard le principe de relativité en ces termes : « les lois de la
nature doivent être valides dans tous les systèmes de référence, quel que soit leur
état ».Ainsi, toute mesure, y compris celle du temps dépend de son référentiel d'observation.
La Physique Relativiste implique également une possibilité d'expansion de l'Univers, rendant
crédible l'hypothèse selon laquelle l'histoire de l'Univers a une origine.
21
 Un exemple célèbre de Relativité : le « Paradoxe des jumeaux »
Cette explication de certains aspects de la relativité fut imaginée en 1911 par le physicien
français Paul Langevin. Il n'y a cependant pas de paradoxe, puisqu'il ne comporte aucune
contradiction logique. Considérons deux jumeaux. Plaçons l'un d'entre eux dans un vaisseau
spatial qui s'éloigner à vitesse constante de son frère, resté sur Terre. Lorsque son frère le
rejoint finalement, celui qui est resté sur Terre constatera que son frère semble plus jeune
que lui. Cela est dû à la dilatation du temps, conséquence des transformations de Lorentz.
En effet, celles-ci stipulent que la mesure du temps dépend de la vitesse du référentiel.
L'ajout du temps mesuré pendant le trajet aller et de celui pendant le retour n'a donc en fait
aucun sens puisque ces deux valeurs correspondent à des référentiels galiléens différents.
I.3.b. La Physique Quantique
 Origine et principe
Face à l'échec de la Physique classique pour décrire l'infiniment petit (atomes et particules),
et certaines propriétés comme le rayonnement électromagnétique, et l'insuffisance de la
Physique Relativiste pour expliquer notamment les interactions faible et forte du noyau
atomique, la Physique Quantique a vu le jour au XXème siècle. Elle regroupe en fait plusieurs
grandes théories physiques.
Basée sur la notion d'onde, introduite en 1927 par Edwin Schrödinger, c'est-à-dire qu'on
raisonne plus en terme de probabilité mathématique que d'observation concrète, la Physique
Quantique demeure opposée à l'intuition. Cette notion de probabilité se comprend
pleinement en incluant le principe d'incertitude d'Heisenberg (voir par ailleurs). Le
mathématicien américain Richard Feynman, déclara même que « Personne ne comprend
vraiment la physique quantique ».
La nécessité d'élaborer un autre modèle que la Physique classique, se fit sentir lorsque des
notions électromagnétiques furent appliquées à l'atome. En effet, la stabilité d'un atome est
incompréhensible dans le cadre de la théorie classique. La théorie de Maxwell nous dit que
toute charge accélérée rayonne de l'énergie sous forme d'onde électromagnétique. Dans un
modèle planétaire classique, les électrons sont accélérés sur leur orbites au sein de l'atome,
et leur énergie doit donc diminuer : les électrons tombent alors sur le noyau ! Un calcul de la
durée caractéristique de ce phénomène donne de l'ordre de 10 ns, donc les atomes
classiques seraient dès lors instables, ce que l'expérience contredit manifestement.
En Physique Quantique, le vide (ce que l'on considère comme l'absence totale de particules
dans un espace donné, durant une période donnée) n'existe pas, car les particules sont
présentes, statistiquement, selon une certaine probabilité, en tout point de l'espace.
Niels Bohr, intégrant une composante quantique dans son modèle de l'atome en 1917, fut le
premier à appliquer des lois de la mécanique quantique, avant même que cette dernière ait
été définie (avec près de 10 ans d'avance). La définition de cette théorie a permis d'expliquer
les travaux de Bohr. De plus, la théorie quantique des champs, initiée par le Français Paul
Dirac, permet de prendre en compte la présence du photon, non prévue par les équations de
Maxwell.
22
 Les constantes de Planck
Le physicien Max Planck apporta une très grande contribution à la théorie quantique ; il
découvrit la valeur d’une constante qui portera son nom et qui exprime le seuil d’énergie
minimum que l'on puisse mesurer sur une particule.
 Energie de Planck
Max Planck, physicien allemand, découvrit cette constante en 1900. A cette époque, les
scientifiques pensaient que les échanges d’énergie entre la matière et le rayonnement
s’effectuaient de façon continue, alors que les expériences prouvaient le contraire.
Planck introduisit la valeur de cette constante, notée h, dans ses calculs, avec par la suite
l’intention de faire tendre sa valeur vers 0, pour revenir à une description continue du
rayonnement. Mais ses efforts furent vains : la constante h ne pouvait être annulée sans
contredire les expériences :
h = 6,63 * 10 -34 J.s
 La constante de Dirac
ħ est le quantum de spin, c'est-à-dire que le spin de n'importe quelle particule, mesuré par
rapport à n'importe quel choix particulier d'axe, est toujours un multiple entier de cette valeur.
Pour une particule, le coefficient de ħ pour son moment angulaire est aussi appelé nombre
de spin.
 Longueur de Planck
La longueur de Planck est généralement décrite comme la longueur à partir de laquelle la
gravité commencerait à présenter des effets quantiques. Cela nécessiterait une définition de
la théorie de la gravité quantique.
En conséquence, la longueur de Planck serait, dans l'état actuel de la physique, la longueur
minimale qu'il soit possible de mesurer de façon significative.
La longueur de Planck est définie par :
(en m)
 Temps de Planck
Le temps de Planck est le temps qu'il faudrait à un photon dans le vide pour parcourir une
distance égale à la longueur de Planck. Il s'agit de la plus petite mesure de temps qui ait une
signification physique dans les théories actuelles :
(en s)
23
 Le chat de Schrödinger
Illustrant peut-être au mieux la Physique Quantique et ses lacunes, l'expérience du chat de
Schrödinger a été imaginée par le physicien en 1935. L'énoncé est le suivant :
Imaginons un chat enfermé dans une boîte, munie d'un dispositif qui tue le chat dès qu'une
désintégration d'un atome radioactif a été détectée (on peut imaginer un détecteur de type
Geiger, relié a un interrupteur provoquant la chute d'un marteau cassant dans son
mouvement
une
fiole
emplie
d'un
gaz
mortel
pour
l'animal).
L'atome radioactif en question est tel qu'il y a exactement une chance sur deux que l'atome
se soit désintégré de manière radioactive en une minute.
La question est la suivante : si l'on ouvre la boîte après une minute, le chat est-il mort ou
vivant ?
Le mécanisme de Schrödinger lie l'état du chat (mort ou vivant) à l'état de la particule
radioactive (désintégrée ou intacte), de sorte que, tant que la boîte est fermée, le chat se
trouve mort et vivant à la fois, d'après les probabilités de désintégration.
Cette expérience n'est en fait qu'une question purement intellectuelle et philosophique (eu
égard aux nombreuses approches proposées, dont certaines faisaient intervenir la
conscience de l'observateur), et n'a jamais été réalisée, dont le but est de marquer les
esprits.
Si la théorie quantique, d'une grande rigueur mathématique, est indispensable pour
comprendre le monde microscopique, elle est inapplicable à l'échelle macroscopique.
En effet, les objets nous entourant, présentés comme de gros amas d'atomes, ne sont pas
des fonctions d'ondes, mais existent bel est bien, sans qu'un système de probabilités ne
règle leur position, ce qui induit que la physique quantique est incompatible à une échelle
non microscopique.
I.3.c.
Unification de ces deux théories
Le but de la Physique est de décrire les phénomènes observés avec exactitude.
Alors, l'existence de deux descriptions différentes, à savoir la Physique Relativiste et la
Physique Quantique, symbolise une imperfection, qui subsistera tant que ces deux théories
seront indépendantes, et qu'il n'existera pas de grande théorie englobant ces deux
approches.
Une grande part des dernières recherches sur la relativité est consacrée à la création d'une
Mécanique Quantique Relativiste qui soit pratique à manipuler. Une théorie relativiste de
l'électron fut développée en 1928 par le mathématicien et physicien Paul Dirac.
Par la suite, une théorie satisfaisante, appelée Electrodynamique Quantique, unifia les
concepts Relativistes et de la Physique Quantique ; cette théorie est particulière à l'étude de
l'interaction entre les électrons, les positons et le rayonnement électromagnétique.
 Théorie des cordes et supercordes
En 1968, le scientifique italien Gabriele Veneziano présenta une nouvelle théorie : les
particules sont liées entre elles par des «cordes» (mathématiquement parlant) ; celles-ci sont
tendues lorsque les particules sont proches, et libres en mouvement, tandis qu'au fur et à
mesure que les particules s'éloignent, les cordes se tendent et peuvent casser, libérant ainsi
l'énergie accumulée. Ce modèle ne fournit pas de résultat probant, mais fut important, car il
permit d'établir la chromodynamique quantique, et la théorie des cordes.
24
L'idée développée ensuite fut que les particules peuvent être représentées sous forme de
cordes, ouvertes (ce sont alors des lignes courbes), ou fermées (définissant une certaine
extension spatiale), de longueur proche de la longueur de Planck, et qui vibrent à des
fréquences caractéristiques
Une théorie des cordes, de l'aveu du scientifique Wolfgang Pauli, ne peut pas être fausse. Il
en existe en effet plusieurs :
 La théorie des cordes bosoniques, qui ne semble valable que si l'espacetemps possède 26 dimensions, décrit l'Univers comme étant uniquement
constitué de bosons, sous forme de cordes ouvertes ou fermées. Cependant,
l'existence, par le calcul, d'une particule (le tachyon) dont la valeur de la
masse est un nombre imaginaire pur, et qui se déplace à une vitesse
supérieure à celle de la lumière dans le vide, la rend impropre à décrire la
réalité.
 Cinq théories de supercordes à 10 dimensions, qui reprennent les principes
de la théorie des cordes, et diffèrent entre elles par les groupes de symétrie.
Les théories des supercordes se distingue de la théorie des cordes en
permettant d'incorporer de la matière (sous forme de fermions) dans les
cordes bosoniques.
Chaque particule possède une superparticule associée, dont, d'après la théorie, la masse est
la même, mais le nombre de spin est différent (voir Annexe 1).
La théorie de supersymétrie (ou théories des supercordes) présente de nombreux
avantages: expliquer pourquoi l'énergie de Higgs est relativement faible (en dessous du
TeV), ainsi que la «matière noire», indétectable et supposée contenir près de 30% de la
masse totale de l'Univers, par le biais des neutralions (particule supersymétrique du
neutrino). En outre, en postulant l'existence de particules supersymétriques, elle rend
possible une unification des interactions forte, faible et électromagnétique à une échelle
d'énergie de l'ordre de 1016 GeV.
 Théorie M
Présentée en 1990 par deux scientifiques, le Tchèque Petr Horava et principalement mise en
place par l'Américain Edward Witten, la théorie M semble regrouper les cinq théories de
supercordes, dont elle représenterait différentes limites, en fixant une limite a une dimension.
La théorie M a comme objet fondamental, plutôt qu'une corde, une membrane, ou p-brane
(représentant une membrane en p dimensions, par exemple la corde a une dimension de 1,
une surface plane a une dimension de 2)
L'origine de son nom n'a pas été expliquée, M pouvant signifier «Magic», «Mystic» ou
«Mystery». Certains y voient aussi l'initiale, retournée, de Witten.
25
I.4. Du modèle standard aux propriétés des particules élémentaires
[1] [2] [3]
I.4.a.
Introduction
Comme nous le verrons plus tard, il existe des éléments élémentaires de la matière
dénommés antiparticules, associés à une particule respective. Les antiparticules ont
généralement la même masse que leur particule associée, et une charge électrique
opposée. Une particule et une antiparticule réagissent ensemble en s'annihilant, c'est-à-dire
que lorsqu'une antiparticule rencontre sa particule associée, il n'en résulte rien, si ce n'est un
dégagement d'énergie sous la forme, généralement, d'un photon.
Un couple particule/antiparticule peut très bien ne naître de rien, d'une absence totale de
matière.
 Caractérisation des particules
Toute particule élémentaire peut être ramenée aux informations la caractérisant. Ces
informations se conservent lors des réactions entre particules. Par exemple, une collision
entre un électron (de charge négative) et un photon (charge électrique nulle) ne peut donner
naissance qu'à un ensemble de particules (ou une seule) donc le total des charges est
négatif. D'autre informations se conservent ainsi, telle que la masse.
 Le Spin
Introduit par Paul Dirac en 1924 afin d'expliquer un résultat expérimental, observé sur
l'électron, non conforme à la théorie, le spin a d'abord été interprété (par les Hollandais
Uhlenbeck et Goudsmit, en 1925), comme étant un moment cinétique intrinsèque,
similairement à une rotation de la particule sur elle-même.
Or une «rotation propre» autour de son axe n'a pas de sens physique si la particule est
ponctuelle, car l'axe de rotation d'un système est défini comme étant l'ensemble des points
de ce système qui restent immobiles. Dans ce cas, la particule serait immobile.
Si la particule est non ponctuelle, une autre difficulté se présente. Considérons un électron,
de masse m (environ 9,11 × 10-31 kg) et de rayon a :
D'après la relation
, on peut écrire
En attribuant à l'électron un moment cinétique de valeur ђ/2, on obtient, pour un point de
vitesse v, l'équation suivante :
Connaissant une estimation de ce rayon a, qui est d'environ 10-15m, on obtient une vitesse
d'environ 6.1010 m/s, soit mille fois plus que la vitesse de la lumière !
26
Or d'après la théorie de la relativité restreinte, il n'y a pas de vitesse supérieure à la célérité
de la lumière dans le vide.
En conclusion, le spin n'a aucun équivalent en physique classique. Le spin est généralement
un multiple de la constante de Dirac (cf. chapitre II.3.b. sur la Physique Quantique). On
appelle le coefficient de ce nombre le «nombre de spin», il arrive parfois que le spin et le
nombre de spin soient confondus.
Notons que le spin caractérise les propriétés par rotation. Ainsi, en particulier, une particule
de nombre de spin 1 conserve la direction de ses vecteurs (de l'attirance électromagnétique
par exemple) après un tour sur elle-même. En règle générale, une particule de nombre de
spin entier devra, pour retrouver la direction de ses vecteurs, effectuer moins d'un tour sur
elle-même.
 De l'existence particulaire
Comment déterminer l'existence d'une particule ? Pour «exister», une particule doit être
détectable.
L'échelle de temps des particules peut être fixée à 10-23 seconde. C'est-à-dire qu'une
particule qui a une durée de vie inférieure à celle-ci ne peut traverser un noyau atomique à la
vitesse de la lumière. Les particules considérées ayant une durée de vie de 10-13 seconde au
minimum sont considérées comme «stables».
I.4.b. Le modèle standard et la classification des particules
Ces découvertes ont permis la découverte de nouvelles particules, les plus
élémentaires à ce jour, que l'on a regroupées en deux catégories, appelées «familles».
Les fermions sont des particules dont le nombre de spin est un demi-entier, tandis que celui
du boson est un entier naturel.
 Les fermions
 Le Principe d’exclusion de Pauli
Enoncé en 1925 par le scientifique américain Wolfgang Pauli, le Principe d'exclusion stipule
que les fermions ne peuvent se trouver au même endroit (au sein d'un atome par exemple)
en ayant le même état quantique. Par exemple au sein d'un même atome, plus de deux
électrons ne peuvent se trouver sur la première couche électronique.
Si les fermions obéissent à ce principe, ce n'est pas le cas des bosons. De fait, ces derniers
forment difficilement des structures stables. Cette différence entre fermions et bosons est à
la source de la distinction que l'on fait entre ce qui est matière, et ce qui ne l'est pas comme
la lumière.
En conséquence, comme de nombreux noyaux ou atomes sont des bosons, dans certains
cas ils peuvent s'accumuler dans le même niveau. Ceci permet d'expliquer le phénomène
des lasers par exemple.
Les fermions peuvent être subdivisés en deux catégories : les leptons et les quarks.
27
 Les leptons élémentaires
Les leptons ne sont pas soumis à l'interaction forte. Lepton, en grec, signifie léger, en
référence à la faible masse du premier lepton découvert, l'électron. La famille des leptons
comporte, par groupe de particule/antiparticule :
 L'électron / le positon
L'électron est une particule découverte en 1897 par Thomson (voir par ailleurs
l'expérience de Thomson), qui possède une charge négative. L'existence de son
antiparticule, le positon, a été prédite par Paul Dirac en 1928. Le positon fut la
première antiparticule observée expérimentalement, par Carl David Anderson en
1932.
 Le muon / l'antimuon
Le muon, chargé négativement, est noté μ-, tandis que l'antimuon, de charge
opposée, est noté μ+. Le muon et l'antimuon ne participent pas à l'interaction
nucléaire forte, mais subissent les interactions faibles.
Le muon a les mêmes particularités que l'électron, à l'exception de la masse qui est
bien supérieure à celle d'un électron, c'est pourquoi le muon est également parfois
appelé « électron lourd ».
 Le tauon / l'antitauon (ou tau / antitau)
Le tauon, ou tau, chargé négativement et noté
τ− est une particule élémentaire très
instable (de durée de vie moyenne de l’ordre de 2,8.10-13 seconde). Comme le
muon, il ne participe pas à l’interaction nucléaire forte, mais subit les interactions
faibles. Ses propriétés sont celles de l’électron, à l’exception de la masse qui est
environ 3 500 fois plus importante. C’est pourquoi on l’appelle aussi « électron super
lourd » . L'antitauon est chargé positivement. Il est noté τ+.
A ces particules, il convient d'ajouter leur neutrino respectif, noté respectivement
νe pour le
neutrino électronique, νμ pour le neutrino muonique, et ντ pour le neutrino tauonique. Les
neutrinos, particules élémentaires non chargées découvertes en 1956 suite aux prédictions
de Wolfgang Pauli, ne subissent pas l'interaction électromagnétique.
Ils interagissent peu avec la matière, en raison de leur masse, qui fut longtemps supposée
nulle. Toutefois, d'après l'expérience de Super-Kamiokande réalisée près de Mozumi
(Japon), on sait maintenant que leur masse est non nulle, du fait de leur oscillation. Celle-ci a
également permis d'observer qu'en réalité un neutrino serait le mélange des trois saveurs,
électronique, muonique et tauonique, mais que l'une de ces trois saveurs serait dominante.
Ce phénomène n'est possible que si les neutrinos possèdent une masse, qui diffère selon la
saveur dominante. Enfin, à ces neutrinos il convient de faire correspondre leurs
antiparticules associées : les antineutrinos, notés :
 Les quarks
,
,
.
28
L’hypothèse de l’existence des quarks a été proposée en 1963 par les physiciens américains
Murray Gell-Mann et George Zweig. En 1968, grâce aux accélérateurs linéaires, les
physiciens se sont aperçus que les nucléons (neutrons et protons) étaient en fait un
assemblement de composants plus élémentaires nommés «quarks». Deux sortes de quarks
ont alors été observées : le quark u (« up ») et le quark d (« down »).
En augmentant encore l'énergie dans les accélérateurs de particules, donc directement la
masse des particules accessibles, quatre autres types de quarks furent découverts : le c
(« charmed »), le s (« strange »), le t (« top ») et le b (« bottom »). Le nom donné à ces
particules n'a aucune signification physique.
Chacun de ces quarks apparaît en trois variétés dénommées rouge, vert et bleu,
correspondant à une charge particulière de l’interaction nucléaire forte. Encore une fois, le
nom n’a pas de lien avec les couleurs habituelles, il s’agit juste là d’une convention.
[Figure 3] Représentation des couleurs d’un quark
http://molaire1.club.fr/forte.html
La charge d’un quark a la particularité d’être fractionnaire, pouvant être égale à +2/3 ou
à -1/3 fois la charge élémentaire du proton valant 1,602.10-19 Coulomb, comme l'indique le
tableau ci-dessous :
Quark
Fraction de la charge élémentaire
u (« up »)
+ 2/3
d (« down »)
- 1/3
c (« charmed »)
+ 2/3
s (« strange »)
- 1/3
t (« top »)
+ 2/3
b (« bottom »)
- 1/3
[Figure 4] : Les quarks et leur charge électrique
Source : [6]
Les antiparticules des quarks s'appellent les antiquarks, et ont comme couleur cyan,
magenta et jaune.
[Figure 5] Représentation des couleurs des antiquarks
http://molaire1.club.fr/forte.html
29
 Les bosons
Les bosons sont des particules qui agissent comme les intermédiaires des interactions
fondamentales. Leur appellation est dérivée du nom du scientifique indien Satyendranath
Bose, qui a publié en 1924 un article intitulé Planck's Law and the Hypothesis of Light
Quanta (La règle de Planck et l'hypothèse de la lumière quantique), traitant des statistiques
quantiques appliquées aux photons. Adopté par Einstein, puis étendu par celui-ci aux
atomes, le phénomène sera appelé plus tard Condensat de Bose-Einstein.
Parmi les bosons, on peut observer :
 le photon
Souvent représenté par la lettre γ (gamma), le photon est, notamment, la particule
qui véhicule la lumière. De masse nulle, les photons se déplacent dans le vide à une
vitesse de 299 792 458 mètres par seconde.
 les gluons de l'interaction forte
Découverts en 1980 au sein de l'accélérateur PETRA de Hambourg, les gluons sont
un assemblement d'un quark et d'un antiquark. Les gluons ont une masse nulle.
Les différentes combinaisons de quarks au sein d'un gluon pourraient alors être :
bleu/antibleu
bleu/antivert
bleu/antirouge
vert/antibleu
vert/antivert
vert/antirouge
rouge/antibleu
rouge/antivert
rouge/antirouge
Cependant, une règle fondamentale de la chromodynamique quantique stipulent que :
bleu/antibleu + vert/antivert + rouge/antirouge = 0
Cette relation lie les gluons entre eux réduit d'une unité le nombre de degrés de liberté. Il y a
donc huit combinaisons de gluons possibles.
 les bosons de l'interaction faible
+
-
Ils sont notés W , W et Z°. Le boson Z° n'a pas de charge électrique, c'est-à-dire
qu'un quark quelconque qui émet ou capte ce boson ne change pas sa nature. Au
contraire, les bosons W+ et W- peuvent modifier la nature d'un quark (ce qui est
expliqué au chapitre 5.c.)
 le graviton
Le graviton est une particule qui n'a jamais été observée, mais qui est prédite par la
théorie pour véhiculer l'interaction gravitationnelle. Supposé de masse nulle et de
spin 2, la faiblesse de son observation réside dans le fait que les scientifiques ne sont
pas encore parvenus à énoncer une théorie simple de la gravité quantique.
 le boson de Higgs
N'ayant pas encore été observé, le boson de Higgs est une particule élémentaire dont
l'existence permettrait de justifier la masse des particules (voir L'interaction
électrofaible et le boson de Higgs).
30
 Les particules composites : Les hadrons
L'avènement des accélérateurs de particules synchroton permit de mettre en évidence de
nouvelles particules, subissant l'interaction nucléaire, appelés «hadrons» (du grec hadros,
fort).
Les particules chargées de couleur ne peuvent exister individuellement. C'est pour cette
raison que les quarks, qui portent une charge de couleur, sont confinés en groupe avec
d'autres quarks pour former les particules appelées hadrons. Ces particules composites sont
de couleur neutre (ou blanche). Celle-ci peut s'obtenir de deux manières : en combinant 3
quarks (on forme alors un baryon, de «baryos» qui signifie «lourd» en grec), ou 2 quarks
(pour former un méson, «milieu» en grec).
[Figure 6] Un hadron est formé de 3 quarks
http://molaire1.club.fr/forte.html
La chromodynamique quantique stipule que la couleur des quarks s'additionne ainsi :
bleu + rouge + vert = blanc
Et pour les antiquarks :
cyan + magenta + jaune = blanc
Les quarks sont liés entre eux par la force d'interaction forte.
 Le nombre baryonique
Le mathématicien suisse Hermann Weyl semble être le premier à se demander pourquoi la
matière ne se désintègre pas continuellement. Par exemple, au sein d'un atome coexistent
électrons et protons, et la charge électrique globale du système regroupant un électron et un
proton est neutre. Ces deux particules pourraient donner naissance à un nucléon par
exemple. Il imagina que chacune de ces entités portait une charge séparée, qui empêchait
l'union de ces deux particules.
Ses idées furent reprises par deux physiciens : le Suisse E. Stuckelberg de Breidenbach et
le Hongrois E. Wigner, qui proposèrent en 1949 un complément sous la forme d'une nouvelle
loi de conservation, baptisée depuis « nombre baryonique ».
Les particules plus légères, comme le photon, l'électron, le positon, le neutrino, le graviton ou
le muon se sont vu attribuer un nombre baryonique nul.
Le nombre baryonique d'une particule peut être défini ainsi : un quark a un nombre
baryonique de 1/3, un antiquark correspond à une charge baryonique de - 1/3.
Les hadrons forment un ensemble de q quarks et a antiquarks liés entre eux. Ces nombres
doivent satisfaire à la relation suivante : q - a = 3 B, où le nombre B, appelé nombre
baryonique, doit être un entier relatif.
31
Voyons quelques possibilités, le tableau représente les nombres baryoniques :
a\q
0
1
2
3
0
-1/3
-2/3
-1
1
1/3
0
-1/3
-2/3
2
2/3
1/3
0
-1/3
3
1
2/3
1/3
0
[Figure 7] : Tableau des nombres baryoniques
http://lpsc.in2p3.fr/fuks/file/HHM_summary.pdf
En fonction du nombre baryonique, les hadrons se divisent en deux classes de particules :
les baryons et les mésons. Les particules appartenant à ces deux subdivisions sont toujours
telles que la somme de leur charge électrique (en fraction de charge élémentaire) est
entière, et que la somme de leurs charges de couleur est blanche.
Les particules pouvant exister ont un nombre baryonique entier. De plus, la théorie nous dit
que le spin des baryons est un demi-entier, tandis que celui des mésons est nul.
 Les baryons
Les baryons son constitués de 3 quarks, ou 3 antiquarks. Ainsi, le nombre
baryonique d'un baryon est 1 ou -1. Comme leur spin est un demi-entier, ce sont des
leptons
(non
élémentaires
car
ils
sont
constitués
de
quarks).
Table des baryons en document annexe (Annexe 2a)
 Les mésons
Les mésons sont constitués d'un quark et de son antiquark. (Ainsi, le nombre
baryonique d'un méson est nul.)
D'autres modèles sont envisageables, comme des combinaisons de deux quarks et
deux antiquarks, mais n'ont encore jamais été observées à ce jour.
Pour les mésons, la chromodynamique quantique stipule, en terme de couleur, que
quark rouge + antiquark cyan
= quark vert + antiquark magenta
= quark bleu + antiquark jaune
= méson neutre
Table des mésons en document annexe (Annexe 2b)
N.B. :
Les baryons et les mésons sont les seules combinaisons stables de quarks de couleur
neutre. Il existe une troisième famille de particules, nommée «hypérons», dont les éléments
sont formés de trois quarks dont au moins un strange ou charmed (ou leur antiparticule
associée, antistrange ou anticharmed), mais qui est très instable (d'une durée de vie de
l'ordre de 6.10-20 secondes). Le premier hypernoyau fut découvert en 1952, au moment de la
mise en évidence de la particule Λ. Il était formé de deux protons, d'un neutron, et d'une
particule Λ. Un hypernoyau ΛΛ fut observé en 1963, mais on n'aura la preuve de son
existence qu'en 2001.
Les hypérons se désintègrent en protons, neutrons et mésons. Ils forment des hypernoyaux,
lorsqu'ils sont contenus dans un noyaux atomique.
32
I.4.c.
Les interactions fondamentales
 Les quatre interactions fondamentales
Les interactions dites «fondamentales» qui existent au sein des particules microscopiques
sont au nombre de quatre. Par ordre chronologique de découverte, on distingue :

L’interaction de gravitation
Elle s'exerce entre deux objets massiques, et est proportionnelle au produit des masses
des objets, inversement au carré de leur distance.

L’interaction électromagnétique
Elle assure la cohésion de l'atome. Deux éléments de charge opposée s'attirent, tandis
que deux éléments de charge identique se repoussent.

L’interaction forte, ou nucléaire
Elle est à l'origine de la cohésion du noyau atomique, malgré la présence de forces de
répulsion entre les protons.

L’interaction faible
Elle est responsable de la désintégration spontanée de certains noyaux radioactifs, et
subie par toutes les particules de matière, sans considération de la charge électrique
(donc les particules neutres la subissent également).
 Les quanta des forces
La théorie quantique stipule que l'interaction entre deux particules s'exerce à distance par
l'échange de «grains d'énergie» appelés quanta. Ces quanta sont des particules que l'on
peut mettre en évidence. Par exemple, les interactions électromagnétiques se transmettent
sous forme de champ, véhiculé par une particule sans masse : le photon.
La force faible est transmise à l'aide de particules appelées «bosons intermédiaires» W+, Wet Z°, mis en évidence expérimentalement en 1983 au CERN.
L'interaction forte agit par échange de gluons.
On associe aux interactions de gravitation le graviton, bien que ces ondes gravitationnelles
n'aient jamais été observées (cf. Les particules élémentaires, p. 26)
Les interactions fondamentales diffèrent par leur intensité ainsi que la distance à laquelle
elles agissent. Les forces véhiculées par des particules de masse nulle (le graviton et le
photon, qui sont respectivement associés à aux interactions de gravité et électromagnétique)
ont une portée infinie, tandis que la masse des particules associées aux autres forces
limitent la portée de celles-ci.
Enfin, leur intensité est bien différente. Attribuons, arbitrairement, une valeur d'intensité de 1
à l'interaction forte. Les autres interactions se placent par rapport à elle, à l'échelle atomique,
comme l'indique le tableau suivant, qui résume quelques propriétés des forces
élémentaires :
33
Interactions
Quanta associés
Portée
Intensité
Interactions de gravitation
graviton
infinie
10-40
Interactions électromagnétiques
photon
infinie
10-2
Interactions fortes
gluon
10-15 m
1
boson intermédiaire
-18
10-5
Interactions faibles
10
m
[Figure 8] Caractéristiques des interactions fondamentales
[1] L’univers des particules, M. Crozon
 L'unification des interactions
 L'interaction électrofaible et le boson de Higgs
Les interactions électromagnétique et faible constituent les deux composantes d'une seule
interaction fondamentale, baptisée «électrofaible». L'unification de ces deux interactions a
été proposée par les scientifiques américains Sheldon Glashow et Steven Weinberg, et par
le Pakistanais Abdus Salam en 1967. Ces travaux leur vaudront le Prix Nobel en 1979.
Ils démontrèrent que les champs de jauge de l'interaction faible étaient structuralement
identiques aux champs électromagnétiques. Or d'après la théorie électrofaible, il y aurait 4
bosons médiateurs de masse nulle : le photon, et les bosons W+ et W-.
Ceci est en contradiction avec les faits. En 1983 au CERN, le scientifique Carlo Rubbia a
bien observé les bosons Zo et W prévus par la théorie, mais ces derniers avaient une
masse, de l'ordre de 90 fois celle du proton.
Pour expliquer cette masse, les scientifiques ont imaginé un nouveau champ de forces,
appelé «champ de Higgs», du nom du physicien écossais Peter Higgs, véhiculé par un
boson, le boson de Higgs. Ce champ n'agirait qu'avec les bosons intermédiaires, leur
donnant une énergie donc une masse (d’après la relation E=mc²), mais n'interagissant pas
avec le photon, qui conserve une masse nulle.
Dès lors que l'on introduit ce boson supplémentaire au sein des équations physiques, la
théorie électrofaible est crédible, tant qu'elle a permis de déterminer la masse des bosons
intermédiaires avant leur découverte.
Seulement le boson de Higgs n'a jamais été détecté, et la preuve expérimentale de son
existence validerait la théorie électrofaible.
A noter que pour obtenir cette unification entre ces deux forces, l'énergie à communiquer à la
particule est équivalente à une température de 1015 K (soit environ cent mille fois la
température qui règne au centre du Soleil !)
 La théorie de la Grande Unification
Afin d'expliquer les interactions fondamentales par le biais d'un unique principe, les
physiciens tentent de développer une théorie de «Grande Unification», qui permettrait de
relier ces quatre forces.
15
En effet, nous avons vu précédemment qu'à une température de 10 K, les interactions
électromagnétique et faible peuvent se simplifier en une seule force, la force électrofaible.
En extrapolant ce résultat, les théories dites de grande unification prévoient qu'à une
température de 1028 K, les forces électrofaibles et nucléaires fortes ne seraient plus qu'une.
De plus, lorsque la température est encore augmentée à 1032 K, les quatre interactions
fondamentales n'en forment plus qu'une, d’où une Unification des interactions.
34
En augmentant encore l'énergie, à une température de 1032 K, on prévoit que les quatre
interactions fondamentales n'en formeraient plus qu'une, comme l'illustre le graphique
suivant :
[Figure 9] La Théorie de la Grande Unification
http://nrumiano.free.fr/Fcosmo/cg_standard.html
Maintenant que les expériences peuvent être réalisées, et répétées, on peut mieux constater
si une théorie est conforme ou non à ce que l'on constate au sein des accélérateurs de
particules.
Cependant, la limite d'énergie des accélérateurs de particules actuels est de 1011 eV, soit
une température de 1015°C, ce qui fait que cette Grande Unification reste théorique et ne
peut être observée avec les moyens actuels.
I.5. Les interactions particulaires et les limites du modèle standard
[1] [2] [5] [6] [16] [17]
I.5.a.
Les lois de conservation
L'expérience acquise en radioactivité nous enseigne que tout processus de
désintégration envisageable se produira spontanément (selon sa loi de désintégration
propre). Même si ce processus n'apparaît pas directement, il peut survenir à la suite de
plusieurs désintégrations, tant qu'il ne viole pas les lois de conservation.
Considérons ici la désintégration d'une particule, qui n'est qu'un cas particulier de
transformation particulaire, mais dont les règles s'étendent aux transformations plus
complexes, comme les interactions entre particules.
La loi de conservation de l'énergie est aisément compréhensible. Lorsqu'une particule se
désintègre, il faut que le produit de cette transformation ait une masse inférieure à celle de la
particule initiale. Il ne suffit pas que ces masses soient égales, car une partie de la masse de
la particule désintégrée doit être convertie en énergie cinétique.
Ainsi, pour débuter l'étude de la stabilité d'une particule, on peut commencer par établir la
liste des particules plus légère que celle-ci.
Ensuite, il faut étudier la seconde loi de conservation : celle de la conservation de la charge
électrique. Benjamin Franklin fut le premier à se rendre compte que la quantité globale de
charge électrique ne croît ni ne décroît lors d'une transformation nucléaire.
Enfin, dans le cas de l'interaction entres baryons doit respecter la règle du nombre
baryonique. Nous expliciterons celle-ci en étudiant la désintégration du proton, car son
énoncé n'aura d'influences que dans des cas particuliers, comme pour cette transformation.
35
I.5.b. La représentation (ou diagramme) de Feynman
Proposée par Richard Feynman dans les années 1940, la représentation des
interactions entre particules, qui peut sembler sommaire, sert aussi bien pour décrire un
phénomène que pour établir des bases de calcul. Les conventions à adopter sont les
suivantes :
I. les fermions sont symbolisés par des segments droits
II. les bosons sont symbolisés par des segments ondulés ou des lignes brisées
III. le point de rencontre de plusieurs lignes porte le nom de vertex
exemple de représentation de Feynman :
[Figure 10] Un électron émet ou absorbe un photon
[1] L'univers des particules, Michel Crozon
Nous rencontrerons cette représentation dans la suite de ce chapitre.
I.5.c.
Les interactions entre particules
 Les gluons et les quarks
D'après la chromodynamique quantique, l'interaction forte est expliquée comme l'échange de
gluons entre fermions élémentaires possédant une charge de couleur.
Seuls les quarks possèdent une charge de couleur, tandis que les leptons sont de couleur
neutres. Par conséquent, ces derniers ne sont donc pas soumis à cette force.
Les gluons portent une couleur et une anti-couleur (par exemple rouge/antibleu, comme le
montre l'exemple ci-dessous).
Un quark émet ou absorbe un gluon, la couleur du quark change pour que la charge de
couleur soit conservée. Par exemple, un quark rouge peut se transformer en quark bleu à
condition d'émettre un gluon rouge/antibleu, afin que la couleur «de base» soit toujours
rouge (cette couleur sera à son tour transmise par réaction avec un quark bleu, ce qui fait
qu'au final, un quark bleu et u quark rouge se transforment respectivement en un quark
rouge et un quark bleu). Cette transformation est illustrée ci-dessous :
[Figure11] Emission d’un gluon par un quark
http://cpep.lal.in2p3.fr/color.html
36
Une conséquence de ce mécanisme est que la charge de couleur d'un quark donné va
changer de manière continuelle par échange de gluons avec ses voisins, mais neutralité la
charge totale d'un système isolé de particules sera conservée au cours du temps.
Si l'un des quarks d'un hadron donné est éjecté par ses voisins, le champ de force de
couleur s'étire entre ce quark et ses voisins. Par ce phénomène, de plus en plus d'énergie
s'ajoute au champ de force de couleur au fur et à mesure que les quarks sont poussés. A ce
stade, le champ de force de couleur dépense moins d'énergie s'il se transforme en deux
nouveaux quarks. L'énergie est ainsi conservée et convertie en masse des nouveaux quarks,
et le champ de force de couleur peut retourner à un état non étiré.
La masse des gluons est nulle, mais comme ils portent une charge de couleur, qui explique
donc qu'ils peuvent interagir entre eux, la portée de l'interaction forte n'est pas infinie, elle est
de l'ordre de 10-15 m. Le comportement de l'interaction forte est ainsi assez bizarre : plus les
quarks sont éloignés, plus leur interaction est forte... A la limite où ils sont infiniment proches,
ils n'interagissent plus du tout. Cette caractéristique est à l'origine du confinement des
quarks à l'intérieur des hadrons : elle montre que les quarks ne peuvent pas être isolés,
devant maintenir entre eux un champ de forces de couleur.
[Figure 12] Représentation de Feynman de
l'interaction entre un quark (initialement
chargé vert et un gluon vert/antibleu)
http://hyperphysics.phy-astr.gsu.edu/hbase/particles/expar.html
 Les photons
L’électrodynamique quantique stipule que l'interaction électromagnétique est expliquée
comme l'échange de photons entre fermions élémentaires, qui possèdent une charge
électrique. Le photon, ayant une charge électrique neutre, les particules qui échangent des
photons conservent leur charge électrique.
L'inverse est également envisageable : un photon peut donner naissance à une particule et à
son antiparticule.
Ces deux cas sont présentés dans les diagrammes de Feynman suivants :
[Figure 13a] Un électron et un positon s'annihilent, en émettant un photon
[Figure 13b] Un photon donne naissance à une paire électron/positon
http://www2.slac.stanford.edu/vvc/theory/feynman.html
De plus, il est à noter que comme la masse du photon est nulle, la portée de l'interaction
électromagnétique est infinie.
 Les bosons W+, W -, Z0, et les quarks
Les bosons W, particules vecteurs de l'interaction faible, ont une charge électrique non nulle
(positive pour le boson W +, négative pour le boson W -). Cela qui signifie que lors de
l'échange d'un boson W, les fermions changent de charge électrique (au travers des quarks
les constituant). Ils changent donc, par cette transformation, de saveur (la «saveur» d'un
fermion est simplement sa nature : électron, neutrino, quark u, quark d...).
37
Ainsi, la radioactivité β d'un neutron est expliquée par l'émission d'un W- par un quark d du
neutron. Il change donc alors de saveur et devient un quark u, puis le W- se matérialise en
un électron et un anti-neutrino électronique. Voici la représentation de Feynman de cette
transformation :
[Figure 14] Représentation de Feynman de la désintégration β d’un neutron
http://hyperphysics.phy-astr.gsu.edu/hbase/particles/expar.html
Voici une autre représentation (non normalisée), qui permet de mieux percevoir ce qui se
passe au niveau des quarks pour cette réaction :
[Figure 15] Evolution de la saveur des quarks lors de la désintégration β d’un neutron
[3] La physique des particules, Robert Zitoun
On voit bien sur ce dernier schéma que l'action du boson W - modifie la charge électrique du
quark bleu, qui était un quark « down » (de charge électrique de -1/3), et devient un quark
« up » (qui est chargé +2/3). Cela montre bien que la charge du boson W- qui est émis est
négative.
La transformation inverse est donc logiquement l'exacte symétrie de la précédente, à savoir :
[Figure 16] Evolution de la saveur des quarks lors de la formation d’un neutron
[3] La physique des particules, Robert Zitoun
38
Le Z0 n'a pas de charge électrique. Il n'induit donc aucun changement de saveur lors d'une
interaction faible, car il ne modifie ni la charge électrique, ni la masse de la particule. En fait,
l'interaction faible du boson Z0 est assez similaire à l'échange d'un photon. En règle
générale, si deux fermions peuvent échanger un photon, ils peuvent aussi échanger un Z0.
La réciproque n'est pas évidente. Par exemple, un neutrino peut échanger un Z0 avec une
autre particule mais pas un photon.
La masse des W et du Z0 est très élevée (presque cent fois plus qu'un proton), la portée de
l'interaction faible est très courte, de l'ordre de 10-18m.
 Le boson de Higgs
Le boson de Higgs est, à l'heure actuelle, une particule dont l'existence n'a pas été détectée
expérimentalement. Cependant, comme cela a déjà été remarqué dans le chapitre
précédent, son existence semble induire qu'il réagit avec des particules. Le boson de Higgs,
+
permet de conférer une masse aux boson intermédiaires (W , W , Z0) et interagissant avec
eux. Elle n'exerce aucune force sur le photon.
 Le graviton
Bien que l'on n'ait jamais, expérimentalement, mis particule en évidence, postulée par la
physique quantique, on peut supposer qu'elle influe sur la matière de la même manière que
le photon, sans interagir avec la masse ni la charge électrique des particules.
I.5.d. La désintégration des protons
 Principe
La découverte de la radioactivité en 1896 par Antoine Henri Becquerel mit fin à une certitude
scientifique, celle que les atomes étaient éternels. Pourtant, si cela est vrai pour des
éléments lourds, comme l'uranium ou le radium, on peut maintenant penser que des noyaux
plus légers peuvent se désintégrer.
Seulement, la matière n'est tout de même pas très évanescente, et il faut réaliser que si
Becquerel a mis en évidence la désintégration de l'uranium dans un cristal de sels d'uranium
d'une masse de l'ordre de grandeur du gramme, pour observer celle d'atomes «ordinaires» il
faut considérer un échantillon de plusieurs tonnes. Les scientifiques ont prouvé que le proton
a une durée de vie au moins 1020 supérieure à l'âge de l'Univers, mais la théorie indique qu'il
n'est pas éternel. Comment le proton, qui est au coeur de l'atome, peut-il se désintégrer ?
Nous avons vu, en introduction à ce chapitre, les lois de conservation régissant les
interactions entre particules, au travers d'une désintégration. Connaissant ces lois de
conservation, tentons de les appliquer aux composants de l'atome.
Considérons tout d'abord un électron, de masse 9,11 × 10-31 kg.
Beaucoup de particules ont une masse inférieure à celle-ci, comme le photon, le graviton
(tous deux de masse nulle) ou le neutrino. Pourtant, il n'existe pas de particule connue
possédant cette propriété qui soit chargée négativement. En conséquence, l'électron est la
particule chargée négativement la plus fondamentale qui existe, et il est insécable.
39
Maintenant, penchons nous sur le cas d'un proton (de charge électrique positive, et de
masse)
En appliquant ces mêmes lois de conservation, on peut obtenir plusieurs «combinaisons»
répondant à ces critères. Divers mésons chargés positivement, ou un positon, remplissent
les conditions nécessaires pour être des produits de désintégration du proton. Leur formation
peut s'accompagner de la formation de particules neutres, comme des neutrinos.
Le proton est un nucléon, donc sa désintégration produirait la modification de la nature de
l'élément chimique considéré, et la libération d'énergie serait bien supérieure à celle produite
par les désintégrations que l'on sait actuellement provoquer (au sein d'un réacteur nucléaire
par exemple).
Lors d'une transformation, le nombre baryonique (voir chapitre 4 sur les hadrons) se
conserve, de la même manière que le nombre de charge électrique.
La désintégration d'un proton et d'un électron en particules neutres violerait cette règle, et
n'est, par voie de conséquence, pas acceptée comme telle.
En revanche, rien n'empêche à un neutron de se désintégrer en un électron et un proton (car
cette transformation respecte toutes les lois de conservation connues), connue sous le nom
de «Désintégration bêta du neutron» (car il y a émission d'un élément radioactif bêta, soit un
électron.
 Limite du nombre baryonique
On peut se montrer sceptique à l'encontre de la notion de «nombre baryonique». Elle
n'existe en effet que pour justifier la possibilité ou non d'une désintégration, sans autre
signification. Elle n'a pas, à l'instar de la charge électrique, une signification dynamique
concrète. En effet, si la charge électrique crée un champ électrique, qui a des propriétés
électromagnétiques, qui n'a un sens que parce que la charge électrique est conservée, la
conservation du nombre baryonique n'entraîne rien de cet ordre.
On pourrait pourtant imaginer l'apparition d'une «force baryonique».
Prenons le cas de la Terre, qui possède un nombre de protons et de neutrons de l'ordre de
4x1051, et qui a donc un nombre baryonique énorme. Deux corps de masse identique
peuvent avoir un nombre baryonique dont la valeur diffère de un pour cent. Or on sait que
les forces existant entre deux corps massiques sont fonction de leur masse, de leur distance,
mais leur nombre baryonique ne joue aucun rôle.
Les travaux des Chinois Chen Ning Yang, Tsung-Dao Lee, datant de 1951, ont montré que
si cette force existe, elle serait 40 fois inférieure à la force gravitationnelle, ce qui rend
l'existence d'une telle interaction peu probable.
Pour justifier certains phénomènes, les scientifiques sont habitués à manipuler des
grandeurs qui ne semblent pas avoir de correspondance dynamique, telle que celle
observée avec la chargé électrique. C'est le cas, par exemple, de l'étrangeté (qui explique,
pourquoi les mésons K et les hypérons ne peuvent être observés séparément).
Il semblerait que le nombre baryonique soit également une grandeur sans signification
concrète.
 Observation de la désintégration d'un proton
 Principe : le rayonnement, ou radiation Cerenkov
Le rayonnement Cerenkov, du nom du scientifique russe Pavel Cerenkov, qui observa pour
la première fois ce phénomène en 1934, est le résultat de l'onde de choc produite par une
particule chargées électriquement, qui se déplace dans un milieu (autre que le vide) à une
vitesse supérieure à celle de la lumière dans ce milieu.
40
Des photons sont émis, à l'intérieur d'un cône dont l'ouverture est fonction du milieu et de la
vitesse de la particule d'après la relation suivante :
θ étant l'angle caractéristique du cône, β le rapport de la vitesse de l'onde et de la célérité de
la lumière dans le vide, et n l'indice de réfraction du milieu.
On l'observe en particulier dans les centrales nucléaires (où il est responsable de la couleur
bleue des piscines) ou lors de l'entrée de rayons cosmiques dans l'atmosphère terrestre.
En effet, la vitesse de la lumière, si elle ne peut être dépassée, ni même atteinte, d'après la
théorie relativiste, peut être dépassée dans un milieu autre : la vitesse de la lumière dans un
milieu donnée, est obtenue par la relation suivante : c(milieu) = c(vide) n-1, n étant l'indice de
réfraction du milieu, c étant la vitesse de la lumière. Sachant que l'air a un indice de
réfraction de 1.00029, la vitesse de la lumière dans ce milieu vaut 0,099971 c(vide). Si l'on
soumet des électrons à une différence de potentiel de 700 MeV, il peuvent atteindre une
vitesse de 0,999999 c(vide), et sont donc susceptibles de produire une radiation Cerenkov.
Dans un tube photomultiplicateur, le rayonnement Cerenkov est le signal d'une possible
désintégration de proton, mais aussi d'interactions de particules très énergétique venant de
l'espace. En effet, la plupart des émissions de lumière détectées par les tubes
photomultiplicateurs ne proviennent pas de produits de désintégration du proton, comme la
collision d'un neutrino. Le nombre de cônes de rayonnement Cerenkov et leurs orientations
permettront de distinguer ces deux cas. En effet, la désintégration d'un proton en un positon
et un méson neutre, par exemple, donnerait naissance à trois cônes de rayonnement
Cerenkov selon des angles caractéristiques. Le positon donnerait, en effet, naissance à un
cône, tandis que le méson pi neutre, serait responsable des deux autres cônes lumineux.
L'interaction du neutrino engendre une seule cascade de particules chargées électriquement,
elle est en conséquence observée comme un cône isolé de rayonnement Cerenkov.
Ces rayonnements peuvent être enregistrés grâce à un compteur Cerenkov.
[Figure 17] Principe de détection de la désintégration d’un proton
[1] Les particules élémentaires, Michel Crozon
41
 Comment observer une désintégration de protons ?
Pour observer la désintégration d'un proton, il convient de placer des capteurs de type
Cerenkov au sein de matière. Néanmoins, le proton n'est pas une particule dont la durée de
vie est courte, on peut le sentir en observant que la matière ne change pas en permanence
de nature, ce qui implique une certaine stabilité de son noyau atomique, donc ce phénomène
est observable soit en visualisant un petit nombre de protons sur une grande période, soit en
considérant un échantillon de plusieurs tonnes de matières. Il semble plus aisé de considérer
la seconde approche.
Les recherches les plus avancées à ce jour, dont les résultats aient été publiés, furent
entreprises en collaboration par des chercheurs de l'Université Case Western Reserve, de
l'Université du Witwatersrand, et de l'Université de Californie à Irvine, qui ont observé 20
tonnes d'or, à 3200 mètres de profondeur d'une mine d'or sud-africaine. Les résultats,
publiés récemment, ont permis d'affirmer que la durée de vie moyenne du proton de l'ordre
de 1030 années (cette valeur est la période radioactivité du proton).
 Vers la désintégration de toute matière ?
La désintégration du proton inclut une «explosion» de la structure de l'atome, car elle influe
sur l'équilibre même de son noyau.
Toutefois, à notre échelle, cela a un impact négligeable, car, à titre de comparaison, si la
période radioactive du proton est de l'ordre de 1030 années, l'âge de l'Univers est de 1010
années !
I.5.e.
Les limites du modèle standard
Comme nous venons de le voir, l'atome n'a pas fini de nous livrer ses secrets. La
théorie atomique a fait d'énormes progrès lors du dernier siècle (la découverte de l'électron a
111 ans, ce qui est relativement récent), conduisant à l'aboutissement de la Physique
Relativiste et à l'élaboration de la Physique Quantique, et nous permettant de mieux
comprendre les constituants de l'atome, dont on ignorait jusqu’à l’existence-même il y a
moins d'un siècle !
L'ensemble des connaissances atomiques actuelles est cependant encore incapable de
répondre à certaines questions. Par exemple elle ne sait pas dire pourquoi il existe trois
familles de quarks et de leptons, expliquer la nature profonde de la masse, ou prouver
l'existence des dimensions supplémentaires prévues par les théories des supercordes.
Le moyen actuel de valider les théories repose sur l'observation ce qui se passe lors des
collisions atomiques, au sein des accélérateurs de particules. L'effort à fournir pour permettre
d'affiner les d'études est, en effet, autant théorique qu'expérimental.
Les prochains bouleversements importants se produiront d'ailleurs certainement après la
mise en fonction du Large Hadron Collider, en 2008, qui va offrir de larges perspectives de
recherche aux physiciens.
42
43
II. Les accélérateurs
de particules
44
45
Les accélérateurs de particules sont des dispositifs destinés à la recherche
fondamentale en sciences physiques. Ils servent à accélérer des faisceaux de particules
chargées (électrons, positrons, protons, antiprotons...) pour les faire entrer en collision et
étudier les particules générées au cours de cette collision. L'énergie des particules ainsi
accélérées se mesure en électronvolts (1 eV est l’énergie imprimée à un électron ou proton
-19
par une différence de potentiel de 1 Volt, soit environ 1,602 x 10 Joule) mais les unités
6
couramment employées sont souvent le million (1Mev = 10 eV), ou le milliard d'électronvolts
(1Gev = 109 eV). Les accélérateurs actuels emploient des énergies de plusieurs centaines
de GeV.
−36
Un électronvolt correspond à une masse de 1.783 × 10
kg (d’après la relation E=mc²).
Ainsi, pour évoquer la masse d’une particule, on préfèrera citer l’énergie nécessaire pour la
mettre en évidence.
Dans les années 1930, les scientifiques pensaient que les électrons, les protons et les
neutrons étaient les plus petits objets en quoi la matière pouvait être divisée. On les désigna
comme des « particules élémentaires » pensant qu'ils étaient indivisibles ; les nouveaux
« atomes » selon le terme originel.
Pour étudier l'interaction des neutrons et des protons dans le noyau de l'atome, les
physiciens construisirent des accélérateurs de particules.
Ceux-ci sont constitués de trois parties : une source de particules élémentaires, un tube
placé sous vide partiel dans lequel les particules peuvent se déplacer librement, et des
dispositifs d’accélération des particules. Leur rôle est de transmettre aux particules une
énergie cinétique suffisamment grande et de les faire entrer en collision. L'énergie de ces
collisions produit toutes sortes de particules qui sont ensuite détectées.
À l'aide des accélérateurs, il fallut peu de temps pour réaliser qu'il y avait encore un autre
niveau de structure à l'intérieur des protons et des neutrons. Ceux-ci étaient composés de
plus petites particules qu'on baptisa quarks. Les protons et les neutrons sont construits à
partir de trois quarks chacun.
Jusqu'à maintenant, aucune sous-structure ne fut découverte aux quarks et aux électrons.
Ce sont donc les nouvelles particules élémentaires.
Mais l'histoire ne s'arrête pas aux quarks et aux électrons. L'observation de plusieurs
centaines de particules différentes, souvent instables, a permis aux physiciens de déduire
l'existence de quelques autres particules élémentaires. La description de la nature et de
l'interaction de ces particules se trouve dans la théorie physique appelée le « modèle
standard ».
Au fil du temps, les scientifiques ont développé des accélérateurs de plus en plus puissants
et permettant ainsi de nouvelles découvertes.
46
II.1. Les accélérateurs linéaires [6] [7] [8] [9]
Ce type d'accélérateur correspond a la «première génération» d'accélérateur. Ils sont les
plus anciens, apparaissant dès les années 1930 aux Etats-Unis. En France, au début des
années 60, un accélérateur linéaire et son Anneau de Collision (ACO) dont l'énergie était de
l'ordre du GeV a été construit à Orsay (Essone).
[Figure 18] : Actuellement, le plus grand
accélérateur linéaire au monde est celui de
Stanford, aux Etats-Unis
[5] La première seconde, Hubert Reeves
Il existe deux types d’accélérateurs de particules linéaires : les premiers apparus sont les
accélérateurs électrostatiques, puis le Norvégien Rolf Wideroë mit au point un nouveau
type d’accélérateurs de particules :
II.1.a. Les accélérateurs électrostatiques
Des particules chargées peuvent être accélérées par un champ électrostatique. Une haute
tension statique est appliquée entre 2 électrodes produisant ainsi un champ électrique.
L'énergie acquise par les particules est égale, en électronvolts, à la différence de potentiel.
En 1932, les scientifiques britanniques John D. Cockcroft et Ernest Walton ont pu accélérer
des protons à 250 MeV en plaçant des électrodes ayant une différence de potentiel élevée à
chaque extrémité d'un tube sous vide.
[Figure 19] Principe d’un accélérateur de particules électrostatique
http://sfp.in2p3.fr/accelerateur/cours/Intro-Acc-SFP.pdf
Au début des années 1930, le physicien américain Robert Jemison Van de Graaff met au
point l'accélérateur de type Van de Graaf : une différence de potentiel est établie entre deux
électrodes par transport de charges sur un système en mouvement. Actuellement, ce type
de dispositif est utilisé dans les microscopes électroniques pour l'étude des grosses
molécules : cellules, virus...
47
II.1.b. Les accélérateurs de type Wideroë ou Alvarez
Le faisceau, en passant dans une suite de cavités où règne un champ électrique alternatif
délivré par le générateur Hautes Fréquences (HF), va pouvoir atteindre une énergie de
quelques centaines de MeV.
Rolf Wideröe fut le premier à construire une telle machine pour accélérer des ions K+ à 50
keV (1928).
[Figure 20] Principe d’un accélérateur de type Wideroë
[2] Les particules élémentaires, Michel Crozon et François Vanucci
En 1931, D. Sloan et E. Lawrence construisirent un générateur HF de 50 kW à 10 MHz et
purent ainsi accélérer des ions Hg+ à 1,26 MeV dans une machine qui comportait 30 tubes.
Ce type d'accélérateurs convient principalement pour les ions de basse énergie.
En 1970, un tel accélérateur, qui fournissait des électrons de 10GeV, a permis de mettre en
évidence la structure interne des protons.
D'autres accélérateurs, plus récents, sont les accélérateurs circulaires. Ils ont des
dimensions inférieures à celles des accélérateurs linéaires pour une énergie égale. On en
distingue 2 grands types : le cyclotron et le synchrotron.
Les accélérateurs linéaires sont encore très utilisés, notamment pour accélérer les électrons.
Ils servent comme injecteurs des accélérateurs circulaires.
48
II.2. Les accélérateurs circulaires [6] [7] [8] [9]
On distingue aussi deux types d'accélérateurs circulaires :
- les cyclotrons où les trajectoires des particules sont des spirales, sont constitués d'un
seul aimant de courbure dont le diamètre peut atteindre plusieurs mètres. En France, le
GANIL (Grand Accélérateur National d'Ions Lourds) situé à Caen est constitué de deux
cyclotrons isochrones (qui ont la même fréquence).
[Figure 21] Le GANIL (Grand Accélérateur National d'Ions Lourds)
http://www.futura-sciences.com//img/ganil.jpg
- les synchrotrons : Dans ce type d'accélérateur, les particules circulent sur la même
trajectoire presque circulaire à l'intérieur d'une série d'aimants de courbure. Afin de
maintenir les particules sur la même trajectoire, le champ magnétique augmente au fur et
à mesure que l'énergie des particules augmente. Au CERN, à Genève, le Super Proton
Synchrotron (SPS) atteint des énergies de 450 GeV. Il a servi d'injecteur au Large
Electron Positron (LEP) et servira au futur Large Hadron Collider (LHC).
[Figure 22] Le SPS (Super Proton Synchrotron)
http://na47sun05.cern.ch/target/CERNSPS.html
49
II.2.a. Cyclotron
Le cyclotron est un type d’accélérateur circulaire inventé par Ernest Orlando
Lawrence en 1929. Dans un cyclotron, les particules placées dans un champ magnétique
suivent une trajectoire en forme de spirale et sont accélérées par un champ électrique
alternatif à des énergies de quelques MeV à une trentaine de MeV.
[Figure 23] : Trajectoires de particules au sein d’un cyclotron
[6] Les particules élémentaires
Le champ magnétique est appliqué perpendiculairement dans une chambre vide en forme de
disque, laquelle contient deux électrodes semi-circulaires en forme de D. Sous peine de
perdre leur énergie par collision sur les molécules de l’atmosphère, les ions doivent être
accélérés dans une enceinte où la pression est environ 10 milliards de fois plus faible que la
pression atmosphérique.
Les portions rectilignes de ces électrodes se font face. Le flux d’électrons ou d’ions
traversant ce champ magnétique est soumis à une force perpendiculaire à la direction du
mouvement (ce principe est utilisé pour le fonctionnement des moteurs électriques).
Le champ magnétique force donc les électrons ou les ions à tourner sur un cercle de rayon
proportionnel à leur vitesse. À chaque passage entre les électrodes 1 et 2, les ions reçoivent
un supplément de vitesse qui les place sur une orbite un peu plus grande. Cette accélération
est engendrée par un générateur de tension alternative.
D’autres types d’accélérateur circulaire, d’invention plus récente, permettent d’atteindre des
énergies supérieures : synchrocyclotron (centaines de MeV) et synchrotron (millions de MeV,
ou TeV).
50
II.2.b. Synchrotron
Le synchrotron est le plus récent des accélérateurs circulaires. Il est composé d'un
tore (ou anneau de stockage) avec des aimants situés à intervalles réguliers. Ceux-ci
servent à garder le flux de particules (électrons ou positrons) au centre du tube. D'autres
aimants dans l'anneau permettent d'accélérer les particules (à une vitesse proche de celle
de la lumière) en un ou plusieurs points à chaque fois que la particule fait un tour complet.
Les particules entrent par bouffées dans le synchrotron, déjà accélérées à plusieurs MeV ;
pour que les particules gardent le trajet imposé au fur et à mesure qu'elles sont accélérées,
les forces des aimants sont augmentées.
En quelques secondes, les particules atteignent une énergie de 1GeV ; lorsqu'elles
atteignent une énergie suffisante, elles sont éjectées pour servir à des expériences
ultérieures ou vers une cible particulière et une autre bouffée est injectée.
Ils génèrent alors un rayonnement synchrotron qui sera exploité dans diverses expériences.
Ce rayonnement est collecté à différents endroits du tore, les lignes de lumière. Chaque
ligne de lumière est ensuite traitée avec des lentilles et monochromateurs afin de
sélectionner une ou plusieurs longueurs d'onde précises. «A l’extrémité» de chaque ligne de
lumière sont installés des appareils de mesure (spectromètre de masse, cristallographes,..)
permettant de faire des expériences. Suivant la taille de l'anneau, des dizaines d'expériences
peuvent être menées simultanément.
La lumière synchrotron possède des caractéristiques exceptionnelles en comparaison à
d'autres sources de lumière: son spectre d'émission s'étend de l'infrarouge aux rayons X. De
plus, son rayonnement est pulsé, donc très stable.
Le synchrotron permet, par ses qualités, l'accès à de nombreuses expériences : absorption
des rayons X, cinétique chimique, cristallographie de protéines, etc… Ces expériences
concernent des domaines très variés, allant de la chimie et la physique fondamentales, aux
datations archéologiques ou à l´étude d'organismes microscopiques. Elles peuvent
également être employées à des fins industrielles.
En 1956, c'est grâce à un synchrotron à 6 GeV que les premiers antiprotons ont été identifiés
à Berkeley. D'autres découvertes, comme les neutrinos muoniques, ont été faites grâce à de
tels dispositifs.
51
Pour mieux comprendre le fonctionnement d’un accélérateur de particules synchrotron, nous
pouvons étudier SOLEIL, qui est une source de lumière extrêmement puissante qui permet
d’explorer la matière, inerte ou vivante.
Plus concrètement, c’est un accélérateur de particules qui produit un rayonnement
synchrotron. Ce rayonnement est fourni par un anneau de stockage de 354 m de
circonférence dans lequel des électrons de très haute énergie circulent quasiment à la
vitesse de la lumière.
[Figure 24] L’accélérateur SOLEIL
http://www.synchrotron-soleil.fr/francais/vie-scientifique/experiences
Un faisceau d’électrons fin comme un cheveu est d’abord accéléré dans un accélérateur
linéaire (1), un Linac de 27 mètres où il atteint la vitesse de la lumière.
Après cette première accélération, le faisceau d’électrons est dirigé vers un deuxième
injecteur appelé booster (2) qui porte leur énergie à la valeur de fonctionnement de SOLEIL
soit 2,75 GeV.
Ayant atteint 2,75 GeV grâce aux deux accélérateurs, les électrons sont injectés dans
l’anneau de stockage de 364 mètres de circonférence (3).
Le faisceau d’électrons tourne dans l’anneau de stockage, où sont installés différents
dispositifs magnétiques : les aimants de courbure (4) dans les sections courbes, les
quadrupôles et sextupôles (5), les wigglers et les onduleurs (6) dans les sections droites. A
chaque passage dans les dispositifs magnétiques, les électrons sont accélérés et perdent de
l’énergie sous forme d’une lumière particulière appelée « rayonnement synchrotron ».
L’énergie perdue par les électrons en émettant le rayonnement synchrotron est compensée
par une ou plusieurs cavités Radio-Fréquence RF (non représentées sur la figure).
Le rayonnement synchrotron, produit dans les aimants de courbures et les éléments
d’insertion (onduleurs et Wiggler), est dirigée par des systèmes optiques vers les stations
expérimentales. Chaque ligne de lumière (7) constitue un véritable laboratoire de biologie,
chimie, sciences de la Terre…
52
II.3. Large Hadron Collider (LHC) [9] [13]
Le LHC (Large Hadron Collider) est le prochain grand accélérateur de particules qui
sera mis en opération en 2007 au CERN en Suisse. À sa complétion, il sera le plus grand
accélérateur du monde. Il est situé dans le tunnel de son prédécesseur, le collisionneur LEP
(Large Electron Positron), qui fait 27 kilomètres de circonférence.
[Figure 25] Le LHC (Large Hadron Collider)
http://livefromcern.web.cern.ch/livefromcern/antimatter/history/historypictures/LHC-drawing-half.jpg
Le projet LEP (collisionneur circulaire électron–positon du CERN) a été mis en
fonctionnement en 1989. Son objectif principal était de mesurer avec précision des
grandeurs physiques dans le but de tester le Modèle Standard des interactions électrofaibles
et fortes. L’accélérateur a aussi permis de découvrir des particules plus lourdes non encore
observées dans les autres accélérateurs. Après 12 ans de fonctionnement, il a été
définitivement arrêté en Novembre 2000. Aujourd’hui encore, des physiciens analysent
encore
la
multitude
de
données
qui
y
ont
été
collectées.
[Figure 26] Le LEP(Large Electron Positron)
http://www.interactions.org/LHC/images/aerial.jpg
Le LHC sera construit dans le même tunnel que le « Large Electron Positron Collider »
(grand collisionneur électron-positon) LEP du CERN, et coûtera donc beaucoup moins
qu'une machine similaire bâtie sur un site vierge. Les faisceaux de protons seront préparés
par la chaîne d'accélérateurs existants au CERN avant d'être injectés dans le LHC.
53
[Figure 27] Schéma de principe du LHC
http://lhc-injection-test.web.cern.ch/lhc-injection-test
À la différence du LEP, des protons (une variété de hadrons) seront accélérés pour produire
des collisions, au lieu des électrons ou des positons. Ces protons seront accélérés jusqu'à
une énergie de 7 TeV (pour une énergie de collision de 14 TeV). Cinq expériences seront
installées sur cet accélérateur, soit Atlas, CMS, TOTEM, LHC-b et Alice.Les deux premières
étudieront la physique des particules, en particulier la recherche du boson de Higgs et des
particules supersymétriques, TOTEM mesurera la section efficace totale du LHC, LHC-b
étudiera la violation de la symétrie CP, et Alice étudiera la physique nucléaire.
54
[Figure 28] Les expériences réalisées sur le LHC
http://felix.web.cern.ch/FELIX/Loi/HTML/C10/img1.gif
II.4.
Conclusion
Au fil du temps, les accélérateurs de particules permettent d’atteindre des niveaux
d’énergie (de collision) toujours plus importants (comme l’atteste le diagramme de
Livingston, fourni en Annexe 3).
A l’aide de ces dispositifs, les physiciens espèrent répondre à plusieurs questions. Ils sont en
effet incapables, à l’aide des moyens actuels, d’expliquer l’origine de la masse, ou plutôt sa
vraie nature. Des accélérateurs plus puissants pourraient également permettre de
déterminer si l’antimatière est une réflexion parfaite de la matière (en terme de masse et de
charge électrique).
De plus, la prochaine construction du LHC permettra, espérons-le, de déterminer l’existence
du boson de Higgs. La découverte expérimentale de ce dernier pourrait permettre de justifier
l’interaction électrofaible, postulée jusqu’ici.
Dernièrement, un projet a été formulé par des physiciens Japonais avec le concours de
collègues d'autres nations asiatiques, en vue de construire un nouvel accélérateur leptonique
au Japon. Cet accélérateur , déjà baptisé « GLC », serait un complément très utile au LHC.
Le GLC (Global Linear Collider) serait une toute nouvelle sorte d’accélérateurs et pourrait
permettre aux physiciens d’étudier plus précisément les phénomènes liés au Big Bang, et les
tous premiers instants de notre Univers...
55
III. Le Big Bang
56
57
Élaboré dans les années 1940, le modèle du Big Bang est à la fin du XXème siècle la
représentation théorique la moins contestée des modèles cosmologiques et la plus en
accord avec les observations.
Selon le modèle du Big Bang, une explosion initiale, survenue il y a une quinzaine de
milliards d'années dans un Univers alors extrêmement dense et chaud, est à l'origine de
l'expansion et de la structure de l'Univers tel qu'il est observé aujourd'hui.
L'expression Big Bang, de l'anglais « big » (grand) et de l'onomatopée « bang » décrivant le
bruit d'une explosion violente, fut conçue en 1950 par l'astronome américain Fred Hoyle
dans un esprit de facétie et de provocation, puisqu'il était lui-même l'un des fondateurs d'un
autre modèle, celui de la théorie dite quasi-stationnaire.
III.1. La théorie du Big Bang [4] [5] [10] [11] [12]
Il est important de signaler que le Big Bang (comme d'ailleurs le modèle standard des
particules) n'est qu'une théorie, admise néanmoins par la plus grande partie de la
communauté scientifique. Cette théorie change et s'affine rapidement. Ainsi des notions
telles que l'âge exact de l'Univers, ou encore son devenir (évolution vers une dilution ou une
recontraction), sont encore des sujets de controverse.



Le Big Bang ne peut être décrit selon les équations connues de la physique qu'à
partir de 10-6 seconde.
Entre 10-43 et 10-6 seconde, le Big Bang n'est qu'un ensemble d'hypothèses.
Avant 10-43 seconde, l'environnement de l'Univers est si extrême (masse de l'Univers
concentré dans un point et température infinie?) que notre physique est pour l'instant
humblement muette...
Le meilleur argument de la création soudaine est l'expansion de l'univers non pas comme
une explosion mais plutôt comme une dilatation.
C'est en 1929 que l'expansion de l'Univers a bouleversé les idées. Jusque là, on considérait
que l'univers était statique, que rien ne bougeait. Mais un astronome américain, Edwin
Hubble découvrit que les galaxies s'éloignaient les unes des autres, particulièrement grâce à
l'effet Doppler. Ce phénomène est appelé « la fuite des galaxies ».
On en déduisit que si des choses s'éloignent les unes des autres, elles étaient auparavant
rapprochées, d’où l'origine du Big Bang.
Voici les différentes étapes du Big Bang, dans leur ordre de réalisation :
 Avant 10-43 secondes
Tout ce qui se passe avant cette date chronologique incroyablement courte est un mystère
total. 10-43 seconde correspond à ce que l'on dénomme le temps de Planck, sorte de
quantum temporel incompressible (cf. chapitre I.3.b.).
58
Nul ne sait encore très bien à quoi pouvait bien ressembler notre univers à une telle échelle.
La difficulté apparaît dès que l'on met en rapport un temps aussi minuscule que 10-43
seconde avec la colossale énergie de l'univers, concentrée, à l'époque, dans un volume
aussi infime.
A l'instant « 0 », on suppose toutefois que l'Univers avait une densité et une température
infinie, mais aussi une taille infiniment petite.
 De 10
-43
à 10
-35
seconde : période dite de Grande Unification
-33
Au temps de Planck, l’Univers mesurait environ 10 cm de diamètre, c'est-à-dire 10 millions
de milliards de fois plus petit qu'un atome d'hydrogène. Sa température est de 1032 Kelvin.
La Superforce se scinde en deux forces: la gravitation, et la force électronucléaire.
[Figure 29] La Superforce
http://molaire1.club.fr/bigbang.html

La gravitation fait sécession et quitte le monde quantique. Désormais, son action à
l'échelle des particules sera négligeable sauf dans des cas extrêmes (explosion
d'étoiles par exemple).

La force électronucléaire regroupe les interactions forte et électrofaible. Elle est
décrite par la théorie actuelle de Grande Unification.
 De 10-35 à 10-32 seconde... l'inflation de l'Univers
L’Univers a une température d’environ 1028 Kelvin.
A ce moment précis de l'évolution universelle, il y a sécession de la force électronucléaire en
interaction forte et en interaction électrofaible. Avec la gravitation, Il existe donc désormais
trois forces distinctes dans l'Univers.
[Figure 30] L’interaction électronucléaire
http://molaire1.club.fr/bigbang.html
59
28
A cette température de 10 K, l'énorme énergie du vide est libérée et imprime à l'Univers
une expansion fulgurante que le physicien Alan Guth a appelé inflation.
-35
-32
Entre 10
et 10
seconde, son volume augmente d'un facteur 1027 alors que dans les 15
milliards d'années suivantes, son volume n'augmentera que d'un facteur 109.
 De 10
-32
à 10
-12
seconde : la naissance des quarks
-32
A la fin de la période d'inflation, vers 10
seconde après le Big Bang, l'Univers mesure
25
quelques centimètres et sa température est de 10 K.
C'est à ce moment que les premières particules de quarks et d'antiquarks surgissent du vide
quantique dans un bain de photons. Cette matérialisation de matière et d'antimatière va
entraîner aussitôt une lutte à mort entre ces deux composantes antagonistes: Les paires de
particule / antiparticule vont s'annihiler pour devenir lumière (photons).
Puis, ces mêmes photons vont, par une réaction symétrique, se matérialiser (E=mc² !) en
paires de particule / antiparticule. L'Univers est alors une soupe de quarks et d'antiquarks en
perpétuelle annihilation - matérialisation !
Cependant, la création initiale des couples particule-antiparticule ne va pas se faire de façon
parfaitement symétrique: Un petit excédent de matière va apparaître :
Pour 1 000 000 000 d'antiquarks créés, il y a 1 000 000 001 de quarks créés, et donc 1 seul
quark survivant à la future grande annihilation : Un rapport de 1 pour 1 milliard, et voici
comment une brisure de symétrie est responsable de l'existence de la matière dont nous
sommes actuellement constitués !
 De 10
-12
à 10
-6
seconde... la naissance des leptons
15
L'Univers se refroidit toujours (10
kilomètres.
K) et grossit pour devenir une sphère de 300 millions de
L'interaction électrofaible se dissocie à son tour en interactions faible et électromagnétique.
Les 4 interactions fondamentales de l'univers sont donc différenciées comme elles le sont
toujours actuellement.
[Figure 31] L’interaction électrofaible
http://molaire1.club.fr/bigbang.html
Par ailleurs, la « soupe » de quarks et d'antiquarks s'est enrichie de particules légères,
sensibles à l'interaction faible : les leptons. Ces leptons regroupent les électrons, muons, tau
et leurs neutrinos correspondants, ainsi que leurs antiparticules.
60
[Figure 32] L’électron et son antiparticule, le positron (ou positon)
http://molaire1.club.fr/bigbang.html
 De 10-6 à 10-4 seconde : la phase des hadrons
(A partir de ce moment que les mathématiques laissent leur place aux sciences physiques.)
13
Le volume de l'Univers est équivalent à celui du système solaire actuel, soit 10
13
température est désormais de 10 K.
m et sa
La baisse de température fait que les quarks n'ont plus assez d'énergie pour exister seuls :
l'interaction forte peut alors grouper les quarks en hadrons :
[Figure 33] Différents hadrons
http://molaire1.club.fr/bigbang.html



3 quarks forment des baryons: les protons et les neutrons naissent.
3 antiquarks forment des antibaryons: antiprotons et antineutrons.
les paires quark/antiquark forment des mésons.
La fin de cette période marque aussi la disparition des antiquarks .
En effet, nous avons vu qu'il y avait un léger excès de quarks (1 quark en trop pour 1 milliard
d'antiquarks) à 10-32s. Ainsi tous les protons et neutrons, nouvellement formés, vont finir de
s'annihiler avec leurs antiparticules: Il ne restera donc au final qu'un léger excédent de
matière. La température est devenue trop faible pour que les photons puissent se
rematérialiser en couple paticule/antiparticule. Les rares protons et neutrons survivants sont
donc « gelés» et forment la matière de l'Univers.
 De 0,0001 à 1 seconde : la phase des leptons
10
La température de l’Univers est maintenant de 10
K
A cette température, il se produit une deuxième grande annihilation de matière et
d'antimatière: elle concerne cette fois les leptons et leurs antiparticules. En effet, les photons,
épuisés par l'expansion de l'Univers, n'ont plus assez d'énergie pour se convertir (par
matérialisation) en paire électron/ntiélectron.
61
Les paires lepton/antilepton subissent ainsi le sort des hadrons : elles s'annihilent dans un
océan de photons et seule une fraction d'un milliardième de leptons survit à l'hécatombe.
L’antimatière disparaît en quelque sorte de l’Univers.
La matière est désormais au grand complet, mais la température est toujours trop élevée
pour que les atomes puissent se former. L'Univers est une grosse masse lumineuse de
plasma brûlant formé de hadrons et de leptons célibataires.
Les neutrinos cessent d'interagir avec la matière et s'en séparent.
 De 1 à 3 secondes : Formation des premiers noyaux d'atomes
La température chute à 106 K : elle est suffisamment basse pour que les protons et neutrons
puissent s'assembler durablement.
[Figure 34] Deux noyaux atomiques : l’Hydrogène et
l’Helium
http://molaire1.club.fr/bigbang.html
Les protons seuls forment des noyaux d'hydrogène (constitués d’un proton et d’un électron)
Les protons et neutrons qui se rencontrent, peuvent aussi s'assembler pour former des
noyaux d'hélium (2 protons + 2 neutrons):
Cette phase se nomme la nucléosynthèse primordiale. La matière de l'Univers se compose
alors des noyaux d'atomes suivants :



environ 75% d'hydrogène H
environ 25% d'hélium He
des traces de Li-7 (lithium à 3 protons et 4 neutrons) et d'isotopes tels que Deutérium
(H-2, dont le noyau est constitué d’un proton et de deux neutrons), He-3, He-4...
99% de la matière actuelle de l'Univers se forme à cette lointaine époque. Le 1% restant,
non encore apparu, est constitué de tous les atomes ayant plus de 2 protons dans leur
noyau, parmi lesquels les atomes de carbone, d'azote et d'oxygène dont nous sommes
constitués. Tous ces atomes complexes seront formés dans les réactions thermonucléaires
du coeur des étoiles qui vont naître...
A cette époque, les électrons sont toujours libres car très énergétiques. Ils ne se lient donc
pas encore aux noyaux pour former les atomes H (hydrogène) et He (hélium).
62
 De 3 minutes à 300 000 ans : l'Univers devient transparent
L’Univers est à une température de 10 000 K
Jusque là, les photons étaient continuellement émis et absorbés par les particules
environnantes. Puis, avec la chute de température et de densité de l'Univers, les photons
vont cesser d'interagir avec la matière : ils vont pouvoir enfin traverser l'Univers sans
obstacle: il y a découplage entre les photons et la matière: l'Univers devient subitement
transparent. Cette lumière libérée et provenant de tout point de l'espace peut être
actuellement captée par nos astrophysiciens: c'est ce qui est appelé le fameux
«rayonnement fossile » à 3K de l'Univers, vestige du Big Bang.
[Figure 35] : Le rayonnement fossile à 3 K vu par le satellite COBE
http://cas.sdss.org/dr4/en/astro/universe/images/cobe.jp
 300 000 ans et après : la formation des premiers atomes
300 000 ans après le Big Bang, les électrons vont pouvoir être captés autour des noyaux
d'hydrogène et d'hélium présents. Les premiers atomes naissent alors, et l'interaction
électromagnétique peut enfin jouer pleinement son rôle.
Ces évènements ultrarapides de la naissance de l'Univers se sont déroulés il y a environ 15
milliards d'années. Certaines découvertes astrophysiques récentes pencheraient même pour
un âge de l'Univers plus récent, de l'ordre de 10 milliards d'années.
Après un milliard d'années, les galaxies commencent à se former, ainsi que des étoiles.
L'Univers est maintenant prêt à accueillir la formation de nouvelles étoiles et planètes, ainsi
que tous les phénomènes qui se produisent aujourd'hui.
Le processus qui vient d'être décrit ici comporte cependant encore de nombreux points
obscurs.
Un schéma résumant la chronologie du Big Bang est consultable en document annexe
(cf. Annexe 4)
63
III.2.
Les limites de la théorie [4] [5] [10] [11]
Malgré une réputation mondiale, la théorie du Big Bang a ses faiblesses. Certains
éléments sont encore inexpliqués et inexplicables par cette théorie.
 L'homogénéité de l'univers:
Quelle que soit la direction dans laquelle on regarde, toutes les régions de l'univers
possèdent la même température, la même pression. Or, si l'univers a effectivement 15
milliards d'années, il est impossible que toutes ses régions aient eu le temps de
s'homogénéiser, surtout les plus éloignées. Même la matière s'est organisée (regroupée en
galaxies et amas de galaxies), elle forme des grumeaux dans l'univers.
Une théorie a été avancée pour expliquer ce phénomène: l'inflation.
 La platitude de l'univers :
Des études récentes ont montré que notre univers est plat. Alors que toute la matière le
composant devrait le courber, rendant son rayon très petit. Les chances que l'univers soit
«préparé» dès sa naissance à être ainsi sont quasi-nulles. Là encore la théorie de l'inflation
peut être utilisée, puisqu'elle explique que l'univers s'est aplati peu de temps après le Big
Bang.
 Temps « 0 » :
Est il vraiment sérieux d'imaginer un temps « zéro » et l'infinité de l'univers ? Le temps zéro
et sa densité infinie s'écartent de la science et de toute loi physique. Et comment cela auraitil pu donner naissance à la matière ?
La température de l’Univers à ce temps « 0 », est supposée tendre vers l’infini. Or, dans la
physique «classique», une théorie aboutissant à une grandeur infinie est considérée comme
fausse. Que penser alors de la théorie du Big Bang ?
Le Big Bang a beau décrire avec précision les premiers moments de l'univers, de nombreux
problèmes semblent donc insolubles. Ainsi, il est dit qu'au soi-disant temps «zéro», les lois
de la physique n'ont aucun sens.
La théorie de l'inflation continue résout pour sa part certains problèmes mais pas tous. De
plus, elle est considérée par un certain nombre de physicien et astrophysicien comme un
bricolage, une théorie inventée pour combler les «trous» du Big Bang. Inventer pour remplir,
en quelque sorte...
La théorie du Big Bang n'est donc finalement pas aussi stable qu'on peut le penser. Tous
ses problèmes peuvent très bien amener à une nouvelle théorie; le Big Bang ne deviendrait
alors qu'une théorie ayant fait son temps, amenée irrémédiablement à disparaître...
Cependant, avant d’élaborer une nouvelle théorie, plus performante, pour expliquer l’origine
de l’Univers, il faudrait avant toute chose comprendre les erreurs d’appréciations que nous
faisons
64
III.3. Le futur instrument de recherche, le GLC [13]
Le GLC est un nouvel accélérateur de particule qui permettra, si il est construit, aux
physiciens de voir ce qui s'est produit quelques instants après le Big Bang. Contrairement à
ses prédécesseurs qui étaient circulaires, cet accélérateur sera construit en ligne droite. Il
permettra d'explorer de nouvelles plages d'énergie où les physiciens des particules espèrent
mettre en évidence des particules jusqu'à présent inconnues et en déduire de nouvelles
théories décrivant le fonctionnement des particules les plus petites de notre Univers.
Cependant il reste de nombreux défis technologiques à relever avant de pouvoir commencer
la construction du GLC. Les physiciens des particules espèrent pouvoir analyser les
premières données produites par le GLC aux environs de l'année 2015.
Malgré d'intenses recherches durant la dernière décennie, aucune trace de théorie ``au-delà
du Modèle Standard'' n'a été trouvée. Cela s'explique par le fait que les phénomènes qu'elles
gouvernent se produisent à des énergies supérieures à celles atteintes par les accélérateurs
de particules actuels.
Pour atteindre les énergies requises par ces théories, il est nécessaire d'utiliser un
accélérateur de particules plus puissant.
Le GLC (Global Linear Collider) est un projet formulé par des physiciens Japonais avec des
collègues issus d'autres nations asiatiques en vue de construire un nouvel accélérateur
leptonique au Japon. Cet accélérateur leptonique serait un complément très utile au LHC.
III.3.a Un nouveau type d'accélérateur linéaire
Traditionnellement, les accélérateurs de particules, qu'ils soient leptoniques ou
hadroniques) sont circulaires. Cela permet d'accélérer les particules pendant de nombreux
tours et donc d'atteindre des énergies élevées grâce à ces accélérations répétées.
Malheureusement, les électrons émettent des radiations lorsqu'ils suivent une trajectoire
courbe et perdent une partie de leur énergie. Plus ils vont vite, plus l'énergie perdue est
grande, jusqu'à un point où ils perdent autant d'énergie en un tour qu'ils n'en gagnent. Pour
aller au-delà de cette énergie, il faut utiliser un accélérateur linéaire.
Cependant, dans un accélérateur linéaire, les électrons ne passent qu'une seule fois dans
chaque structure accélératrice, l'accélérateur doit donc avoir un nombre de structures
suffisantes pour atteindre les énergies voulues. Pour atteindre les énergies requises par les
nouvelles théories, il faut un accélérateur ayant une longueur d'environ 25-30km.
[Figure 36] Schéma de collision au sein d’un accélérateur linéraire
http://fr.lc.delerue.org/
Construire un nouvel accélérateur de cette sorte n'est pas facile et nécessite de nombreuses
études avant même de pouvoir commencer la construction.
65
III.3.b A quoi cela va-t-il servir?
Il n'est pas possible de démarrer un projet d'un tel coût sans se demander comment il
va affecter notre vie quotidienne. Si les avancées attendues dans le domaine de la physique
des particules sont clairement identifiées, les retombées de ces découvertes pour le grand
public sont beaucoup plus difficiles à évaluer. Cependant, il est possible de regarder en
arrière.
Lorsque J.J.Thompson découvrit l'électron en 1897 personne ne suspectait les implications
que cette découverte allait avoir sur notre vie quotidienne. Pourtant les faisceaux d'électrons
sont indispensables au fonctionnement des télévisions cathodiques.
Les accélérateurs de particules sont aussi utilisés pour traiter certains cas de cancer ou pour
produire des rayons X très puissants permettant de voir au coeur des matériaux. Lors de la
construction d'un Airbus, par exemple, certaines pièces importantes sont exposées aux
rayonnements produits par un accélérateur de particules pour s'assurer qu'elles ne
présentent aucun défaut.
Enfin, c'est au CERN, l'un des plus grands accélérateurs de particules du monde, qu'a été
mis au point le web, pour répondre aux besoins des physiciens des particules.
Si nous ne savons pas encore exactement quelles seront les retombées pour le grand public
du futur accélérateur linéaire, il est difficile de douter qu'elles seront nombreuses.
Le projet GLC implique déjà des centaines de physiciens dans le monde et une douzaine
d'années seront nécessaires avant sa réalisation, cependant une fois ce travail titanesque
achevé, les physiciens des particules espèrent pouvoir répondre à de nombreuses questions
laissées en suspend par le Modèle Standard.
66
67
Conclusion
Bien que la majeure partie de la communauté scientifique approuve la théorie
du Big Bang et l’avance afin d’expliquer la création de l’Univers, il est avéré que de
nombreux points des cette théorie demeurent obscurs. Dans le but de percer ces
mystères, les physiciens ont développé les accélérateurs de particules, qui
permettent d’explorer des plages d’énergie de plus en plus larges.
La physique des particules est donc un domaine en perpétuelle évolution. La
mise en évidence expérimentale de certaines particules, dont on soupçonne
l’existence, pourrait permettre aux scientifiques de franchir une nouvelle étape dans
la compréhension de la création de l’Univers, mais pourrait sérieusement remettre en
cause toute la théorie actuelle du Big Bang.
Récemment, des scientifiques américains ont collecté de nouvelles données
recueillies grâce au satellite WMAP (Wilkinson Microwave Anisotropy Probe). Celui-ci
a permis de cartographier la chaleur dégagée lors de l’explosion initiale qui semblent
confirmer l’existence d’un Big Bang, dont les résultats ont récemment été publiés, le
21 mars 2006.
Ainsi, on constate bien que les perspectives d’avancées dans ce domaine
sont encore grandes, car les données recueillies par astrophysiciens aussi bien que
par les spécialistes en physique des particules tentent d’expliquer l’origine de notre
Univers.
68
69
Références bibliographiques
Ouvrages :
[1] CROZON M. – L’univers des particules – Paris : Seuil, 1999, 256p.
[2] CROZON M. & VANUCCI F. – Les particules élémentaires – Paris : 1993, 128p.
[3] ZITOUN R. – La physique des particules – Paris : Nathan, 1998, 128p.
[4] BOGDANOV I. & G. – Avant le Big Bang – Paris : Grasset, 2004, 394p.
[5] REEVES H. – La première seconde, Dernières nouvelles du cosmos – Paris :
Seuil, 1995, 258p
[6] Les particules élémentaires – Paris : Pour la Science, 1986, 218p.
Sites Internet :
[7] Wikipédia (consulté le 20/10/2005),
http://fr.wikipedia.org/wiki/Acc%C3%A9l%C3%A9rateur_de_particules
[8] Site du CERN (consulté le 20/11/2005),
http://public.web.cern.ch/public/Welcome-fr.html
[9] Wikipédia (consulté le 20/11/2005),
http://fr.wikipedia.org/wiki/CERN
[10] Wikipédia (consulté le 20/11/2005)
http://fr.wikipedia.org/wiki/Big_bang#L.27instant_du_Big Bang
[11] Site réalisé par Cyberic WOLLBRETT (consulté le 03/12/2005)
http://molaire1.club.fr/bigbang2.html
[12] Site réalisé par Sébastien Guéret (consulté le 04/12/2005)
http://www.astrofiles.net/article31.html
[13] Site réalisé par Nicolas Delerue (consulté le 22/11/2005)
http://fr.lc.delerue.org
[14] futura-sciences.com (consulté le 13/12/2005)
http://www.futura-sciences.com/comprendre/d/dossier516-1.php
[15] http://hyperphysics.phy-astr.gsu.edu/hbase/particles/expar.html
[16] Site du SLAC (consulté le 20/12/2005)
http://www2.slac.stanford.edu/vvc/theory/feynman.html
[17] Site de l’in2p3 (consulté le 20/12/2005)
http://voyage.in2p3.fr/standard.html
70
71
Annexe 1
Les particules élémentaires, et leur superparticule associée
http://www.diffusion.ens.fr/vip/pageI01.html
72
Annexe 2a
Table des baryons
Nom
Symbole
Constitution en
quarks
Charge*
Proton
p
up, up, down
1
Neutron
n
down, down, up
0
Lambda
Λ +c
up, down, charmed
1
Lambda
Λ0
up, down, strange
0
Sigma
Σ+
up, up, strange
1
Sigma
Σ-
down, down,
strange
-1
Sigma
Σ0
up, down, strange
0
Delta
Δ++
up, up, up
2
Delta
Δ+
up, up, down
1
Delta
Δ-
down, down, down
-1
Delta
Δ0
up, down, down
0
Xi Cascade
Ξ-
down, strange,
strange
-1
Xi Cascade
Ξ0
up, strange, strange
0
Omega
Ω-
strange, strange,
strange
-1
* (en fraction de charge élémentaire)
http://hyperphysics.phy-astr.gsu.edu/hbase/particles/baryon.html
73
Annexe 2b
Table des mésons
Nom
Symbole
Constitution en
quarks
Charge*
Pion
π+
π-
up, anti-down
1
down, anti-up
-1
Pion
π0
up,anti-up ou
down-anti down
0
Kaon
K+
up, anti-strange
1
Kaon
K-
strange, anti-up
-1
Kaon
K0
down, anti-strange
ou strangeantidown
0
Eta
η0
η'0
η»0
ρ+
up, antiup
0
down, antidown
0
strange, antistrange
0
up, antidown
1
down, antiup
-1
up-antiup ou
down-antidown
0
up-antiup ou
down-antidown
0
strange, antistrange
0
Pion
Eta
Eta
Rho
Rho
Rho
Omega
Phi
ρρ0
ω0
φ
* (en fraction de charge élémentaire)
A noter que des mésons peuvent être constitués des mêmes quarks, comme c'est le cas par
+
+
exemple du π et du ρ qui diffèrent cependant par leur nombre de spin, et leur masse.
http://hyperphysics.phy-astr.gsu.edu/hbase/particles/meson.html
74
Annexe 3
Ce graphique montre la progression régulière des énergies atteintes par l'accélération des
particules depuis les années 1930 (date de construction des premiers accélérateurs). Il faut,
de plus, noter que l'échelle est logarithmique. Des innovations successives ont alimenté ce
progrès, mais un certain ralentissement semble aujourd'hui se manifester.
[1] L’univers des particules, Michel Crozon
75
Annexe 4
Expansion de l’Univers de sa création à nos jours
http://molaire1.club.fr/bigbang.html
76
Téléchargement
Random flashcards
amour

4 Cartes mariam kasouh

aaaaaaaaaaaaaaaa

4 Cartes Beniani Ilyes

TEST

2 Cartes Enrico Valle

relation publique

2 Cartes djouad hanane

Créer des cartes mémoire