Quand l`Univers... ...fait boum - IPPOG

publicité
ÉLÉMENTAÍRE
De l’infiniment petit à l’infiniment grand
Numéro 7
Revue d’information scientifique
Solstice d’été 2009
Quand l’Univers...
...fait boum !
ÉLÉMENTAÍRE
De l’infiniment petit à l’infiniment grand
Pour ce septième numéro, nous quittons cette bonne
vieille planète Terre pour nous embarquer dans un voyage
à travers l’espace et le temps. En effet, Élémentaire se penche aujourd’hui sur... notre Univers tout entier, son histoire et ses grandes caractéristiques. C’est l’objet d’une vaste
discipline, appelée cosmologie, qui est parvenue au cours
des dernières années – et ce n’est pas un petit succès – à
élaborer une vision cohérente de ces sujets, vision que
vous allez découvrir au fil de ces pages, en commençant
par notre « Apéritif » !
Ainsi que nous vous le rappelons dans « Histoire », cette
volonté d’expliquer le cosmos, l’ordre céleste qui nous
entoure, est profondément enracinée dans la nature humaine. Mais ce n’est qu’avec l’avènement d’une astronomie de précision et de la théorie de la relativité générale
que la cosmologie moderne prend son envol au début du
vingtième siècle. Elle a ensuite bénéficié des avancées de
la physique des constituants élémentaires de la matière
pour donner naissance à son propre modèle standard, que
nous décrivons dans « Théorie ». Tout commence il y a
environ 14 milliards d’années, avec le « Big Bang », une
période où l’Univers très dense et très chaud connaît une
expansion rapide. À mesure qu’il se refroidit et se dilue,
les premiers noyaux se forment , puis les premiers atomes,
et enfin des nuages de gaz qui seront les berceaux des
premières étoiles, galaxies, amas de galaxies.. pour finalement aboutir à l’Univers que nous connaissons. Mais si
ce modèle décrit de façon satisfaisante les observations
accumulées au fil des décennies, il possède aussi sa part
d’ombre. En particulier sa composition énergétique comprendrait environ 23% d’une matière sombre, assez mystérieuse et 72% d’une déroutante « énergie noire », que
nous examinons en détail dans la « Question Qui Tue ».
Fort heureusement, pour nous aider dans cette quête
de notre passé lointain, il existe un témoin privilégié de
l’Univers primordial. En effet, nous sommes en mesure de
détecter un rayonnement fossile, remontant à 380 000 ans
après le Big Bang. Si ce dernier (ou CMB) a été observé
dans les années 1960, comme nous vous le rappelons
dans « Découverte », il est loin d’avoir livré tous ses se-
crets, et il continue à fournir des informations précieuses
sur la structure de l’Univers primordial. Ainsi, la mission
Planck, lancée le 14 mai 2009 et décrite dans « Expérience
», va s’intéresser à des aspects encore méconnus du rayonnement fossile qu’elle captera grâce à des appareils d’une
grande sensibilité, les bolomètres, que nous décrivons dans
« Détection ». On pourra ainsi tracer des cartes du ciel très
précises décrivant les caractéristiques de ce rayonnement.
Pour tirer de ces cartes des informations supplémentaires
concernant les caractéristiques de l’Univers primordial, il
faut le plus souvent passer par des méthodes inspirées de
la transformation de Fourier, un outil mathématique présenté dans « Analyse ». À l’heure où la mission Planck
vient d’être envoyée dans l’espace, nous avons demandé
à Jean-Loup Puget, l’un des chefs d’orchestre de ce projet,
de nous parler dans l’ « Interview » de ce travail de longue
haleine, rassemblant des communautés très différentes de
physiciens et d’ingénieurs.
Nous aborderons aussi d’autres aspects de la cosmologie
au fil de ce numéro. « Icpackoi » reviendra sur l’actualité
de deux autres satellites d’observation, Fermi et Pamela,
tandis que « Centre » évoquera les différents sites où l’on
cherche actuellement à détecter des signaux d’un type
nouveau : les ondes gravitationnelles. Enfin, vous retrouverez les deux rubriques récurrentes d’Élémentaire : « LHC »
vous parlera du démarrage mouvementé de la machine en
septembre 2008, tandis qu’ « Énergie nucléaire » évoquera
le projet ITER dont l’objectif, à terme, est la production
d’énergie par fusion thermonucléaire.
Du haut de ce numéro, 14 milliards d’années nous contemplent ! De quoi vous laisser le temps de savourer votre
lecture, d’ici à la parution de notre prochain (et dernier)
numéro. Il sera à nouveau consacré à la physique des particules, et plus particulièrement, aux phénomènes (attendus, espérés, supposés...) au-delà de notre vision actuelle
de la physique des particules. D’ici là, bonne lecture !
Revue d’information paraissant deux fois par an, publiée par : Élémentaire, LAL, Bât. 200, BP 34, 91898 Orsay Cedex
Tél. : 01 64 46 85 22 - Fax : 01 69 07 15 26. Directeur de la publication : Sébastien Descotes-Genon
Rédaction : N. Arnaud, M.-A. Bizouard, S. Descotes-Genon, L. Iconomidou-Fayard, H. Kérec, G. Le Meur, P. Roudeau, J.-A. Scarpaci, M.H. Schune, J. Serreau, A. Stocchi.
Illustrations graphiques : S. Castelli, B. Mazoyer, J. Serreau. Maquette : H. Kérec.
Ont participé à ce numéro : J.-L. Bobin, S. Digel (SLAC).
Remerciements : S. Plaszczynski, F. Cavalier (LAL) et nos nombreux relecteurs.`
Site internet : C. Bourge, N. Lhermitte-Guillemet, http://elementaire.web.lal.in2p3.fr/
Prix de l’abonnement : 3 euros pour le numéro 8 (par site internet ou par courrier)
Imprimeur : Imprimerie Louis Jean - 05300 Gap . Numéro ISSN : 1774-4563
Apéritif p. 4
L’archéologie cosmique :
reconstruire l’histoire de
notre univers
ÉLÉMENTAÍRE
Histoire p. 9
De l’infiniment petit à l’infiniment grand
Accélérateurs p. 47
Un sujet très sérieux :
les accélérateurs co(s)miques
Petite histoire de la cosmologie
Découvertes
p. 53
Le rayonnement fossile
Interview p. 14
Jean-Loup Puget
Théorie
p. 59
Le modèle cosmologique standard
Centre de
recherche p. 19
Observatoires d’ondes gravitationnelles
Expérience p. 29
La mission Planck
Détection p. 34
Bolomètres
La question qui tue p. 77
Combien pèse le vide ?
Énergie nucléaire p. 81
ITER : vers une future source
d’énergie ?
Le LHC p. 67
Démarrage du LHC : le 10 septembre 2008
Retombées p. 37
Le GPS
Analyse p. 42
Transformée de Fourier et
applications au CMB
ICPACKOI
p. 71
GLAST : une nouvelle « star »
dans le ciel
PAMELA : alerte aux positrons !
Abonnement : faites votre demande d’abonnement sur le
serveur : http://elementaire.web.lal.in2p3.fr/ ou à l’adresse : Groupe
Élémentaire LAL, Bât 200, BP 34, 91898 Orsay cedex. Numéro 8 (port
inclus) : 3 euros, chèque libellé à l’ordre de «AGENT COMPTABLE
SECONDAIRE DU CNRS». Pour les administrations les bons de
commande sont bienvenus.
Contact : [email protected]
Apéritif
L’archéologie cosmique : reconstruire
Le modèle standard de la cosmologie
La cosmologie est la science qui étudie l’Univers dans son ensemble.
Tels des archéologues cosmiques, les cosmologues tentent de retracer
son histoire à partir de ce qu’ils peuvent en observer aujourd’hui. Si l’être
humain s’est toujours interrogé sur l’origine et l’histoire de l’Univers, l’ère de
la cosmologie moderne, c’est-à-dire de la cosmologie quantitative, basée
sur des observations et des mesures précises, a commencé seulement au
cours du siècle dernier, dans les Années Folles.
À grande échelle
En astronomie, il existe plusieurs unités pour exprimer les
distances des objets observés, qui sont adaptées à l’ordre
de grandeur de cette distance. Par exemple, pour les
planètes du système solaire, on emploie comme unité le
km. Ainsi Pluton, l’ex-planète la plus éloignée du Soleil est
à 9,5 milliards de kilomètres (km). Pour une étoile de notre
Galaxie, on utilise plutôt l’année-lumière qui est la distance
que parcourt la lumière dans le vide pendant un an, soit 9 460
milliards de km. Le diamètre de notre Galaxie est d’environ
100 000 années-lumière. Au-delà des échelles galactiques,
il est d’usage d’employer une autre unité : le parsec, qui est
la distance à laquelle on observe la distance Terre-Soleil
sous un angle d’une seconde d’arc, c’est-à-dire 3,26 annéeslumière. Ainsi le Groupe Local, qui forme un ensemble de 30
galaxies les plus proches de nous, a un diamètre de 3 millions
de parsec. Au-delà de la centaine de millions de parsec, on
parle de distance à grande échelle ou d’échelle cosmologique.
Il s’agit donc de distances largement supérieures à celles
entre galaxies. On est capable d’observer des objets à de
telles distances cosmologiques. Par exemple la galaxie la plus
éloignée jamais observée est à environ 4 milliards de parsecs
de nous.
1 année-lumière = 9460 milliards de km.
1 parsec = 3,26 années-lumière = 30 800 milliards de km.
page 4
Ex-planète
Selon la dernière définition de l’Union Astronomique
Internationale (août 2006), une planète est un corps céleste
qui est en orbite autour du Soleil, qui possède une masse
suffisante pour que sa gravité l’emporte sur les forces de
cohésion de corps solide pour lui donner une forme presque
sphérique, et qui a éliminé tout corps se déplaçant sur une
orbite proche. Cette définition implique que le système
solaire possède actuellement huit planètes : Mercure, Vénus,
la Terre, Mars, Jupiter, Saturne, Uranus et Neptune.
Cette nouvelle définition a nécessité dix jours de discussion
entre 400 scientifiques de l’UAI. En effet, certains
rechignaient à faire perdre à Pluton son statut de planète.
En lot de consolation, l’UAI a créé une nouvelle classe
d’objets, les planètes naines, trop petites pour avoir « fait
le ménage » sur leur orbite. Les premiers membres de ce
club sont l’ancienne planète Pluton et les anciens astéroïdes
Cérès et Éris.
Deux évènements marquent son avènement. En 1929, Edwin
Hubble et Milton Humason découvrent la loi de l’expansion
universelle : toutes les galaxies s’éloignent de nous avec une
vitesse proportionnelle à leur distance. Le principe cosmologique,
socle de la cosmologie moderne hérité des astronomes du passé
comme Giordano Bruno ou Galilée, suppose que notre position
dans l’Univers n’a rien de particulier : nous sommes situés, non
pas au centre de l’Univers, mais plutôt en un point comme
n’importe quel autre. On doit donc en conclure que les galaxies
s’éloignent, non pas de « nous », mais les unes des autres,
remettant en question l’idée séculaire d’un Univers statique.
Quelques années auparavant, au début des années 1920, certains
théoriciens, comme Georges Lemaître ou Alexander Friedmann,
avaient, eux aussi, fait une découverte importante. À partir de la
toute nouvelle théorie de la relativité générale d’Albert Einstein,
ils avaient déduit des lois régissant la dynamique de l’Univers
dans son ensemble et montré que les solutions génériques des
équations correspondaient, non pas à un Univers statique, mais
à un Univers en expansion ! Cette vision, corroborée par la
théorie et l’observation, marque la naissance de la cosmologie
moderne.
La progression des observations cosmologiques, permettant des
mesures de plus en plus précises concernant l’Univers à grande
échelle, et le développement conjoint des idées théoriques
ont donné lieu à une description cohérente de l’histoire de
notre Univers remontant de nos jours jusqu’à environ 13,7
milliards d’années dans le passé : c’est le « modèle standard »
de la cosmologie. Celui-ci inclut le modèle connu sous le nom
de « Big Bang », mais aussi une phase d’expansion accélérée
durant les tous premiers instants de l’Univers, appelée « inflation
cosmique ». Il repose sur le principe cosmologique ainsi que
sur certaines hypothèses de base comme, par exemple, celle
d’homogénéité et d’isotropie à grande échelle. Les propriétés
globales de l’Univers sont caractérisées par un certain nombre
de paramètres, comme son contenu énergétique, la quantité
relative de matière et d’antimatière, l’époque de formation des
ÉLÉMENTAÍRE
l’histoire de notre univers
13,7 milliards d’années
Ce chiffre, souvent appelé, par abus de
langage, « âge de l’Univers » est en fait le
temps jusqu’auquel les mesures et la théorie
permettent de remonter. Il correspond à une
époque où l’Univers était si dense que les lois
de la physique que nous avons découvertes
au cours de notre histoire ne constituent plus
une description cohérente. En particulier si
on remonte plus avant le temps, on se heurte
à la « barrière de Planck », échelle d’énergie
au-delà de laquelle les effets gravitationnels
et quantiques devraient être d’importance
comparable et où une théorie quantique de
la gravitation, encore manquante, devient
nécessaire.
premières étoiles, etc. Au total 21 paramètres indépendants permettent
de rendre compte de l’Univers observé à ce jour dans le cadre du modèle
standard de la cosmologie (voir « Théorie »).
La Terre est ronde... mais l’Univers est plat !
La quantité totale d’énergie par unité de volume de l’Univers est directement
reliée à la courbure de l’espace, c’est-à-dire la partie spatiale de l’espacetemps. Selon que cette dernière est positive, négative ou nulle, on parle
d’un univers « fermé », « ouvert », ou « plat ». Pour faire une analogie
entre notre espace tridimensionnel et des objets bidimensionnels, ces trois
cas correspondraient respectivement à un ballon, une chips, ou une table
qui se dilate avec le temps du fait de l’expansion. Si les deux premières
situations sont les plus génériques, le cas d’un univers plat correspond à
une valeur particulière de la densité d’énergie, appelée « densité critique »
et donnée par la formule :
ρc = 3H2c2/8πG ~ 9 x 10 -10 J/m3,
où H est la constante de Hubble, c la vitesse de la lumière dans le vide et
G la constante de Newton. Elle équivaut à la densité énergétique d’un gaz
d’hydrogène contenant environ 6 atomes par m3.
© Hubble
Une caractéristique importante de l’Univers est son contenu énergétique,
qui détermine son évolution. De façon remarquable, il est possible de
déterminer la densité d’énergie totale de l’Univers sans pour autant avoir
une compréhension précise du détail de son contenu. On utilise pour cela
un aspect fondamental de la théorie de la relativité générale : la présence
d’énergie déforme l’espace-temps. C’est cette déformation, appelée
« courbure », qui est responsable de la force de gravitation dont nous
observons les effets dans l’Univers tout entier.
Pendant longtemps, il fut difficile de déterminer expérimentalement à quel
cas correspond notre univers, étant donné qu’il est nécessaire d’observer
des objets extrêmement lointains pour mettre en évidence une courbure
(comme il est difficile pour une fourmi à la surface de la Terre de se rendre
compte qu’elle est ronde). Un des résultats majeurs des satellites COBE
dans les années 1990, et WMAP 10 ans plus tard, qui mesurèrent avec
précision le rayonnement fossile, mis en évidence en 1965 par Penzias
et Wilson (voir « Découverte »), fut de déterminer que l’Univers est
(spatialement) plat à grande échelle, et donc que la densité totale d’énergie
est égale à la densité critique au pour cent près.
Pluton et ses trois satellites connus :
Charon, Nix et Hydra, vus par le téléscope
spatial Hubble.
Homogénéité et isotropie
L’hypothèse d’un Univers parfaitement
homogène, sans grumeaux, tel une
sauce béchamel réussie n’est sûrement
pas vraie aux échelles galactiques ou
intergalactiques (les galaxies jouant
le rôle de grumeaux), mais s’avère
relativement bonne aux très grandes
échelles (cosmologiques). Il en va de
même pour l’hypothèse d’isotropie qui
stipule qu’il n’existe a priori aucune
direction privilégiée dans l’Univers... à
grande échelle.
ÉLÉMENTAÍRE
page 5
Si l’espace est plat, qu’en est-il de l’espace-temps ? Sa courbure est reflétée
par le taux d’expansion. Pour mesurer ce dernier, la bonne vieille méthode
de Hubble et Humason reste encore la meilleure : on mesure la distance
et la vitesse d’éloignement d’objets aussi lointains (c’est-à-dire anciens)
que possible et on en déduit le taux d’expansion. Facile à dire, pas si
facile à faire, notamment à cause du fait que les mesures de distances sont
difficiles pour des objets lointains. On utilise pour cela des « chandelles
standard », objets astrophysiques dont on connaît la luminosité intrinsèque.
L’archéologie cosmique : reconstruire
Rayonnement fossile
Notre univers est empli d’un rayonnement
électromagnétique vestige de l’époque de
la formation des premiers atomes. Il s’agit
d’un rayonnement thermique à 2,7 K.
En comparant avec la luminosité mesurée, on en déduit la distance.
Diverses campagnes d’observations d’un grand nombre de supernova de
type Ia proches et lointaines, comme le Supernova Cosmology Project
et le High z Supernova Search ont permis de mesurer le taux d’expansion
de l’Univers ainsi que sa variation, c’est-à-dire le taux d’accélération (ou
de décélération) de l’expansion, avec un résultat inattendu : l’expansion
de l’Univers s’accélère ! Ce résultat, confirmé depuis par les mesures de
WMAP, est surprenant. En effet, une des conséquences génériques des
équations de la relativité générale est que l’expansion devrait ralentir car
freinée par la gravitation, du fait de sa nature attractive. Tout se passe donc
comme si la gravité devenait répulsive à grande échelle...
COBE et WMAP
Ces deux expériences ont mesuré les
anisotropies du rayonnement fossile de
photons (ou CMB de son acronyme anglais
pour «cosmic microwave background»)
datant de l’époque où l’Univers avait
environ 380 000 ans (voir « Découverte »).
La cartographie de l’énergie du
rayonnement montre des régions plus ou
moins « chaudes ». La relation entre la
taille réelle (supposée connue) d’une région
chaude/froide et celle observée sur le ciel
dépend directement de la courbure spatiale
de l’Univers. C’est ainsi que WMAP a
montré en 2006 que l’Univers est plat, et
donc que sa densité énergétique est égale
à la densité critique avec une précision de
l’ordre de 1%.
Où l’on s’aperçoit... que l’on ne voit pas
grand-chose
© VLT
Grâce aux observations, nous connaissons une grande partie des objets
qui peuplent l’Univers : planètes, étoiles, galaxies, amas de galaxies,
nébuleuses (gaz et poussière interstellaire), supernovæ (explosions d’étoiles
en fin de vie), rayonnement fossile, trous noirs, étoiles à neutrons, rayons
cosmiques, sursauts gammas, quasars (noyaux actifs de galaxie)... Tous
ces phénomènes ont été vus principalement par des télescopes optiques
(longueur d’onde visible ou dans l’infrarouge) terrestres ou spatiaux, ou
par des antennes (fréquences radio). Parmi les télescopes modernes qui
ont apporté beaucoup de nouvelles connaissances ces dernières années,
on peut citer le satellite Hubble, le plus grand radio-télescope du monde,
Arecibo, situé à Porto Rico, les satellites permettant des observations dans
la gamme des rayons gamma ou X (comme le Compton Gamma-Ray
Observatory et le Chandra X-ray Observatory), ou encore le Very Large
Telescope dans le désert d’Atacama au Chili.
Une image (dans la gamme des rayons
X) des restes de la supernova de Tycho
Brahé, qui explosa en 1572 dans la
constellation de Cassiopée. Il s’agit
d’une supernova de type Ia.
page 6
© VLT
Le Very Large Telescope au Chili.
Supernova de type Ia
Les supernovæ sont de gigantesques explosions d’étoiles en fin de vie lors desquelles
les éléments chimiques qu’elles ont synthétisés sont violemment expulsés dans
l’espace intersidéral. On les classe en différentes catégories selon le contenu chimique
de la matière expulsée. Par exemple, on parle de supernova de type I si de l’hydrogène
est présent, et de type II dans le cas contraire. En l’occurrence, les types Ia recèlent
du silicium. Contrairement à toutes les autres, où l’explosion est due à l’effondrement
gravitationnel du cœur de l’étoile, les supernovæ de type Ia résultent de l’explosion
thermonucléaire d’étoiles appelées naines blanches, suite à l’accrétion de matière
arrachée à une étoile voisine, voire à une collision avec celle-ci. Lorsque la quantité de
matière accrétée dépasse une valeur critique, appelée masse de Chandrasekhar (1,38
fois la masse solaire), l’étoile explose. La luminosité émise dépend essentiellement
de la masse et est donc sensiblement la même pour toutes les supernovæ de type
Ia, indépendamment du mécanisme d’accrétion à l’origine de l’explosion. Cette
particularité remarquable fait de ces supernovæ des étalons lumineux qui permettent
une mesure fiable de distance à partir de leur luminosité apparente sur Terre (qui
diminue comme le carré de la distance) : on parle de «chandelles standard ».
ÉLÉMENTAÍRE
l’histoire de notre univers
Le Supernova Cosmology Project et le High z Supernova Search
Ce sont deux projets composés d’équipes internationales qui ont utilisé
pendant quelques années les mesures de supernova de type Ia faites par
plusieurs télescopes situés dans les grands observatoires (Chili, Hawaï,
Australie...) de par le monde. Les physiciens travaillant sur ces projets ont
d’abord montré que les supernovæ de type Ia ont la particularité d’avoir
toutes la même luminosité intrinsèque (flux de photons émis). Mesurer
leur luminosité apparente permet alors d’en déduire leur distance.
Ils ont par ailleurs mesuré le redshift des supernovæ. Le redshift, ou
« décalage vers le rouge » dû à l’effet Doppler (voir « Théorie »), permet
de déterminer la vitesse d’éloignement de la supernova. En comparant
la distance et le redshift, ils ont mis en évidence que les supernovæ les
plus distantes sont 20% plus lointaines que ce qu’elles devraient être si
l’expansion de l’Univers était celle attendue pour un Univers empli de
matière « ordinaire » soumise à une gravité « habituelle ».
Luminosité apparente de supernovæ de type
Ia en fonction de leur redshift (décalage
spectral). La partie en rose et bleu en bas
est un zoom de la partie correspondante
en haut. La luminosité apparente des
supernovæ à grand décalage spectral est
inférieure (et sa magnitude, supérieure)
à ce qui est attendu dans le cadre d’un
modèle d’Univers en expansion constante
ou décélérée.
Mais quand on fait les comptes, on s’aperçoit que la quantité de matière
« visible » représente à peine 5 % du contenu énergétique total de l’Univers.
Où est le reste ? Depuis les années 1930, on subodore l’existence d’une
forme de matière massive mais invisible dont on ne détecte que les effets
gravitationnels. Cette « matière noire » permet d’expliquer un phénomène
étrange : les galaxies périphériques, au sein d’amas, tournent plus vite
qu’attendu si on suppose que la masse de l’amas est reflétée par sa seule
luminosité. Il semble donc qu’une partie importante de la masse des amas
de galaxies ne soit pas visible ! Les données les plus récentes concernant
les amas de galaxies ont permis de montrer que cette matière invisible
contribue pour environ 23 % de la densité d’énergie de l’Univers. Mais la
nature de la matière noire reste un mystère. Elle pourrait être composée de
nouvelles particules prédites par certaines extensions du Modèle Standard
de la physique des particules (voir Élémentaire N°6). Si ces particules ne
sont pas trop lourdes, elles pourraient être observées au LHC, où elles
seront activement recherchées.
Trou noir
Un trou noir est un objet massif dont le
champ gravitationnel est si intense qu’il
empêche toute forme de matière ou de
rayonnement de s’en échapper. De tels
objets sont prédits par la relativité générale
et n’émettent pas directement de lumière.
On peut néanmoins, observer leur présence
par leur effet sur des objets avoisinants. Par
exemple, dans certains cas, la matière qui
est happée par un trou noir est fortement
accélérée avant d’être engloutie, ce qui
engendre une émission importante de rayons
X. Ou encore, l’observation des trajectoires
d’étoiles qui passent à proximité du centre
galactique indique qu’il existe, au centre de
notre galaxie, un trou noir super massif, de
quelques millions de masses solaires.
Environ 5 % de matière visible, 23 % de matière noire... il manque encore
quelque chose pour arriver à la densité critique ! Où ? Quoi ? Qui ? Eh
bien il s’agit de l’énergie responsable de l’accélération de l’expansion de
l’Univers, détectée récemment par l’observation des supernovæ lointaines
et du rayonnement fossile. De quoi s’agit-il ? Nul ne le sait à l’heure actuelle.
C’est là une des grandes énigmes scientifiques de ce siècle ! Se pourrait-il
que les lois de la relativité générale ne soient pas valables à grande distance ?
Ou bien existe-t-il une ou des formes de matière ou d’énergie encore
inconnues dont les effets gravitationnels donneraient lieu au phénomène
observé ? À ce stade de l’enquête, les physiciens ne négligent aucune piste.
Faute de mieux, nous avons donné un nom à notre ignorance : on l’appelle
« l’énergie noire ». Tout ce que l’on sait avec certitude à l’heure actuelle est
qu’elle constitue environ 72 % du budget énergétique de l’Univers.
ÉLÉMENTAÍRE
page 7
En résumé, plus de 95% de notre Univers est constitué de matière ou
d’énergie dont on ne connaît pas vraiment l’origine ... excitant non ?
L’archéologie cosmique
Carte d’identité de l’Univers
Âge connu : 13,7 milliards d’années.
© NASA
Évolution : après avoir subi une longue phase d’expansion ralentie, l’Univers
est aujourd’hui en expansion accélérée.
Taille : l’Univers est a priori infini. On peut néanmoins définir la taille de
la partie « visible », c’est-à-dire à ce qui est à l’intérieur de notre horizon.
Celle-ci dépend du contenu en matière et énergie de l’Univers. La distance
de notre horizon est estimée à environ 50 milliards d’années-lumière.
Supernova SN 1994D – en bas à gauche –
dans le disque externe de la galaxie spirale
NGC 4526. On observe que l’intensité
lumineuse émise lors de l’explosion de
cette seule étoile est comparable à celle
de la galaxie entière, qui en contient des
milliards.
Contenu : Tout ce qui a de l’énergie contribue à la gravitation. On peut
classer les différents types de matière qui peuplent notre Univers par leur
comportement gravitationnel global :
• le « rayonnement » : composé de particules sans masse ou presque (photons,
neutrinos), ce type de matière donne lieu à une gravité attractive (souvenezvous, c’est l’énergie, et non la masse, qui est source de gravitation) et donc
tend à décélérer l’expansion. Si cette forme de matière a dominé l’expansion
pendant environ les premières 380 000 années de l’histoire de l’Univers, son
influence gravitationnelle est aujourd’hui complètement négligeable.
• la « matière » : composée d’objets (particules ou autres) massifs, elle donne
aussi lieu à une décélération de l’expansion, moindre cependant que celle
due au rayonnement dans l’Univers primordial. On en distingue deux types :
la matière ordinaire, composée des particules connues (baryons, etc.) et la
matière noire, de nature inconnue à l’heure actuelle.
• l’énergie noire : de nature inconnue, elle donne lieu à une gravité répulsive
et domine actuellement l’expansion de l’Univers.
Horizon
C’est la distance maximale des objets qu’il
est possible d’observer dans l’Univers à
un temps donné. Oublions l’expansion de
l’Univers pour un moment et supposons
que son histoire commence à un temps t=0.
À cause de la vitesse limite de propagation
de tout signal physique (vitesse de la
lumière dans le vide), les seules régions de
l’Univers accessibles à l’observation après,
disons, une année sont situées au plus à
une année-lumière de nous : c’est notre
horizon. Sa taille est proportionnelle au
temps écoulé depuis l’instant initial avec un
facteur de proportionalité égal à la vitesse
de la lumière dans le vide. Pour un univers
en expansion, la relation entre la taille de
l’horizon et le temps écoulé est modifiée du
fait de la dilatation de l’espace. Dans notre
univers, la distance à l’horizon est environ
trois fois plus grande que ce qu’elle eût été
en l’absence d’expansion, soit environ 50
milliards d’années lumière.
Objets les plus éloignés observables : quasars (objets très lumineux qui
semblent être des noyaux actifs de galaxies). Le quasar connu le plus éloigné
est à 13 milliards d’années-lumière.
page 8
Composition de la densité d’énergie
de l’Univers actuel (déterminée
par WMAP) : 4,6 % de matière
baryonique (il s’agit de la matière
visible : étoiles, galaxies, nuages de
gaz et de poussières etc.) ; 23 % de
matière noire et 72 % d’énergie noire.
Bien que dominante dans les premiers
instants de l’Univers, la part du
rayonnement (photons et neutrinos)
est aujourd’hui négligeable.
ÉLÉMENTAÍRE
Histoire
Depuis ses premiers instants l’humanité s’est intéressée à la place de
l’homme et de son environnement dans l’Univers. D’abord à propos de
son lieu de vie proche : jusqu’où les paysages s’étendent ils ? Jusqu’où
un voyageur peut-il aller ? S’il y a une limite, l’explorateur téméraire qui
s’aventurera au-delà risque-t-il de tomber et si oui, où va-t-il atterrir ?
Les astronomes du monde antique suggèrent, dès le VIe siècle avant notre
ère, que la Terre est ronde en remarquant que l’étoile Canopus dans la
constellation de la Carène est observable depuis Alexandrie mais pas
depuis Athènes. Une Terre plate comme une crêpe est alors exclue. Sa
forme sphérique est corroborée plus tard par Aristote au IVe siècle avant
notre ère sur l’argument de l’ombre ronde que la Terre fait sur la Lune
lors des éclipses de cette dernière. Le diamètre de la Terre est ensuite
évalué par Eratosthène. Malgré ces démonstrations, l’image d’une Terre
en forme de disque plat persiste pendant plusieurs siècles : au XVe siècle,
lors des longues années pendant lesquelles Christophe Colomb a cherché
des mécènes pour financer le voyage qui lui permettrait de rejoindre les
Indes en naviguant vers l’ouest, il a dû combattre des récalcitrants encore
adeptes d’une Terre plate et finie, dont il serait impossible de faire le
tour.
DR
Petite histoire de la cosmologie
Après Sirius, Canopus est une des étoiles les plus
brillantes du ciel nocturne. Elle est de couleur
presque blanche et elle fait partie de la constellation
de Carina. Le télescope spatial Hipparcos a pu
évaluer sa distance à 310 années-lumière.
Inclinaison de l’écliptique : comme toutes les planètes de notre système
solaire, la Terre tourne autour du soleil suivant une orbite dont le plan
est appelé écliptique. L’axe de la Terre passant par ses deux pôles n’est pas
perpendiculaire à ce plan mais fait un angle appelé « obliquité » ou inclinaison
de l’écliptique. C’est cette inclinaison qui est responsable de l’existence des
saisons dans toutes les régions tempérées du globe.
ÉLÉMENTAÍRE
page 9
© B. Mazoyer
Ératosthène naît en 276 avant notre ère à Cyrène (aujourd’hui Shahat en Lybie). Philosophe
aux nombreux talents, ses travaux concernent de multiples domaines. Il étudie l’histoire,
l’astronomie, les mathématiques et la géographie dont on lui attribue la paternité du nom.
Ératosthène est le premier à mesurer le diamètre de la Terre en la supposant sphérique.
En comparant les différences d’ombre à Assouan et à Alexandrie le jour du solstice d’été, il
remarque une différence : tandis qu’à Assouan à midi pile, le soleil semblait être à la verticale
au dessus d’un puits, dans lequel il n’y avait aucune ombre, au même moment, l’obélisque de
la ville d’Alexandrie portait encore une ombre sur le sol. Par des calculs de trigonométrie,
Ératosthène démontre que cette ombre s’expliquerait par des rayons solaires faisant un angle
de 7,2 degrés avec l’obélisque. Deux solutions lui apparaissent alors possibles : soit la Terre
est plate et le Soleil suffisamment proche de sorte que ses rayons soient encore divergents
dans notre environnement proche. Soit, le Soleil est très éloigné et ses rayons nous arrivent
parallèles mais alors dans ce cas, la Terre doit être courbée. Bien évidemment convaincu
du talent des architectes d’Alexandrie, il négligea la possibilité que l’obélisque soit planté de
travers. Afin d’évaluer la circonférence correspondante à cette courbure il mesure la distance
entre Assouan et Alexandrie en comptant le temps qu’un chameau met pour la parcourir
(ou alors serait-ce un dromadaire ?). Connaissant cette distance (787,5km) et l’angle de 7,2
degrés, il conclut que la Terre fait environ 40000 km de circonférence (la valeur exacte étant
40075 km à l’équateur!). Résultat remarquable lorsqu’on imagine les incertitudes possibles de
ces mesures. Décidément, la chance était avec lui.
Ératosthène est aussi un astronome passionné et doué. Il établit un catalogue d’environ 680
étoiles et il est le premier à démontrer l’inclinaison du plan de l’écliptique de la Terre et à
mesurer sa valeur qui est actuellement de 23,51 degrés. Il s’intéresse aussi à la chronologie
et tente par exemple de déterminer les dates des principaux événements historiques depuis
la chute de la ville de Troie. En 240 avant notre ère, Ptolémée III pharaon d’Egypte nomme
Ératosthène directeur de la Bibliothèque d’Alexandrie et lui confie le poste de précepteur de
son fils. Il meurt à Alexandrie en l’an 195 avant notre ère.
DR
Claudius Ptolemaeus (90-168) – connu
sous le nom de Ptolémée - est un astronome
mathématicien et géographe grec qui vécut
en Egypte au second siècle de notre ère.
En plus de ses recherches en géographie,
il rédige son œuvre majeure, l’Almageste,
document qui récapitule toutes les
connaissances en astronomie de l’Antiquité,
rassemblées à travers les mondes babylonien
et grec sur plus de huit siècles. C’est dans
ce même livre que Ptolémée propose un
système solaire géocentrique, avec la Terre
immobile au centre de l’Univers. Ce modèle
a prévalu dans le monde occidental et arabe
pendant les quatorze siècles suivants.
Quant à la position de la Terre dans le ciel, nul
doute chez nos ancêtres de l’Antiquité : elle occupe
le centre de l’Univers et les étoiles tournent autour,
puisqu’on les voit défiler au long des saisons.
Cette affirmation s’accorde parfaitement avec une
place privilégiée pour l’Homme : dans nombre de
croyances, l’Univers est le royaume de l’Homme
créé par un Être Supérieur pour le loger. L’Homme
se trouve, par sa création, placé tout naturellement
au centre de ce décor. Cette vision géocentrique
du système solaire décrite par Ptolémée au second
siècle resta valable jusqu’au Moyen-Âge.
DR
Pendant très longtemps, l’astronomie consiste en la mesure de la position
des étoiles dans le ciel, utile à l’organisation de la vie : les calendriers,
la date de certaines fêtes religieuses mobiles (Pâques), l’orientation des
lieux de culte (la Mecque, les églises), les saisons, la mesure précise
du temps etc, nécessitaient une bonne connaissance du ciel nocturne
et de ses variations au cours de l’année. Progressivement, à la fin du
Moyen-Âge, l’intérêt renaissant pour les travaux scientifiques grecs et
arabes incite les Européens à étudier la mécanique céleste pour tenter de
mieux expliquer les observations astronomiques. Depuis l’Antiquité de
nombreux ajouts sont venus compliquer la parfaite beauté du scénario
des orbites circulaires des planètes autour de la Terre. En dépit de ces
efforts, au fil des siècles, le système Ptolémaïque ne correspondait plus
aux observations astronomiques.
Ainsi, en 1543 le Polonais Nicolas Copernic introduit le système
héliocentrique pour expliquer le mouvement observé des planètes. Dans
ce modèle, le Soleil est fixe au centre de l’Univers qu’il éclaire, et toutes
les étoiles tournent autour. Galilée soutient à son tour cette théorie.
DR
L’ensemble des planètes du système solaire
dans le modèle géocentrique proposé par
Ptolémée. L’orbite du soleil est placée entre
celles de Vénus et de Mars.
page 10
Système héliocentrique de Copernic.
Les planètes connues tournent autour
du Soleil.
Nicolas Copernic (1472-1543) est né à Torun en Pologne. Après des études d’art à
l’Académie de Cracovie il est nommé chanoine de Frombork, ville au nord de la Pologne.
Il part ensuite en Italie pour y étudier le droit canonique et la médecine à l’Université
de Bologne. C’est là qu’il suit les cours de Domenico Novara, qui est le premier à mettre
en cause le système géocentrique de Ptolémée. C’est probablement ce qui déclenche ses
réflexions sur le mouvement des planètes. Il observe que la voûte céleste revient au même
endroit au bout de 24 heures, ce qui le conduit à proposer que la Terre tourne autour
d’elle-même. Il avance aussi que la Terre tourne autour du Soleil sur une orbite dont le
tour complet nécessite une année. Même s’il met le Soleil au centre du système, ce qui
contredisait le système de Ptolémée, il préserve l’idée de ce dernier concernant des sphères
sur lesquelles tournent les planètes.
Copernic n’a pas publié son modèle afin d’éviter les poursuites de l’inquisition. Dans son
héritage il demande la publication d’un livre décrivant ses idées juste après sa mort. Il
va jusqu’à dédicacer une version latine de son œuvre destinée au Pape Paul III en lui
réclamant la liberté d’expression.
L’influence de la pensée de Copernic a marqué un changement d’époque. Les érudits se
sont sentis débarrassés du poids des idées reçues de tradition religieuse. Son modèle devint
connu et fit beaucoup d’adeptes. Parmi ces derniers, Galilée, qui sera jugé par l’Inquisition
pour avoir défendu le système héliocentrique. Après des années de jugement Galilée finira
par abjurer, en prononçant à la fin de son procès la fameuse phrase un peu apocryphe
« pourtant elle (ndlr la Terre) tourne ».
ÉLÉMENTAÍRE
Petite histoire de la cosmologie
DR
Avec sa lunette, il découvre en 1609 les lunes de Jupiter qui l’incitent
à penser qu’il peut exister de nombreux systèmes de planètes ou de
soleils accompagnés de satellites qui tournent autour. Il parle alors de
la possibilité de l’existence d’une pluralité de mondes habités, exprimée
pour la première fois quelques années plus tôt par Giordano Bruno.
Durant la même période, Johannes Kepler utilise les observations précises
de Tycho Brahé pour rédiger des lois qui formalisent mathématiquement
le mouvement des astres. L’idée de la trajectoire circulaire parfaite se
trouve mise de côté : les planètes suivent des trajectoires elliptiques. Mais
l’héliocentrisme trouve un adversaire farouche en l’Église catholique qui
met cette théorie à l’index comme remettant en cause la place privilégiée
de l’homme dans l’Univers, dogme central de la Création.
Cathédrale de Fronbork, située au bord de
la mer Baltique où Copernic était nommé
chanoine. Sa tombe y a été identifiée en
2008, grâce à des comparaisons de l’ADN des
ossements avec 2 cheveux retrouvés dans son
livre Calendarium Romanum Magnum.
Johannes Kepler (1571-1630) est un scientifique allemand
célèbre pour avoir établi les trois lois qui régissent le
mouvement des étoiles autour du soleil. En étudiant à
l’Université évangélique de Tübingen, il a connaissance du
système héliocentrique prôné par Nicolas Copernic, opposé
à celui de Ptolémée qui place la Terre au centre de l’Univers.
Convaincu, il essaie d’abord de mettre sur pied un modèle à
mi-chemin entre physique et géométrie, qui tient compte du
nombre des planètes, de leur distance au soleil et de leur vitesse.
Dans son livre Mysterium Cosmographicum, il développe une
théorie suivant laquelle les orbites des six planètes connues à
l’époque sont placées dans les cinq polyèdres réguliers. Les
planètes se meuvent sur des trajectoires imbriquées entre les
deux polyèdres autour du soleil.
Ce livre a fait connaître Kepler aux autres astronomes contemporains, en particulier à
Tycho Brahé qui travaillait à l’époque à Prague. En 1600, Kepler est en danger à cause de
ses convictions religieuses et coperniciennes, et il se réfugie à Prague, invité par Tycho.
Celui-ci lui demande de calculer la trajectoire de Mars pour laquelle il avait observé un
comportement anormal. C’est là que Kepler utilise toutes les données observationnelles de
Brahé et va au-delà de son contrat en découvrant, en 1609, ses deux premières lois régissant
le mouvement des planètes. Sa troisième loi sera annoncée plus tard en 1618, dans un livre
intitulé « L’harmonie des mondes », tentant de réconcilier les observations astronomiques
et les lois mathématiques. Les trois lois sont :
1) les planètes décrivent des trajectoires elliptiques dont le Soleil est l’un des foyers. L’ère
des trajectoires circulaires est alors finie.
2) elles balayent des aires égales pendant des durées de temps égales.
3) le carré de la période de révolution T d’une planète est proportionnel au cube du demi
grand axe de sa trajectoire elliptique.
Ce sont ces trois lois qui ont inspiré Newton pour étudier la force que le Soleil exerce sur les
planètes et pour proposer sa loi sur la gravitation.
Kepler a par ailleurs produit d’important travaux sur l’optique, les miroirs et le
fonctionnement de l’œil humain. D’autre part, il publie une étude sur l’explosion d’une
supernova en 1604. En géométrie, il énonce une conjecture concernant l’empilement
optimal des sphères, dont la démonstration faite par l’américain Thomas Hales en 2003
n’est pas encore acceptée par tous les experts. Vivant en des temps fortement troublés,
il consacre six années de sa vie à défendre sa mère accusée de sorcellerie et réussit à
l’innocenter.
DR
Schéma de la trajectoire
elliptique d’une planète avec le
Soleil en un de ses foyers. Ce
dessin n’est pas à l’échelle car le
foyer de l’ellipse est en pratique
très proche du centre. Pour la
Terre, le foyer ne s’en écarte
que de moins de 2% du rayon
orbital.
page 11
ÉLÉMENTAÍRE
La seconde loi de Kepler
implique qu’une planète se
mouvant sur cette trajectoire
balaie les trois aires bleues, de
même surface, pendant des
temps égaux.
Petite histoire de la cosmologie
Les aberrations des étoiles
Par ce mot on caractérise le déplacement
apparent d’une étoile sur la sphère
céleste vue par un observateur sur Terre.
Au XVIIIe siècle, les astronomes ne
comprennent pas le mouvement elliptique
similaire pour des groupes d’étoiles
proches dans le ciel pour l’observateur. En
1727, le britannique James Bradley trouve
la solution de ce comportement curieux.
Il explique le phénomène comme étant
dû au mouvement de la Terre - et donc de
l’observateur- autour du Soleil.
Pour mesurer la direction d’une
étoile il faut déterminer le passage des
rayons lumineux en deux points d’un
instrument d’optique. Or la lumière met
un certain temps pour passer d’un point
à l’autre pendant lequel le second point
s’est déplacé à cause du mouvement de
l’observateur. L’étoile est alors observée
selon une direction apparente qui diffère
de la direction réelle par un angle d ’ordre
v/c où v et c sont les vitesses respectives
de l’observateur et de la lumière.
Pour le mouvement annuel de la Terre
sur son orbite, v est de l’ordre de 30 km/
s ce qui donne une variation angulaire
de 20,5’’ d’arc. Cette valeur dépend des
directions respectives de l’étoile et du
mouvement de l’observateur. Si elles sont
alignées, il n’y a pas de décalage.
page 12
Au XVIIe siècle Newton identifie la force de gravité comme étant à l’origine
du mouvement des astres et donne une première preuve mathématique de
la position centrale du soleil. Les aberrations des étoiles mesurées au XVIIIe,
démontreront définitivement que c’est la Terre qui tourne autour de son
étoile.
Avec le raffinement des techniques d’observations astronomiques et la mesure
des distances d’étoiles lointaines, c’est à partir du XVIIIe siècle que le système
solaire apparaît comme un bout infime d’une galaxie — la Voie Lactée —
qui pourrait contenir des millions de systèmes semblables. L’héliocentrisme
tombe alors définitivement dans les oubliettes. On commence à réfléchir
aux mécanismes qui pouvaient avoir donné naissance à toute la richesse
de l’Univers. La cosmologie tend à devenir purement scientifique, en se
détachant progressivement des influences des cosmogonies religieuses et en
cherchant des explications rigoureuses, plutôt mathématiques et physiques
que métaphysiques.
La période la plus fertile pour la cosmologie commence avec le vingtième
siècle où la relativité générale d’Einstein sonne le début d’une ère nouvelle. Ce
sont les étapes les plus déterminantes de cette période que nous allons relater
dans les rubriques de ce numéro.
Giordano Bruno (1548-1600) est un philosophe et théologien
italien.
Il entre dans les ordres dominicains au couvent de San
Domenico Maggiore à Naples, où il est très remarqué parce
qu’il mène une vie en parfait accord avec ses convictions
humanistes. Après une thèse sur la pensée de Thomas
d’Aquin, il penche fortement pour la métaphysique et
s’éloigne des usages ecclésiastiques : il enlève les images
saintes de sa cellule et il réfute le dogme de la Trinité ce qui lui
vaut rapidement les foudres des dominicains. Il abandonne
les ordres et il étudie le droit, le latin et la philosophie. Il fuit
l’Italie et il vit en France, en Angleterre puis à Genève où
il intègre la communauté luthérienne. Partout où il passe il
impressionne par son esprit brillant tout en se faisant rejeter
par les églises officielles : en 1588, il est excommunié par
l’Église luthérienne.
Statue de Giordano
Il rentre alors en Italie et il s’intéresse aux idées de Copernic. Il
Bruno sur la place
Campo dei Fiori à démontre la place centrale du Soleil autour duquel les planètes
Rome, lieu de son se meuvent. Il soutient l’existence de myriades de systèmes
semblables au nôtre, tournant autour des étoiles qui brillent
supplice.
dans le ciel, et habités par des êtres de Dieu. Il s’intéresse à
d’autres sujets, comme la mnémotechnique, la magie et la métempsychose. Ces activités,
considérées comme blasphématoires, lui valent d’être dénoncé et livré à l’inquisition
en 1592. Il est alors transféré à Rome dans les prisons du Vatican. Son procès durera
8 années au long desquelles il est tenté de se rétracter à plusieurs reprises, sans jamais
finalement renoncer à ses convictions. Il est finalement condamné et il sera brûlé vif le
17 février 1600 sur le bûcher installé à la place Campo dei Fiori à Rome.
ÉLÉMENTAÍRE
Petite histoire de la cosmologie
DR
Selon le chapitre de la Genèse dans la Bible, le monde aurait été créé en 6 jours par la volonté
d’un être divin unique. Ce Dieu, en malaxant de la terre glaise et en lui insufflant la vie a donné
naissance à Adam, le premier homme, l’être le plus parfait de toute la Création. La Genèse décrit
alors la descendance d’Adam et de sa femme Ève, jusqu’à l’époque du règne du roi Salomon.
Toutes les générations y sont citées. Ainsi, pour les Juifs croyants, nous sommes actuellement en
l’an 5769 de la Création.
Les monothéistes ont préservé la notion de création pendant plusieurs siècles et l’ont défendue
souvent avec acharnement. Au cours des dernières décennies, l’argumentation et les preuves
scientifiques du modèle cosmologique standard ont été acceptées par de nombreux croyants qui
voient dans l’idée du Big Bang le doigt d’un Être Suprême. Quelques courants extrêmes comme les
« créationnistes » ou –plus récemment – les partisans du « dessein intelligent » persévèrent dans
les croyances d’un Univers mû par une force divine et refusent l’évolution des espèces vivantes.
Uluru (connu aussi sous le nom d’Ayer’s
rock) est une formation en grès au centre de
l’Australie et constitue un des lieux de culte
importants des aborigènes. Le monolithe
est aujourd’hui classé au Patrimoine
Mondial de l’Unesco.
page 13
ÉLÉMENTAÍRE
L’arbre cosmique nommé Yggdrasil,
assurant l’existence des mondes selon la
mythologie scandinave.
À gauche : le symbole bien connu de Yin et
Yang, représente les deux forces sous forme
de vagues. À droite : symbole de l’empire
du Milieu. Le carré représente la Terre que
la Chine -l’épée- traverse en son milieu.
Les aborigènes d’Australie croyaient à un monde créé par des êtres surnaturels (le Serpent Arcen-Ciel ou des hommes éclairs) ayant vécu lors du « Temps du rêve » (appelé « tjukurpa »).
Suivant cette croyance, le passé et le présent s’entremêlent dans des lieux particuliers, tels le
monolithe Uluru au centre de l’Australie, lieu sacré né du jeu de deux enfants mythiques. La
cosmogonie australienne croit en la prédominance de la pensée qui a généré tout ce qui se
trouve sur Terre, formant un tout et ne pouvant pas être séparé ou distribué. C’est la raison pour
laquelle les aborigènes refusent le concept de propriété sur les terres et sur les animaux.
Dans la cosmogonie chinoise, l’univers est contrôlé par deux forces qui ont suivi le souffle
initial, le Yin et le Yang. L’importance relative de ces forces antagonistes varie avec le temps.
Le Yin et le Yang sont souvent représentés comme la dualité de toute chose. On attribue au Yin
des caractéristiques féminines tandis que le Yang constitue plutôt le côté masculin de la réalité.
Suivant les croyances chinoises le Ciel était associé à un cercle et la Terre est carrée. La Chine se
trouve alors au centre de ce carré, d’où l’appellation d’empire du Milieu.
© VLT
Selon les époques et les lieux, dans la plupart des croyances à travers les siècles, l’Univers et
l’Homme sont créés par l’action d’êtres, d’animaux ou d’esprits. Quelques exemples : les Titans
(chez les Grecs), des hommes-animaux (en Egypte), des plantes sacrées (pour les mythologies
nordique et philippine), le rêve (chez les aborigènes d’Australie) et Dieu, Yahvé ou Allah dans les
religions monothéistes. Dans de nombreux récits, on retrouve les mêmes étapes : le Monde naît
à partir du néant, il est suivi de l’apparition du temps, de la lumière de l’espace et de la matière.
La Terre est créée avec le feu, l’eau, et l’air pour remplacer le chaos primordial. La vie apparaît et
l’Homme vient à la fin, comme œuvre ultime de la création. Suivant l’endroit et la culture, cette
cosmogonie (en grec la naissance du monde) peut être précédée de luttes fratricides entre les
êtres primordiaux. Il arrive aussi que le sort de l’Univers soit cyclique, lié à l’état d’éveil d’un être
sacré : l’hindouisme raconte que, lorsque Brahma s’éveille, le monde se forme pour se détruire
quand il se rendort, ce qui, heureusement, n’arrive pas très souvent !
Souvent, des événements cataclysmiques viennent interrompre la vie sur Terre qui ne reprend que
grâce à quelques survivants, comme dans la mythologie gréco-romaine et l’Ancien Testament.
Les mythologies maya et aztèque reprennent cette idée : leurs dieux détruisent régulièrement le
monde et recommencent la création à partir de zéro.
Interview
Jean-Loup Puget
Qu’est-ce qui vous a amené à faire de la recherche ?
© Élémentaire
Je venais d’un lycée technique et après le baccalauréat, j’avais l’objectif
de rejoindre une école d’ingénieur. En discutant autour de moi, j’ai
commencé à avoir une petite idée du monde de la recherche, et je me suis
dit que finalement, ça me plairait assez d’en faire... Après les concours,
j’avais le choix entre l’École des Mines et l’École Normale Supérieure de
Cachan. C’est à ce moment que j’ai eu envie de faire de la recherche !
À l’ENS Cachan, il a fallu se décider entre maths et physique... et j’ai
opté pour la physique (j’étais plus physicien que matheux !), avec
l’objectif de faire de la physique théorique. Je me suis toujours intéressé
à l’astrophysique, à titre personnel. Le déclic pour m’orienter vers la
cosmologie a eu lieu en 1969, pendant que je suivais le DEA de physique
théorique à Paris. J’ai assisté à un séminaire donné par Roland Omnès au
Laboratoire de l’Accélérateur Linéaire à Orsay sur un modèle d’univers à
symétrie matière-antimatière. Je me suis dit : ça, c’est vraiment un truc
sur lequel j’aurais envie de travailler.
Jean-Loup Puget, né en 1947, est un ancien
élève de l’École normale supérieure de
Cachan (1966-1970). Après un DEA de
physique théorique en 1969, il fait une
thèse de doctorat sous la direction d’Evry
Schatzman, en réalisant des travaux à
l’Université de Maryland et au Goddard
Space Flight Center de la NASA. Il est
chercheur au CNRS depuis 1973. Il a été
directeur adjoint (1990-1997), puis directeur
de l’Institut d’astrophysique spatiale (IAS)
à Orsay (1998-2005). Il a reçu plusieurs prix
et distinctions dont la médaille d’argent du
CNRS en 1988 et le prix Jean-Ricard de la
Société française de physique en 1989. Il est
membre de l’Académie des Sciences depuis
2002.
Jean-Loup Puget a travaillé sur l’origine
du rayonnement gamma galactique et
extragalactique, la structure du milieu
interstellaire et la formation des étoiles, et
la cosmologie. Il a soutenu le développement
en France de l’astronomie spatiale, en
particulier pour l’étude de la formation
des étoiles et de la physique du milieu
interstellaire. Il a ainsi collaboré à plusieurs
grands projets d’astronomie spatiale
européens, en particulier l’Infrared Space
Observatory (ISO) et le satellite Planck.
J’ai ensuite pu faire un stage à Meudon proposé par Roland Omnès et
Evry Schatzmann sur le même thème : il s’agissait d’étudier la vitesse
d’annihilation de particules à la surface séparant une zone de matière
et une zone d’antimatière, et j’ai obtenu une solution assez jolie du
problème. Schatzmann m’a alors proposé de poursuivre par une thèse
sur le même thème, et j’ai continué à travailler avec Omnès... tant que
ce modèle a pu tenir la route. C’est comme cela que je suis passé de la
physique théorique à la cosmologie. Pour tout le monde, c’est un peu
pareil : on se retrouve orienté vers un sujet sans vraiment savoir où on
met les pieds au début...
Pour vous qu’est ce qu’une particule ?
Est-ce que j’ai une réponse là-dessus ? Pour moi une particule, a priori,
c’est une petite partie de matière... J’ai tendance intuitivement à ne pas
penser aux particules qui transportent les forces. On peut se poser la
question : jusqu’où sont-elles élémentaires ? On sait bien que cette notion
a beaucoup reculé au fil du temps.
La chose qui me frappe en regardant
Modèle d’univers à symétrie matière-antimatière
la physique théorique de loin, en
Lors du Big-Bang, on pense que l’énergie disponible a été convertie en paires formées
tant qu’expérimentateur, c’est la
d’une particule et de son antiparticule associée (par exemple un électron et un
contradiction entre la vision de
positron). La partie observable de notre univers est constituée quasi uniquement de
particules ponctuelles transportant
matière. On peut se demander ce qui est arrivé à l’antimatière issue du Big Bang. À
trois forces fondamentales, et la
une époque, il avait été envisagé que l’Univers se fût organisé en régions contenant
relativité générale qui décrit la gravité
pour les unes de la matière et pour les autres de l’antimatière, séparées par des zones
quasiment vides. Mais ces modèles prédisaient quand même de rares annihilations à
de façon complètement différente. Il
la frontière entre zones de matière et d’antimatière, qui n’ont pas été observées... ce qui
faut résoudre ce problème-là qui est
a conduit à les abandonner. À l’heure actuelle, on pense que divers mécanismes ont
la limite de la description actuelle en
concouru à privilégier la matière vis-à-vis de l’antimatière, de sorte que cette dernière
termes de particules.
page 14
a quasiment disparu.
ÉLÉMENTAÍRE
Jean-Loup Puget
Comment avez-vous abordé la cosmologie ?
Éléments chimiques
Lors du Big Bang, les conditions intenses
de densité et de température ont permis
de produire certains éléments chimiques
légers, en particulier le deutérium, l’hélium
et le lithium. Il s’agit de la nucléosynthèse
primordiale. Les proportions de ces
éléments ont ensuite été modifiées par les
générations d’étoiles qui se sont succédé au
cours de l’histoire de l’Univers, et qui ont
utilisé certains de ces éléments légers pour
en produire des plus lourds. Toutefois,
on peut observer des objets très anciens
(comme les quasars) ou des objets où ces
phénomènes n’ont guère eu lieu (comme
les galaxies naines) pour déterminer la
proportion des éléments légers juste après
la nucléosynthèse primordiale.
En DEA, je suis tombé par hasard sur un polycopié sur le Big Bang,
l’histoire thermique de l’Univers, la nucléosynthèse... J’ai été en
particulier frappé par le fait que des prédictions théoriques ont été faites
dans ce domaine très longtemps à l’avance, sur la base d’arguments
théoriques solides, mais qui allaient bien au-delà de ce qu’on avait
observé à l’époque. Et jusqu’à maintenant, on a pu vérifier beaucoup de
ces prédictions avec une grande précision. C’est en particulier le cas du
rayonnement fossile (voir « Découverte ») : certains éléments chimiques
n’ont pas pu être produits dans les étoiles. Cela doit venir d’une époque
où l’Univers était suffisamment dense et chaud pour produire ces
éléments. Si une telle époque a existé, un témoignage doit rester sous la
forme d’un rayonnement fossile avec des caractéristiques bien précises :
un spectre de type « corps noir », une isotropie presque parfaite, de
légères anisotropies présentant des corrélations particulières. C’est une
série que je trouve très impressionnante. Pour que tout cela marche, il
faut faire des hypothèses assez fortes... et, justement, les expériences
ont progressivement confirmé toutes ces hypothèses, avec les ballonssondes, puis WMAP.
Inflation
Il s’agit d’une période d’expansion
extrêmement rapide (quasi- exponentielle)
qui se serait produite au tout début de
l’histoire connue de l’Univers. Elle permet
d’expliquer certaines caractéristiques de
notre Univers actuel (voir « Théorie »).
Je trouve que c’est une caractéristique extrêmement frappante, dans
la cosmologie physique que l’on pratique depuis ces trente dernières
années. Avec Planck, je sens que je travaille exactement dans cette lignée,
pour confirmer les modèles proposés, en particulier l’inflation. On a pour
l’instant d’excellentes raisons théoriques pour proposer l’inflation, mais
on n’a pas encore trouvé de preuve irréfutable... J’aime travailler sur ce
type de sujets où on doit débroussailler un terrain mal connu et faire les
premières mesures. J’y trouve mieux ma place que sur des aspects plus
théoriques pour lesquels je n’ai pas une approche assez « formelle » !
ÉLÉMENTAÍRE
page 15
En fait, il y en a deux. Ma thèse m’a conduit à m’intéresser aux mesures
du rayonnement gamma effectuées par un satellite, SAS2. J’ai écrit des
articles pour interpréter les résultats de ce satellite. En particulier, en
étudiant l’interaction entre des sources gamma et la matière interstellaire,
on s’est aperçu qu’il y avait en fait beaucoup plus de matière interstellaire
que ce que d’autres types d’observations suggéraient. On a aussi pu
associer certaines sources gamma situées dans le plan de la Galaxie avec
des observations faites dans l’infrarouge. Ce fut le point de départ pour
proposer une expérience embarquée sur un ballon au CNES pour étudier
l’émission infrarouge dans la Voie Lactée. Cette proposition était très
controversée mais le ballon est quand même parti... pour effectivement
observer le rayonnement infrarouge attendu ! Cette expérience a
permis de confirmer cette chaîne de raisonnement, de l’idée théorique
jusqu’au résultat expérimental. On a une intuition au départ et grâce
à une « manip », on observe exactement ce qui est attendu, c’est
philosophiquement important !
© NASA
Quelle est l’expérience qui vous a le plus marqué ?
Le satellite SAS2 (Small Astronomy Satellite) était un satellite de la
NASA consacré à l’astronomie dans
le domaine gamma au dessus de 35
MeV. Lancé en 1972, il fonctionna
un peu moins d’un an, et établit la
première carte détaillée du ciel pour
le rayonnement gamma.
Jean-Loup Puget
Le télescope ISO m’a également marqué. On devait atteindre une certaine
sensibilité pour observer des galaxies qui émettent majoritairement dans
l’infrarouge et déterminer leur nombre en fonction de leur distance. Les
prédictions qu’on faisait sur la sensibilité du satellite étaient souvent basées
sur des estimations où des incertitudes peuvent facilement multiplier ou
diviser le résultat par 10... Et là, on a obtenu précisément la sensibilité
prévue. Cela aussi m’a frappé et m’a convaincu qu’en travaillant bien, on
pouvait fabriquer des expériences avec les spécifications désirées.
© ESA
Sur quoi travaillez vous actuellement ?
ISO
Le télescope spatial ISO (Infrared Space
Observatory) fut lancé par l’Agence Spatiale
Européenne en 1995. Il effectua durant
ses 28 mois d’activités des observations
astronomiques dans les domaines de
l’infrarouge, entre 2 et 200 μm de longueur
d’onde. Il s’intéressa en particulier aux
galaxies infrarouges éloignées et aux nuages
moléculaires interstellaires. Il fournit
notamment des images de la formation
d’étoiles auparavant cachées par des nuages
de poussière.
Planck ! Il y a deux aspects différents de mon travail sur Planck. D’une
part, le management - ce sont près de 400 personnes qui travaillent sur
ce projet. D’autre part, le côté scientifique. Nous avons terminé les tests
cet été en Belgique, avec une mise en situation réelle du satellite : tous
les éléments de Planck ont été rassemblés et testés. En particulier, nous
avons pu vérifier la chaîne cryogénique qui va refroidir les instruments
pour atteindre la précision voulue sur les observations. C’est une chaîne
complexe, avec plusieurs systèmes de refroidissement pour baisser
progressivement la température. et qui doit fonctionner en apesanteur !
Ces tests ont duré deux mois et demi, en particulier parce qu’il faut 40
jours pour atteindre la température de fonctionnement de 100 millikelvins.
On a retrouvé les sensibilités prévues.
Nous avons eu de la chance, car tout à la fin du test, nous avons pu
détecter une fragilité de la chaîne cryogénique, avec une fuite de l’hélium
utilisé pour le refroidissement. De la chance, parce que cette fuite se
serait certainement produite durant le vol du satellite, si nous ne l’avions
pas réparée. Il s’agissait d’un régulateur de pression défectueux, pour
lequel nous avons pu finalement trouver un remplaçant. Normalement,
le temps d’attente est de huit mois, mais nous avons pu en récupérer deux
auprès d’un programme de l’ESA (l’agence spatiale européenne) qui avait
en stock quatre régulateurs de rechange pour son satellite.
Maintenant, ces tests sont finis, et nous travaillons surtout sur le traitement
des données – nous avons lancé une grosse simulation qui représente un
an de données, pour tester la qualité de notre analyse des observations
de Planck. [ndlr : cette interview a été réalisée avant le lancement du
satellite Planck.]
© ESA
Quel va être, selon vous, l’avenir de votre discipline ?
page 16
Planck se dirigeant vers le second point
Lagrange du système Soleil-Terre, ou
point L2, où il se mettra en orbite et
commencera à faire des mesures du
rayonnement fossile.
Le projet Planck a été conçu pour mesurer les anisotropies de température
du rayonnement fossile. Il constituera probablement l’expérience ultime
sur cette question, tout comme le satellite COBE a effectué les mesures
ultimes sur le spectre de corps noir de ce rayonnement, parce qu’il existe
des incertitudes systématiques qu’on ne sait pas contourner et qui limitent
la précision des mesures. Mais il reste un champ ouvert pour lequel Planck
n’est pas l’expérience ultime : l’étude de la polarisation du rayonnement
ÉLÉMENTAÍRE
Jean-Loup Puget
Lentille gravitationnelle
Selon la théorie de la relativité générale, un rayon lumineux qui passe
à proximité d’un objet très massif,
comme une galaxie, voit sa trajectoire
déviée. Cet effet peut provoquer des
mirages gravitationnels : l’image que
nous voyons d’un source lumineuse
lointaine est déformée voire dupliquée
par la présence d’un objet massif entre
elle et nous. Ce phénomène permet de
repérer des objets massifs, même peu
lumineux.
fossile, qui permet de contraindre les paramètres des modèles théoriques
[ndlr : voir « Expérience »]. On parle déjà d’expériences postérieures à
Planck sur ce sujet, en Europe et aux États-Unis, mais on attend d’avoir
plus d’informations de Planck même avant de lancer ces projets.
Plus généralement, en cosmologie, le plus urgent, ce sont les expériences
qui « regardent » la nature de l’énergie noire, en étudiant la distribution
des galaxies. Cette énergie noire produit une accélération de l’expansion
de l’Univers qui affecte la distribution des galaxies. On étudie cette
distribution avec les observations des explosions de supernova et surtout
avec les effets de lentilles gravitationnelles. Actuellement, il y a un débat
sur le partage des tâches entre les mesures au sol et l’observation spatiale
pour ces expériences.
Que va t-on apprendre au LHC ?
De mon point de vue (cosmologique !), les signes d’une physique au-delà
du Modèle Standard en physique des particules, une voie vers l’unification
avec la gravité. Je pense également à la supersymétrie, car elle fournirait
un candidat pour la matière noire. Quant à trouver le boson de Higgs, ce
n’est pas la question la plus importante de mon point de vue, même si
c’est évidemment un problème central de la physique des particules.
Votre rêve de physicien ?
Sur cette image du télescope spatial
Hubble, dans la constellation du Petit
Lion, on distingue cinq points lumineux,
qui sont en fait cinq images d’un seul et
même quasar très lointain. Ce mirage est
dû à la présence d’un amas de galaxies
très massif entre nous et le quasar qui est
à ... 2,5 milliards d’années-lumière.
Je n’aurais pas répondu de la même façon à cette question il y a quelques
années ! J’aimerais avoir une théorie avec aussi peu de paramètres
libres que possible. Quelque part, on aimerait que la théorie fixe tous
ses paramètres « d’elle-même ». Quand on regarde la cosmologie ou
la physique des particules, on n’a pas vraiment l’impression que les
choses vont dans cette direction ! J’ai un peu de mal à me situer dans
les dernières idées venant de la théorie des cordes, où au contraire, on a
un très grand choix dans les paramètres envisageables. Je ne sais pas très
bien quoi faire de cela... et si cela cadre bien avec ma vision des objectifs
de la physique.
Avez-vous des regrets dans votre carrière ?
ÉLÉMENTAÍRE
page 17
Non, pas vraiment. Je regrette seulement de ne pas arriver à comprendre le
détail des articles théoriques, en particulier certains de leurs arguments !
Mais je n’ai pas de regrets en ce qui concerne les expériences. Il y a bien
une expérience que nous avions proposée avant Planck, en collaboration
avec des Russes. Nous avions collaboré longuement pour proposer un
projet qui avait été accepté et financé et finalement, j’ai estimé que ce
n’était pas « la » manip que je souhaitais faire sur le sujet, et j’ai donc
abandonné le projet. Ce n’est pas très facile comme décision. On n’est
jamais absolument sur de soi. Mais avec le recul, c’était la bonne décision
à prendre, même si c’était frustrant sur le moment.
Un quasar (pour «quasi-stellar radio source») correspond à une galaxie éloignée dont
le noyau actif émet des rayonnements électromagnétiques très intenses (lumière visible, ondes radio). Ils ont été observés à partir
de la fin des années 1950 comme des sources
puissantes et ponctuelles, semblables à des
étoiles. À l’heure actuelle, on connaît plus de
200 000 quasars. On pense qu’un quasar est
la région qui entoure un trou noir supermassif situé au centre d’une galaxie. L’émission
intense du quasar provient du gaz interstellaire attiré par le trou noir et qui forme
un disque d’accrétion, fortement échauffé,
autour de cet objet. Les processus complexes
associés donnent lieu à l’émission de jets de
matière perpendiculairement au plan du disque d’accrétion.
Jean-Loup Puget
Qu’aimeriez-vous dire aux jeunes ?
© M Nomis
Je regrette que le système scolaire français utilise les disciplines
scientifiques comme un moyen de sélection d’une manière qui induit un
rejet des sciences chez certains jeunes : ils suivent des filières scientifiques
alors même qu’ils ont pris les sciences en grippe ! Il y a un problème de
perception de la science chez les jeunes, et nous nous devons de faire
quelque chose. La science, ça peut être très amusant, il y a plus de surprise
et d’inattendu dans la science « réelle » que dans la science-fiction !
J’aimerais aussi leur dire : « même si vous n’êtes pas scientifique, vous
avez besoin de regarder les choses avec un point de vue scientifique ».
Les sciences ne sont pas juste un moyen de sélection !
Quant aux jeunes scientifiques, j’aimerais qu’ils abolissent cette hiérarchie
implicite, et injustifiée, entre théorie et expérience. Lorsque les jeunes
sortent d’un master et vont faire une thèse, on les pousse à travailler sur
l’interprétation des résultats plus que sur la préparation des expériences.
La tendance naturelle est d’aller vers les résultats mais il faut que les
jeunes chercheurs aient conscience qu’ils ne vont pas rester dans une
case, qu’elle soit théorique ou expérimentale !
Quelle est la question que vous aimeriez que l’on vous
pose ?
Ce serait « Comment lutter contre le cloisonnement entre la physique des
particules, la cosmologie, et d’autres disciplines ? » Ce n’est pas facile. Je
pense qu’on y arrivera en formant des jeunes et en créant des structures
qui permettront à ces communautés de dialoguer, d’échanger les points
de vue. C’est pourquoi j’ai participé à la création du groupement d’intérêt
scientifique « Physique des Deux Infinis ». Il finance des projets communs
dans ces domaines, tout en remédiant à certaines lourdeurs, certaines
insuffisances du système de recherche actuel. Il aide à préparer les projets
en amont, à exploiter les données en aval. Avec le recul de plusieurs
années, cela a vraiment aidé à faire circuler les gens et les sujets. Et
j’essaierai de continuer à faire progresser cette idée !
page 18
Le logo du groupement d’intérêt
scientifique « Physique des Deux
Infinis ».
ÉLÉMENTAÍRE
Centre de recherche
Observatoires d’ondes gravitationnelles
L’espace-temps est un des concepts
majeurs introduits par la théorie de la
Relativité Restreinte, publiée en 1905 par
Albert Einstein. Ces travaux montrent que
le temps n’est pas absolu et que, tout comme
les trois coordonnées d’espace, il dépend du
référentiel choisi, c’est-à-dire du « point de
vue » utilisé pour observer un phénomène.
Pour passer d’un référentiel à un autre, il
faut procéder à un changement de variables
qui mélange coordonnées spatiales et
temporelle. L’espace et le temps forment
donc un tout, judicieusement appelé...
l’espace-temps !
La théorie de la Relativité Générale, publiée par Einstein en 1915, stipule
que les masses courbent l’espace, ce qui modifie les trajectoires des corps
passant à proximité. Un objet (par exemple une étoile) en mouvement
accéléré (c’est-à-dire non rectiligne uniforme) provoque des variations
de cette courbure qui se propagent à la vitesse de la lumière comme des
vagues à la surface de l’eau : ce sont les ondes gravitationnelles. Lors
du passage de telles vibrations, l’espace-temps se déforme : distances et
durées se contractent puis se dilatent – ces oscillations se poursuivent tant
que la perturbation est présente
DR
Si n’importe quelle masse accélérée génère des ondes gravitationnelles,
celles-ci sont extrêmement ténues. Seuls des objets très massifs et de
grande compacité peuvent produire un signal potentiellement détectable
avec les technologies actuelles. Aucune source d’origine terrestre
n’entrant dans cette catégorie, les scientifiques n’ont d’autre choix que
« d’écouter » le cosmos à la recherche de ce rayonnement qui, bien que
prédit il y a plus de quatre-vingt dix ans maintenant, échappe toujours aux
observations directes. Notons cependant qu’avec la découverte en 1974
du premier pulsar binaire et son suivi depuis lors, les physiciens possèdent
une preuve indirecte de l’existence des ondes gravitationnelles.
La recherche des ondes gravitationnelles a démarré il y a près d’un demisiècle. Elle a pris un tournant important dans les années 1990-2000 avec
la construction de plusieurs observatoires dédiés, aux États-Unis (LIGO),
en Europe (Virgo et GEO) et au Japon (TAMA). Ces centres abritent des
détecteurs de grande taille – de l’ordre du kilomètre – que nous allons
décrire en détail dans la suite de cet article. Leur développement, parfois
ralenti par la complexité et la nouveauté de leur appareillage, est continu.
Ils apparaissent donc aujourd’hui comme les meilleurs candidats pour
relever le défi de la découverte des ondes gravitationnelles à l’échelle de
quelques années.
Objet
Densité ρ
(kg/m3)
Rayon de
Schwarzschild RS
Compacité
C = RS/R
Proton
5 × 1017
2 × 10-54 m
10-39
Terre
5 × 1013
9 mm
10-10
Soleil
103
3 km
10-6
Étoile à neutrons
1018
4 km
≈ 0,4
ÉLÉMENTAÍRE
de 1
page 19
Trou noir super- 1 (soit mille 3 milliards
massif au centre fois moins que kilomètres
de M87 (galaxie l’eau !)
d’Andromède)
Albert Einstein (1879-1955)
Karl Schwarzschild (1873-1916)
Comment devient-on un trou noir ? Il suffit
de concentrer sa masse dans un « petit »
volume. L’objet ainsi obtenu a alors une
forte compacité. La Relativité Générale
quantifie cette idée en introduisant un
rayon limite, le rayon de Schwarzschild
RS, dimension en-dessous de laquelle une
masse M s’effondre en trou noir, un objet
duquel rien ne peut s’échapper, pas même
un photon, pourtant de masse nulle :
RS = 2GM / c2,
où G est la constance de Newton et c la vitesse de la lumière dans le vide. Le facteur
numérique 2G / c2 ~ 10-27 m/kg. Le rayon
limite RS est donc (très) petit même pour
un corps aussi massif qu’une planète ou
qu’une étoile. Le rapport C = RS / R (R étant
la dimension caractéristique du corps),
compris entre 0 et 1, fournit une mesure
de compacité. La valeur maximale C = 1
correspond au cas d’un trou noir. Pour différents objets on peut comparer la compacité et la densité ρ (c’est-à-dire le rapport
entre masse et volume). Intuitivement,
« compact » et « dense » ont l’air d’être des
notions voisines, voire synonymes. En fait
ce n’est pas le cas : on peut être compact
sans être dense (un trou noir galactique) et
réciproquement (un proton).
Observatoires d’ondes gravitationnelles
L’existence des ondes gravitationnelles a été établie expérimentalement à la fin des années 1970 grâce à la découverte du premier pulsar dans
un système binaire par Joseph Taylor et son étudiant Russel Hulse – tous deux lauréats du Prix Nobel en 1993.
Un pulsar est une étoile à neutrons en rotation ultra-rapide sur elle-même (plusieurs tours par seconde) et entourée d’un fort champ
magnétique. La plupart de ces pulsars sont les restes d’explosions d’étoiles massives en fin de vie (supernova). Ils émettent un rayonnement
électromagnétique détecté sur Terre sous la forme d’une pulsation extrêmement courte mais répétitive – d’où leur nom. Le premier pulsar a
été découvert en 1967 par Antony Hewish et son étudiante Jocelyn Bell-Burner à l’aide d’un radiotélescope basé à Cambridge.
Le pulsar PSR 1913+16 découvert en 1974 par Hulse et Taylor a une période moyenne de 59 ms. Moyenne, car celle-ci peut augmenter ou
diminuer de 80 μs sur une journée, une propriété remarquable puisque les plus grandes variations observées jusqu’alors sont de seulement
10 μs sur ... une année. Quelques mois de prise de données montrent que cette variation est due au mouvement du pulsar autour d’un
« compagnon » (une autre étoile à neutrons dans ce cas précis). La vitesse orbitale du système double est de 495 km/s, (soit environ 0,002 fois
la vitesse de la lumière : sa dynamique est affectée par des corrections relativistes) pour une période d’environ 8 heures.
Cette découverte apparaît immédiatement, aux yeux de nombreux spécialistes comme un objet unique pour mettre à l’épreuve la Relativité
Générale. En effet, celle-ci prédit qu’un tel système binaire d’astres compacts doit émettre des ondes gravitationnelles et perdre de l’énergie.
Du fait de leur attraction gravitationnelle, les étoiles se rapprochent très progressivement dans un mouvement en spirale, jusqu’à atteindre une
distance critique en dessous de laquelle elles se précipiteront l’une vers l’autre. Dans le cas de PSR 1913+16, tous les paramètres du mouvement
ont été mesurés de manière extrêmement précise grâce au suivi continu du rayonnement du pulsar depuis plus de 30 ans. En prenant en
compte tous les effets relativistes, la mesure de la variation de la période orbitale du système due à l’émission d’ondes gravitationnelles est en
accord avec la prédiction théorique avec une incertitude de moins de deux pour mille.
Depuis cette découverte, une dizaine d’autres pulsars binaires ont été découverts et quatre sont utilisés pour tester la Relativité Générale,
avec succès jusqu’à présent.
Observer sur Terre des ondes gravitationnelles venant du cosmos
Il existe de nombreuses sources potentielles d’ondes gravitationnelles.
Beaucoup sont transitoires : conséquences d’événements astrophysiques
violents, elles ne sont détectables que pendant une courte durée.
Au contraire, d’autres sont associées à une émission périodique – par
exemple une étoile à neutrons asymétrique en rotation ultrarapide. Les
ondes gravitationnelles ainsi produites se caractérisent par leur amplitude
et leur fréquence, lesquelles peuvent évoluer au cours du temps. Toute
tentative réaliste pour mettre en évidence ces signaux doit s’adapter à
ces contraintes en conjuguant sensibilité et couverture d’une zone
intéressante du spectre des ondes gravitationnelles
Évolution du décalage temporel du périastre
du système binaire PSR1913+16 mesuré par
Joël Weisberg et Joseph Taylor sur plus de
trente ans. Le périastre est le moment où
les deux astres sont les plus proches l’un de
l’autre. Si la période orbitale du système
diminue, cette configuration se produit
un peu plus tôt à chaque révolution. Les
points noirs représentent l’accumulation de
la différence (exprimée en secondes) entre
temps observé et temps attendu si la période
orbitale ne changeait pas. La prédiction
théorique liée à l’émission d’ondes
gravitationnelles est indiquée par la ligne
continue : l’accord est très bon.
page 20
Dans les années 1960, Joseph Weber propose et construit un premier
type de détecteur : une barre en aluminium dont la vibration présente
un phénomène de résonance pour peu que le cylindre métallique soit
excité à la bonne fréquence. Hors de cet intervalle très étroit (quelques
dizaines de Hz au plus), la barre de Weber est « aveugle ». Comme
elle est aussi limitée en taille et que l’interprétation de ses résultats est
difficile – plusieurs « fausses découvertes » émaillent l’histoire de cette
technologie – des alternatives ont très vite été étudiées. Parmi les pistes
explorées, la plus prometteuse s’est révélée être l’interférométrie laser
qui permet de construire de grands détecteurs sensibles sur une bande
de fréquence de plusieurs kHz. Cette idée, mentionnée pour la première
fois par les physiciens soviétiques Michail Gerstenstein and V.I. Pustovoit
en 1963, est reprise indépendamment en 1972 par un chercheur du MIT,
ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
© Uni. Maryland
Au cours des décennies suivantes plusieurs pays
se lancent dans la construction d’interféromètres
kilométriques
pour
détecter
les
ondes
gravitationnelles : l’Allemagne, l’Australie, les ÉtatsUnis, la France, l’Italie, le Japon et le Royaume-Uni.
Ces détecteurs sont constitués d’une part de miroirs
de quelques dizaines de kilogrammes que l’on isole
au maximum de toute source de vibrations et d’autre
part d’un faisceau laser ultra-stable qui parcourt les
deux bras de l’interféromètre avant d’interférer et
de produire le signal finalement observé. Leurs sites
sont choisis en raison de leur étendue, des bonnes
propriétés sismiques du sol et de leur éloignement
de toute activité humaine (afin de réduire les bruits
anthropiques), mais concilier tous ces éléments n’est
pas toujours facile.
Joseph Weber et son premier détecteur en 1965 à l’Université
du Maryland aux États-Unis.
Barre résonante de Weber
La barre métallique absorbe une toute petite fraction de
l’énergie de l’onde gravitationnelle, qui est transformée
en une oscillation mécanique ensuite amplifiée et
convertie en impulsions électriques. La faiblesse des ondes
gravitationnelles impose de réduire les sources de bruit
parasites (vibrations, électronique, etc.) pour espérer détecter
un signal d’amplitude réaliste. La dernière génération de ces
détecteurs, mise en service au début des années 2000, utilise
en particulier des barres cryogéniques fonctionnant à une
température d’une fraction de degré Kelvin. De manière
générale, une barre de Weber n’est performante que dans
une bande de fréquence d’au maximum 100 Hz autour de la
résonance, située vers 1 kHz.
ÉLÉMENTAÍRE
Événements astrophysiques violents
Une « bonne » source d’ondes gravitationnelles est un astre massif et compact
qui relâche beaucoup d’énergie d’un coup – seule une faible fraction est
convertie en ondes gravitationnelles. Une telle émission peut se produire
lors de certains phénomènes astrophysiques violents.
● La coalescence de deux astres compacts (rencontre de deux étoiles à
neutrons et/ou trous noirs) ; c’est par exemple ainsi que finira le pulsar
binaire PSR 1913+16 dans 300 millions d’années ! Actuellement séparés
de plusieurs millions de km, les deux étoiles compagnons se rapprochent
d’environ 1 cm par jour.
● Une supernova de type II : l’explosion d’une étoile massive dont le
cœur s’effondre sur lui-même une fois son carburant nucléaire épuisé.
Malheureusement, le signal produit est si faible que seule une supernova
située dans notre Galaxie pourrait être détectée ; comme le taux de ces
événements est d’environ un tous les trente ans, il convient de se montrer
patient.
● Des trous noirs ou des étoiles à neutrons créés depuis peu et qui, comme
des enfants un peu turbulents, « s’agitent dans tous les sens » en émettant des
ondes gravitationnelles. En se désexcitant ils retournent en fait à l’équilibre.
● Par ailleurs, il semble de plus en plus probable aux yeux des astrophysiciens
que les sources de Gamma Ray Bursts (GRB) ou « sursauts gamma » (voir
« ICPACKOI » sur le satellite Fermi-GLAST) émettent aussi des ondes
gravitationnelles ; ces sources seraient des supernovæ pour les GRB longs et
la coalescence d’étoiles à neutrons ou de trous noirs pour les GRB courts.
Au passage d’une onde gravitationnelle d’amplitude h une longueur L varie
d’une quantité ΔL liée à ces deux grandeurs par la relation : h ≈ ΔL / L
Un détecteur est d’autant plus sensible qu’il peut mesurer des variations de
distance petites par rapport à sa taille : pour progresser on doit donc soit
améliorer sa sensibilité (c’est-à-dire détecter des changements plus ténus),
soit augmenter sa taille. Les ondes gravitationnelles sont si faibles que le défi
relevé par les détecteurs géants dont nous parlons dans la suite consiste à
mesurer l’équivalent de la distance Terre-Soleil (150 millions de km) à un
atome près (taille 10-10 m) !
Une onde gravitationnelle étant une sorte de vibration de l’espace-temps,
sa fréquence est un paramètre important. Prenons d’abord un détecteur
basé sur un phénomène de résonance : seule une excitation à sa fréquence
caractéristique, dite fréquence de résonance, est amplifiée suffisamment
pour être détectable. Si la vibration change – même très légèrement – le
signal s’annule presque complètement. Une connaissance suffisante des
sources potentielles d’ondes gravitationnelles, et en particulier de la gamme
de fréquences produites, est donc nécessaire pour mettre au point un tel
instrument. On peut également concevoir des détecteurs « large-bande »
sensibles sur un intervalle conséquent en fréquence – plusieurs kHz.
Leur bruit de mesure (la composante aléatoire toujours présente dans les
données qui est susceptible de masquer un vrai signal si celui-ci est trop
faible) peut se voir comme la superposition de « bruits fondamentaux » :
des composantes oscillant chacune à une fréquence particulière – voir
« Analyse ». La réponse de tels instruments n’est en général pas uniforme :
un bruit particulier affecte tout ou partie du spectre ; de même, une
amélioration de l’appareillage n’a en général d’effet que dans une bande de
fréquence donnée.
page 21
Rainer Weiss. Celui-ci démontre la faisabilité d’un tel
instrument dans un article ; la même année, Robert
Forward construit le premier prototype.
© LIGO
Observatoires d’ondes gravitationnelles
Aux États-Unis, le projet LIGO regroupe trois détecteurs géants dans deux
sites séparés de quelques 6000 kilomètres. Le premier, situé à Hanford dans
l’état de Washington est constitué de deux interféromètres qui partagent
la même enceinte à vide : l’un a des bras de 4 kilomètres, tandis que
l’autre a des bras de 2 kilomètres seulement. Ainsi, si l’un des instruments
est en maintenance de longue durée (comme c’est actuellement le cas)
l’autre peut continuer à prendre des données. De plus, une détection
en coïncidence par les deux interféromètres aiderait à démontrer qu’une
vraie onde gravitationnelle a été observée – à condition bien évidemment
d’être capable d’éliminer les bruits corrélés, par exemple les vibrations
du sol. Le troisième détecteur est à Livingston dans l’État de Louisiane.
Le projet franco-italien Virgo est lui, situé dans la plaine de l’Arno, à 15
km de Pise.
© Virgo
© LIGO
Site du détecteur Virgo situé près de Pise
en Italie. Ici, les bras ne font « que » 3
km de long ; les édifices que l’on voit le
long des tubes clairs sont situés à 1,5 km
du bâtiment central.
Les expériences LIGO, à Hanford (état de
Washington ; photo de gauche) et Livingston
(Louisiane ; photo de droite). Ces photos
aériennees montrent les bâtiments centraux
des interféromètres qui contiennent la source
laser, la plupart des miroirs et le système de
détection du signal. On voit également l’un
des deux bras en entier (4 km de long) ainsi
que le début du second, partant à angle
droit.
Il existe d’autres détecteurs d’ondes gravitationnelles. Celui construit par
le Japon dans la banlieue de Tokyo s’appelle TAMA. Avec des bras de 300
mètres il possède une sensibilité limitée comparée à celle de LIGO ou
de Virgo, mais il permet de tester certaines idées utiles pour de nouvelles
générations d’expériences. Enfin, l’Allemagne et le Royaume Uni se sont
associés à partir de 1995 pour construire près de Hanovre l’interféromètre
GEO dont les bras feront 600 mètres. De part sa taille réduite et sa
configuration optique particulière il s’agit plus d’un détecteur prototype
utile pour tester de futures technologies que d’un observatoire susceptible
de faire une découverte.
À la base, un détecteur comme Virgo ou LIGO est un interféromètre
de Michelson. De nombreuses améliorations sont apportées à ce
principe pour rendre l’instrument plus sensible au passage d’une onde
gravitationnelle. Certaines visent à réduire le bruit de mesure tandis que
d’autres « dopent » ses performances.
Exemple ci-dessus de deux ondes (en
bas) donnant une onde amplifiée en
haut. À droite, exemple de deux ondes
dites en opposition de phase et donnant
un signal plat.
page 22
© B. Mazoyer
Tout ce que vous avez toujours voulu
savoir sur un interféromètre
Tout d’abord, les miroirs sont isolés des vibrations du sol qui les font
se déplacer de manière aléatoire. Pour y parvenir, on les suspend à des
atténuateurs sismiques par deux fils métalliques. Ces systèmes permettent
de s’affranchir du bruit sismique pour des fréquences supérieures à
ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
© Élémentaire
Schéma d’un interféromètre de
Michelson avec miroirs suspendus – un
« Virgo » ou un « LIGO » simplifié en
quelque sorte.
Interféromètre de Michelson
Un interféromètre de Michelson est un appareil composé de deux « bras » avec :
● une source lumineuse, par exemple un laser ;
● un miroir particulier, la lame séparatrice qui, comme son nom l’indique, sépare le faisceau
lumineux en deux parties d’intensités égales, émises à 90° l’une de l’autre et envoyées dans les
« bras » de l’interféromètre ;
● deux miroirs d’extrémité en bout de bras sur lesquels les ondes lumineuses se réfléchissent
et repartent en sens inverse ;
● et enfin un dispositif de mesure composé de photodiodes, utilisées pour recueillir le signal
en sortie, issu de l’interférence des deux faisceaux qui ont circulé dans les deux bras du
détecteur avant de se recombiner sur la lame séparatrice.
Comme des vagues à la surface de l’eau, des ondes lumineuses qui se rencontrent dans
une zone de l’espace se mélangent ; le résultat est soit amplifié, soit atténué, selon que
leurs amplitudes s’ajoutent ou s’opposent. Dans un interféromètre, toute différence dans le
parcours des deux ondes (longueurs des bras, caractéristiques des miroirs, etc.) se traduit par
une modification de la figure d’interférence en sortie du détecteur. Son étude – un exemple
d’une science plus vaste appelée interférométrie et très utilisée en astronomie – fournit des
informations sur le phénomène étudié par l’intermédiaire du détecteur. Inventé à la fin du
XIXe siècle pour démontrer que la vitesse de la lumière ne varie ni dans le temps ni selon la
direction d’observation, l’interféromètre de Michelson sert aujourd’hui à étudier les défauts
de la surface d’un miroir ou... à chercher les ondes gravitationnelles !
ÉLÉMENTAÍRE
page 23
DR
Atténuateur sismique de Virgo : le « superatténuateur »
Mesurant plusieurs mètres de haut, il est constitué d’une structure métallique
qui oscille à basse fréquence sous l’effet des vibrations du sol et à laquelle sont
attachés cinq filtres mécaniques successifs. Le miroir et son système de contrôle
constituent eux-mêmes un filtre. Chaque étage atténue la transmission du bruit
sismique venant de plus haut : pour des fréquences supérieures à quatre Hz, le
mouvement résiduel du miroir (accroché tout en bas de la suspension) n’est plus
dominé par les vibrations du sol, et ce même si des routes fréquentées passent
non loin des bâtiments qui abritent les miroirs.
Si le laser et les techniques de contrôle de Virgo et LIGO sont assez semblables,
les deux expériences se différencient par le système d’atténuation sismique des
miroirs. Pour LIGO le « mur » sismique s’étend jusqu’à 40 Hz environ. Ainsi,
Virgo est potentiellement plus sensible aux ondes gravitationnelles émises par
des pulsars dont les fréquences théoriques varient entre quelques Hz et quelques
dizaines de Hz.
© Virgo
quelques dizaines de hertz. En
dessous de ce seuil, ces oscillations
ne sont plus réduites et Virgo
comme LIGO deviennent aveugles :
les deux détecteurs sont de fait
totalement insensibles à un signal
gravitationnel de basse fréquence.
Un autre bruit important, dominant
pour des fréquences intermédiaires,
est le bruit thermique des miroirs
et des fils de suspension. Dû au
mouvement brownien des atomes qui
les composent, il peut être limité par
un choix adéquat de matériaux et en
diminuant au maximum la friction au
niveau des points d’accroche. Au-delà
de quelques centaines de hertz, LIGO
et Virgo sont limités par le « bruit de
comptage » : le nombre de photons
collectés sur les photo-détecteurs
Observatoires d’ondes gravitationnelles
« Que faire le jour où nous serons en présence d’un signal potentiel d’onde gravitationnelle ? »
Ce problème est d’autant plus aigu que les interféromètres sont en limite de sensibilité et que les détections, au-moins au début, seront rares.
Il faut donc éviter deux écueils : annoncer une découverte pour la démentir ensuite ; rejeter un vrai signal.
Attribuer à une onde gravitationnelle une vibration enregistrée dans un instrument isolé sera très difficile, et certainement sujet à controverse.
Par contre, un signal observé en coïncidence dans au moins deux détecteurs paraîtra beaucoup plus réaliste. Si les interféromètres sont éloignés
géographiquement, les bruits qui les affectent sont indépendants alors que les signaux induits par une onde gravitationnelle sont corrélés.
L’étape suivante consiste à analyser de manière cohérente les informations provenant d’un réseau d’interféromètres. Si on connaît la direction
de la source, on peut prédire l’évolution (en temps et en amplitude) du signal dans chaque détecteur et combiner leurs données de manière
optimale pour faire ressortir l’onde gravitationnelle du bruit. On a alors un « super-interféromètre » bien plus performant que les instruments
pris individuellement. Le prix à payer se voit au niveau de la complexité de l’analyse et de la puissance de calcul nécessaire : comme la source
est a priori inconnue, il faut chercher en parallèle dans toutes les directions du ciel.
Ce problème disparaît dans le cas où l’origine du signal est identifiée par d’autres détecteurs, par exemple des télescopes captant le rayonnement
électromagnétique (optique, rayons gamma, etc.) ou des neutrinos (émis en nombre par une supernova). Virgo et LIGO appartiennent donc
à des réseaux internationaux regroupant des instruments variés et qui émettent une alerte dès qu’ils détectent un phénomène susceptible
d’intéresser les autres membres.
fluctue selon une loi de probabilité de Poisson décrivant des évènements
rares (voir Élémentaire N°3), ce qui gêne l’interprétation des signaux
enregistrés.
Parlons un instant du laser – aussi stable que possible – qui fournit
une puissance d’une dizaine de watts, émise dans l’infrarouge. Le
calcul montre qu’un interféromètre est d’autant plus sensible que la
puissance lumineuse stockée est élevée. C’est pourquoi Virgo et LIGO
utilisent des configurations optiques plus complexes que le « Michelson
simple » présenté précédemment. Au prix d’un contrôle plus délicat,
leurs performances sont équivalentes à celles d’un appareil dont la
source lumineuse serait cinquante fois plus puissante et les bras (déjà
kilométriques) trente fois plus longs. Cette dernière propriété – essentielle
puisque la sensibilité du détecteur dépend du changement relatif de
longueur – est obtenue grâce à des miroirs supplémentaires qui allongent
le parcours des faisceaux lumineux.
Les miroirs sont des composants essentiels des détecteurs. Fabriqués en
silice, ils sont les plus lourds possible afin de réduire le bruit thermique,
inversement proportionnel à la racine carrée de leur masse. Ils font trente
centimètres de diamètre environ et sont ultra-propres pour limiter les effets
thermiques dus à l’absorption lumineuse – d’autant plus importants que la
puissance stockée est élevée. Un traitement de surface leur est également
appliqué pour qu’ils aient les bonnes propriétés de transparence ou de
réflexion : leurs pertes se limitent à quelques millionièmes de l’intensité
des faisceaux. Un laboratoire spécial situé à Lyon (le Laboratoire des
Matériaux Avancés, LMA) a été financé par Virgo pour lui fournir les
meilleurs miroirs possibles. Si les substrats sont achetés à des industriels,
leur conditionnement est effectué au LMA, seul capable de réaliser ce
processus avec la précision souhaitée sur un diamètre aussi grand.
page 24
Contrôle
Le fonctionnement d’un interféromètre
est complexe : pour avoir la sensibilité
adéquate, il faut que le détecteur soit
contrôlé de manière continue. Même si
les déplacements résiduels des miroirs
suspendus sont faibles (leur amplitude
est bien inférieure au millimètre), ils sont
suffisants pour rendre le détecteur aveugle
et inutile. Il importe donc de synchroniser
leurs mouvements pour que les distances
les séparant restent constantes – avec une
précision meilleure que le nanomètre. Si
contrôler deux suspensions est relativement
simple, les choses se compliquent quand il
faut prendre en compte le couplage entre
les quatre cavités formées par les six miroirs
principaux d’un détecteur comme Virgo ou
LIGO.
Ces instruments sont donc contrôlés en
permanence par un système automatisé
qui mesure de nombreux paramètres toutes
les 100 μs, s’assure qu’ils ont les valeurs
attendues et, dans le cas contraire, déclenche
les actions de correction appropriées. Parfois
une intervention humaine est nécessaire ;
elle est coordonnée et assurée par les équipes
d’opérateurs, d’ingénieurs et de physiciens
qui se relaient sans interruption en salle de
contrôle.
Il n’est pas rare que la synchronisation des
miroirs soit perdue au bout de quelques
heures (ou de quelques jours) à cause d’un
tremblement de terre... en Chine ou en
Amérique du Sud, ou encore d’un orage
violent. La procédure pour rétablir la
situation est maintenant quasi-automatique
dans la plupart des observatoires.
ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
Courbe de sensibilité théorique d’un détecteur interférométrique
d’ondes gravitationnelles (les échelles des deux axes sont
logarithmiques). En chaque point du spectre, la valeur de la courbe
(exprimée en unité arbitraire) est reliée à l’amplitude qu’une onde
vibrant à cette fréquence devrait avoir pour être détectée : plus
elle est basse, plus l’appareil est performant car le bruit est faible.
Cette manière de décrire un signal en termes de fréquence plutôt
que par ses variations temporelles est courante en physique – voir
« Analyse ».
Les trois principales contributions au bruit de mesure sont indiquées
sur la figure : bruit sismique en dessous de quelques Hz, bruit
thermique jusqu’à quelques centaines de Hz et bruit de comptage
des photons au-delà. Dans une gamme de fréquence donnée un
bruit domine en général tous les autres – bien qu’ils soient présents
ces derniers n’ont aucune influence mesurable sur la sensibilité de
l’instrument dans cette zone.
L’ensemble du détecteur est ainsi placé dans une enceinte à vide (en
fait un ultra-vide de 10-9 millibar, soit un millionième de millionième
d’atmosphère) afin de réduire l’interaction entre le faisceau laser et
les molécules de gaz résiduelles. La sensibilité serait réduite en cas de
diffusion tandis que le passage de grosses particules à travers le faisceau
pourrait imiter une onde gravitationnelle. Les tubes dans lesquels circulent
les faisceaux font environ un mètre de diamètre : LIGO et Virgo utilisent
les plus grandes enceintes à ultra-vide jamais construites !
bobines
« Miroir, mon beau miroir »... La lame
séparatrice de Virgo... sépare ( !) le laser en
deux faisceaux qui parcourent ensuite les
bras de 3 km. Elle est entourée d’une masse
en aluminium à laquelle sont attachées des
bobines qui servent à contrôler le miroir
sur lequel sont collés des aimants. Selon le
courant parcourant les bobines, les forces
entre ces dernières et les aimants varient,
ce qui se traduit par un mouvement de la
monture métallique, et donc du miroir.
Avec de bons yeux, on peut distinguer les
deux fils de 100 micromètres (le diamètre
d’un cheveu !) qui entourent le miroir.
ÉLÉMENTAÍRE
page 25
Le bruit acoustique fait vibrer les éléments optiques de l’interféromètre.
Il faut en particulier les isoler au maximum du système de climatisation,
ce qui n’est pas toujours évident car il faut également assurer une bonne
circulation de l’air dans les pièces qui contiennent le laser ou les tables
optiques – la température doit y être constante. À Virgo, ce bruit provient
également d’avions militaires qui survolent parfois l’interféromètre à
basse altitude, déplaçant de grands volumes d’air sur leur passage. Cette
contribution est heureusement assez facilement identifiée grâce à des
microphones placés dans tous les bâtiments : les données prises pendant
ces périodes sont ignorées car dominées par le bruit. Toujours à Virgo, des
ventilateurs (et plus précisément les faibles champs magnétiques produits
par leur fonctionnement) ont été identifiés comme une source de bruit,
insolite mais bien réelle. Ils ont été remplacés par d’autres modèles, plus
« discrets ».
© Virgo
Les bruits dont nous venons de parler sont « fondamentaux » : liés à
la construction de l’interféromètre, on doit s’en accommoder même
si une bonne conception permet de les réduire. Ils sont regroupés
sous cette dénomination commune pour mieux les opposer aux bruits
« d’environnement » qui, eux, polluent les mesures sans avoir été invités
à y participer ! Ces derniers sont donc traqués inlassablement, le but étant
de les ramener sous le niveau des bruits fondamentaux.
Observatoires d’ondes gravitationnelles
Zoom sur les collaborations LIGO
et Virgo
© LIGO
À l’instar des projets de physique des hautes énergies, LIGO et
Virgo rassemblent de vastes communautés scientifiques qui ont
connu une histoire longue et mouvementée. Le projet LIGO
est approuvé et financé par la National Science Foundation
américaine (NSF) en 1990. En 1992 les deux sites de Livingston
et Hanford sont choisis et un accord entre la NSF et Caltech
(Californie) est signé. C’est ce laboratoire qui va gérer LIGO
avec l’aide d’un autre gros centre de recherche américain, le MIT
(Massachusetts). En 1999, le projet est officiellement inauguré ; même si
tous les éléments ne sont pas encore installés sur les deux sites, la mise
en route des détecteurs a déjà commencé. L’expérience acquise sur des
prototypes de taille réduite permet à LIGO de progresser rapidement et, en
2002, la première prise de données scientifiques a lieu pendant trois jours.
Plusieurs campagnes de mesure se succèdent ensuite. En 2005, les trois
interféromètres LIGO atteignent leurs performances nominales et
LIGO fait sa cinquième prise de données scientifiques de novembre
2005 à octobre 2007 ce qui lui permet d’accumuler l’équivalent
d’un an de données avec trois détecteurs en coïncidence.
La partie centrale de l’interféromètre LIGO
à Livingston avec les tours qui contiennent
le système d’atténuation sismique des
miroirs d’entrée des cavités Fabry-Pérot des
deux bras.
© Virgo
En parallèle à la construction des observatoires LIGO et à leur
mise en service, une collaboration internationale s’est créée : la
LIGO Science Collaboration (LSC). Elle a pour principales activités
l’analyse des données de LIGO et la coordination des efforts
de recherche-développement pour améliorer la sensibilité des
détecteurs. La LSC comprend en particulier tous les laboratoires de
la collaboration anglo-allemande GEO. Actuellement, plus de cinq
cents personnes contribuent à la LSC et signent ses publications.
Virgo a démarré à peu près au même moment que LIGO. Ce projet
a été proposé et construit par une dizaine de laboratoires français
(CNRS) et italiens (INFN). À cause des difficultés pour l’achat des
terrains, le génie-civil a pris quelques années de retard. Dès 2001
des tests ont été menés sur la partie centrale du détecteur, un interféromètre
de quelques mètres de long (Virgo sans ses bras kilométriques) pendant
que l’installation des autres éléments se poursuivait. Depuis 2002 le
site (Cascina, près de Pise) est géré par EGO, un consortium de droit
privé financé par le CNRS et l’INFN, chargé du fonctionnement de
l’interféromètre au quotidien. La première prise de données de Virgo
(cinq mois en coïncidence avec LIGO) a eu lieu en 2007 bien que la
sensibilité nominale du détecteur n’ait pas encore été atteinte – c’est
aujourd’hui presque le cas. En parallèle, la collaboration s’est agrandie
en accueillant de nouvelles équipes basées en Europe. Dix-huit groupes
de cinq pays différents participent désormais à Virgo et cent cinquante
personnes environ signent ses publications.
page 26
Une vue de la partie centrale du détecteur
Virgo. On distingue les enceintes à vide
d’une dizaine de mètres de hauteur qui
contiennent les systèmes d’atténuation
sismique auxquels sont suspendus les
miroirs. La « tour » au centre de la
photographie contient le miroir qui sépare
la lumière laser en deux faisceaux qui
circulent dans les bras de l’interféromètre
(partant vers la droite et le fond de la
photo). Le faisceau laser vient de la tour la
plus à gauche.
ÉLÉMENTAÍRE
Observatoires d’ondes gravitationnelles
Présent et futur de la recherche directe
des ondes gravitationnelles
En 2006, un accord de collaboration entre la
LSC et Virgo a été signé ; il prévoit l’échange des
données prises par les deux expériences en vue
d’une exploitation scientifique commune. En
effet, seule une coïncidence associant plusieurs
interféromètres et éventuellement d’autres
types de télescopes (optique, à neutrinos,
etc.) sera jugée suffisamment probante par la
communauté scientifique pour officialiser la
découverte des ondes gravitationnelles.
Depuis octobre 2007, la prise de données VirgoLIGO est officiellement arrêtée, même si GEO
et le détecteur de 2 km de LIGO continuent
de fonctionner – au cas où ... Cette période
de maintenance a été décidé de manière
conjointe par souci d’efficacité : comme nous
l’avons vu, les interféromètres ont intérêt à
fonctionner de manière simultanée pour mettre
toutes les chances de leur côté. Chacune des
collaborations profite de ce répit pour améliorer les performances des
instruments, installer de nouveaux systèmes de contrôle ou encore réduire
une source de bruit identifiée au préalable. Le but est de gagner un facteur
deux en moyenne sur les sensibilités nominales. Une fois ce programme
réalisé, un nouveau cycle de prise de données en coïncidence débutera :
pendant au moins six mois il s’agira de maintenir en permanence les
instruments à leur meilleure sensibilité.
© LIGO
À l’échelle de cinq ans environ l’arrivée de détecteurs de nouvelle
génération (« Advanced » Virgo et LIGO) ayant des sensibilités dix
fois plus importantes devrait apporter un vrai plus. En effet, un
tel gain signifie que le volume de l’espace auquel les détecteurs
seront sensibles augmente d’un facteur 103. Cette « vision élargie »
se traduit par un meilleur accès à la principale source potentielle
d’ondes gravitationnelles, les coalescences de systèmes binaires
(étoiles à neutrons ou trous noirs). Les détecteurs actuels permettent
de couvrir des distances de l’ordre de 15 Mpc. Compte tenu de la
distribution des galaxies dans un tel volume et du nombre d’objets
compacts par galaxie, ceci correspond à quelques coalescences
d’étoiles à neutrons par siècle ! Une fréquence comparable est
espérée pour des trous noirs, bien que le nombre de ces objets par
galaxie soit moins bien connu que pour les étoiles à neutrons. En passant
à 150 Mpc, le nombre d’événements détectables grimperait à quelques
dizaines par an.
page 27
ÉLÉMENTAÍRE
Vue de la salle de contrôle de LIGO (site de
Hanford) en 2005.
© LIGO Laboratory
Observatoires d’ondes gravitationnelles
© LISA
Vue
d’artiste
montrant
l’intérêt
d’améliorer la sensibilité d’un détecteur
d’ondes gravitationnelles par un facteur
10. Le volume d’Univers observable passe
de la petite sphère rouge (en bas à gauche)
à la sphère bleue, ce qui permet de gagner
toutes les sources indiquées (de manière
fictive et selon une répartition uniforme)
par des points jaunes.
Mais l’avenir de la recherche des ondes gravitationnelles passe aussi par
l’espace. Les agences spatiales américaine (NASA) et européenne (l’ESA)
ont un projet commun « d’interféromètre » géant à l’horizon 2018 : LISA,
pour Laser Interferometer Space Antenna. Ses trois satellites formeraient
deux « bras » éloignés de cinq millions de km et s’échangent des
impulsions laser précisément synchronisées – à de telles échelles, il est
impossible d’utiliser des réflexions sur des miroirs. LISA vise une bande de
fréquence différente (entre 0,1 mHz et 0,1 Hz) de celle des observatoires
au sol – lesquels ne peuvent descendre en dessous de quelques Hz à
cause du bruit sismique. Les sources d’ondes gravitationnelles auxquelles
un tel détecteur serait sensible sont de nature un peu différente de celles
cherchées par les observatoires terrestres : il peut s’agir de la coalescence
de trous noirs supermassifs de plusieurs millions de masse solaire (dont
l’existence est très probable et le signal gravitationnel prédit avec précision)
ou de signaux périodiques émis par des systèmes d’étoiles doubles dans
notre galaxie.
page 28
Une vue d’artiste du projet LISA (Laser
Interferometer Space Antenna) constitué de
3 satellites communiquant à l’aide de lasers
de haute intensité.
ÉLÉMENTAÍRE
Expérience
La mission PLANCK
Corps noir
Un « corps noir » est un corps idéal
qui absorbe tous les rayonnements
(toutes les fréquences) qu’il reçoit et
les réémet de manière aléatoire, dans
un équilibre qui ne dépend que de
la température. Planck a déterminé
la forme mathématique du spectre
de ce rayonnement dans les années
1900. La densité de photons du
corps noir dépend uniquement de sa
température. Pour le CMB à 2,7K, on
a 411 photons par cm3.
Planck est une mission de l’Agence spatiale européenne (ESA). Elle tire
son nom du physicien allemand Max Planck, qui formula en 1900 l’équation du spectre du corps noir, première pierre de la construction de la
mécanique quantique. Le début de la conception du projet date de 1993.
Sa mise en œuvre est assurée par 13 laboratoires européens (dont 5 en
France) et nord-américains ainsi que par Thales Alenia Space (maître
d’œuvre du satellite et responsable de l’intégration des instruments et des
tests) et Air Liquide (pour le refroidissement à 0,1K).
Observer les empreintes des premiers
pas de l’Univers
L’expérience Planck vise à obtenir des informations avec une précision
inégalée sur les premiers instants de l’Univers, en mesurant les photons
du rayonnement fossile (CMB, voir « Théorie »). Le spectre de ce rayonnement est, à un très bon degré d’approximation, celui d’un corps noir,
caractéristique de son origine thermique, à une température d’environ
2,7K ce qui correspond à des longueurs d’onde de l’ordre du millimètre,
c’est-à-dire des fréquences entre un et quelques centaines de GHz.
ÉLÉMENTAÍRE
page 29
Vue schématique du satellite.
La mission PLANCK
La température n’est pas la seule source de renseignements : comme tout rayonnement électromagnétique, le CMB peut être polarisé par diffusion (dite « diffusion
Thompson ») des photons sur la matière. Cette polarisation apporte des
informations supplémentaires sur notre Univers. En particulier, certaines
de ces caractéristiques nous apportent des informations concernant les
ondes gravitationnelles générées durant la phase d’inflation cosmique,
une période d’expansion rapide dans les premiers instants de l’Univers
(voir «Théorie»). Mais c’est une information très difficile à détecter car
excessivement ténue (10 à 1 000 fois plus faible que le signal principal).
Derniers préparatifs pour Planck : le
satellite a été nettoyé avec un aspirateur
extrêmement puissant puis toute la
surface est inspectée sous éclairage UV
car les poussières résiduelles sont alors
fluorescentes.
Les instruments de Planck
L’instrument, d’un poids de 2 tonnes (au lancement), et de 4,2 mètres de
hauteur sur 4,2 mètres de diamètre est composé de trois éléments :
• un télescope de 1,5 m de diamètre, avec une
configuration dite «hors d’axe» : ses miroirs
sont décalés l’un par rapport à l’autre. Ceci évite des phénomènes de diffraction, gênants aux
longueurs d’onde où on veut détecter le CMB.
Deux instruments, couvrant des gammes complémentaires de longueurs d’onde, cohabitent
au foyer du télescope et sont refroidis par un
système cryogénique complexe.
• les fréquences comprises entre 20 et 100 GHz
sont analysées par l’instrument basse fréquence
(LFI). Il est composé de 56 récepteurs de type
radio, répartis dans 4 bandes de fréquences.
Étant refroidi à « seulement » 20 K, il entoure
l’instrument haute fréquence et partage le premier étage du refroidissement de ce dernier.
page 30
© ESA
Si le spectre du CMB a été (et reste) un sujet d’étude
important, ce sont surtout les anisotropies de température qui sont maintenant sur le devant de la
scène, car elles fournissent des informations plus
détaillées sur l’état de l’Univers au moment de
l’émission de ces photons (voir « Analyse »). Planck
est ainsi capable de détecter des changements de
température qui sont de l’ordre du millionième de
la température du CMB et ce malgré la présence
à proximité (relative) d’éléments chauds comme la
Terre, la Lune et le Soleil. Pour exemple, si Planck
restait sur Terre, il serait en mesure de détecter le
rayonnement thermique d’un lièvre sur la Lune !
ÉLÉMENTAÍRE
La mission PLANCK
© PLANCK
• l’instrument haute fréquence (HFI), enfin, comporte 52 canaux
répartis dans 6 bandes entre 100 et 900 GHz environ. Ses détecteurs sont des bolomètres (voir « Détection ») qui convertissent
la radiation sub-millimétrique incidente en chaleur. Certains sont
spécialement conçus pour mesurer la polarisation. Pour leur assurer une sensibilité optimale, ils seront refroidis à 100 mK par un
cryostat utilisant un mélange d’hélium 3 et d’hélium 4 suite à un
programme de recherche financé par le CNES. Il s’agit de l’objet le plus
froid jamais lancé dans l’espace !
Le plan focal de l’instrument PlanckHFI en configuration d’étalonnage à
l’Institut d’Astrophysique Spatiale à
Orsay. On voit les cornets qui guident les
ondes jusqu’aux bolomètres de PlanckHFI. Refroidis à 0,1 K et illuminés
à travers une optique spécialement
conçue pour fonctionner à très basse
température et sélectionner une gamme
de longueurs d’onde bien définie dans un
cône étroit (de 10 minutes d’arc environ
d’ouverture).
Planck n’est pas la première mission spatiale à étudier le fond cosmologique. Son ancêtre, COBE, en 1992, avait une résolution de 7° sur le ciel
(une pleine lune correspond à 0,5°). En 2001, WMAP descendait à 15
minutes d’arc, soit une résolution 28 fois meilleure. Moins d’une décennie plus tard, Planck multiplie encore par 3 cette performance, avec une
résolution de 5 minutes d’arc. Quant à la mesure des variations de température, la précision de Planck devrait être environ 10 fois supérieure à
celle de WMAP.
Par ailleurs, grâce à ses nombreux canaux le satellite Planck
va observer le ciel dans 9 fréquences. Les cartes du ciel contiennent la somme des signaux venant du rayonnement fossile,
du système solaire, des galaxies lointaines et de notre Galaxie.
Schématiquement, certaines fréquences mesureront principalement des bruits de fond (rayonnement de la Galaxie, sources lumineuses localisées) tandis que d’autres contiendront la somme
de certains bruits de fond et du signal recherché. Cette technique de mesure directe des bruits de fond afin de les soustraire
est nécessaire afin de diminuer les incertitudes systématiques.
ÉLÉMENTAÍRE
page 31
Vue schématique de la construction des
cartes du ciel. Le ciel est cartographié
pour 9 valeurs différentes de longueur
d’onde. Ces 9 cartes sont ensuite traitées
par informatique afin d’être capable de
dessiner les cartes d’émission de photons
dues à différents processus physiques (6
pour le schéma ci-contre).
La mission PLANCK
Les satellites Herschel (en haut) et
Planck (en bas) dans la coiffe de
la fusée Ariane-5.
La précision et la résolution angulaire des données
de Planck devraient permettre de mesurer la plupart
des paramètres cosmologiques avec des incertitudes
meilleures que le pour cent.
10... 9... 8... 7... 6... 5... 4...
3... 2...
© Herschel
Le satellite a quitté le centre spatial de Liège où les
derniers tests ont été effectués le 17 février 2009. Il a
été transporté à bord d’un avion cargo Antonov jusqu’en Guyane où il est arrivé le mercredi 18 au soir
après une escale de ravitaillement au Cap Vert. Mais
ce n’était que le début du grand voyage de Planck
qui a été lancé le 14 mai 2009, en compagnie du
satellite Herschel, par une fusée Ariane 5.
ax
du e de
tél vis
esc ée
op
e
La mission HERSCHEL étudie la
formation et l’évolution des galaxies
spirales, l’observation spectroscopique de
comètes, l’atmosphère des planètes et de
leurs satellites. Elle va aussi s’intéresser à
la physico-chimie du milieu interstellaire
pour comprendre la naissance des étoiles
et à l’astrochimie du gaz et de la poussière
pour comprendre le cycle de la matière
stellaire et interstellaire.
85°
axe de rotation
© B. Mazoyer
soleil
page 32
Principe de l’observation du ciel par
le satellite Planck. La sonde observe le
ciel en tournant sur elle-même, dos au
soleil.
Il faut deux mois de croisière pour aller jusqu’au second point de Lagrange du système Terre-Soleil (situé à 1,5 millions de kilomètres de nous). À cet endroit, Planck aura en permanence la Terre et la
Lune dans le même hémisphère que le Soleil. Ces trois astres sont en effet
les principales sources de rayonnements parasites. L’arrière de la sonde
est ainsi un bouclier, tapissé de panneaux solaires assurant l’alimentation
en énergie des instruments. De l’autre côté, le télescope pointe vers le
ciel dans une direction située à 5 degrés du plan du bouclier. Du fait de sa
rotation autour de son axe et de son mouvement autour du soleil, tout le
ciel sera couvert en revenant plusieurs fois au même endroit. Cette répétition des mesures assure que l’on contrôlera certains effets systématiques
comme les dérives lentes de la réponse ou du niveau des bruits de fond
des détecteurs. Compte tenu de la position du second point de Lagrange,
le débit des échanges entre la Terre et la sonde sera limité à 6 heures par
jour. Pendant cette période il faudra non seulement collecter les données
compressées mais également recevoir les signaux donnant l’état des appareils et être prêt à envoyer d’éventuelles commandes de correction.
Un des volets importants de l’activité de préparation de Planck concerne
l’analyse des données. Celui-ci a été réalisé en parallèle avec la construction des détecteurs pour déterminer les besoins en calcul et construire
des algorithmes performants et adaptés : vérification de la qualité des
signaux, calibration de la réponse des instruments, étude et soustraction
des bruits de fond, pour arriver à l’évaluation de la corrélation du signal
du CMB pour toutes les paires de points de mesure dans le ciel et à l’analyse proprement dite. Il est prévu que les travaux de la mise en forme des
données nécessiteront une année de travail. Il ne restera plus aux collaborateurs de Planck que douze mois supplémentaires pour extraire tous
les résultats possibles et exploiter complètement les données. En effet,
comme toute expérience spatiale, Planck a vocation à mettre l’ensemble
de ses données à la disposition de la communauté scientifique mondiale
ÉLÉMENTAÍRE
La mission PLANCK
au bout d’un certain temps. Cette limite d’exploitation « privée » étant
prévue courant 2012, les physiciens de Planck auront donc comme
motivation supplémentaire le désir d’extraire la quintessence des données enregistrées avant de les rendre publiques.
© ESA
La température des instruments du satellite (soit 0,1K) devrait être atteinte 50 jours après le lancement. La durée de vie du satellite est
liée directement à la quantité de He3/He4 consommée avec une valeur
minimale estimée à 21 mois. Pendant cette période plusieurs relevés
complets du ciel devraient être faits (au minimum 4 ou 5). L’aventure
est lancée, les données ne vont pas tarder à affluer...
Aéroport de Liège : le container
transportant Planck est placé à l’intérieur
de l’avion cargo Antonov.
Décollage d’Ariane-5, lanceur des satellites, à Kourou le 14 mai 2009 à 15h 12.
page 33
ÉLÉMENTAÍRE
© ESA
Point de Lagrange
La loi de la gravitation, énoncée par Newton dans la seconde moitié du
XVIIe siècle, permet de décrire le mouvement relatif de corps massifs.
Un siècle plus tard, Joseph-Louis Lagrange s’intéresse au problème du
mouvement de trois corps en supposant que l’un d’eux est bien moins
massif que les deux autres : c’est par exemple le cas d’un système satelliteTerre-Soleil. Son formalisme lui permet de découvrir l’existence de cinq
positions d’équilibre, les points de Lagrange, où les forces gravitationnelles
se compensent. Dans la pratique, ces positions d’équilibre ne sont pas
stables mais on peut trouver des orbites proches qui le sont presque : une
consommation limitée de carburant permet de s’y maintenir. Un satellite
placé sur l’une de ces trajectoires suit les deux autres corps dans leurs
mouvements et conserve la même position relative par rapport à eux.
Ainsi, les signaux qu’il reçoit varient peu et sont toujours en provenance
des mêmes directions, ce qui rend ces emplacements très intéressants pour
des mesures de précision comme celles de WMAP. Le second point de
Lagrange (L2) est situé sur l’axe Soleil-Terre, au-delà de notre planète et
ainsi dans l’ombre de la Terre.
Détection
Bolomètres
Bolomètres
Bolomètre vient du Grec « bolē » signifiant « jet »
d’où son emploi pour désigner des rayons lumineux,
et non verre de cidre comme on pourrait l’imaginer.
On retrouve ce terme, par exemple, dans le mot
discobole.
Prototype d’ « Aerodrome » installé sur la catapulte fatale.
Constante solaire
C’est l’énergie solaire arrivant perpendiculairement sur une surface de 1m2 placée
au niveau de l’orbite terrestre. Elle vaut
1367 W/m2. L’énergie reçue au niveau du
sol est inférieure car elle est atténuée par
l’atmosphère et dépend de la direction du
Soleil.
Pont de Wheatstone
On dit qu’il est à l’équilibre lorsque aucun
courant ne passe dans l’ampèremètre (A).
Dans ce cas les valeurs des résistances
satisfont l’égalité : R1 x R4 = R2 x R3
Si une des résistances change, on peut relier
sa variation au courant circulant entre les
deux bras.
Principe de fonctionnement d’un bolomètre
Les bolomètres ont été inventés vers la fin des années 1800 par Samuel
Pierpont Langley qui est un des pionniers du passage de l’astronomie
à l’astrophysique : il a cherché à appliquer les lois de la physique pour
expliquer le rayonnement stellaire ainsi que l’influence du rayonnement
solaire sur la Terre. À l’époque, on s’intéresse à la constante solaire et à
l’énergie émise par le Soleil en fonction de la longueur d’onde. Pour ces
mesures, Langley développe, à partir d’une idée non concrétisée d’Adolf
Ferdinand Svanberg (1806-1857), un nouveau type d’appareil utilisant la
variation de la résistance des métaux avec la température : le bolomètre.
Les rayons du Soleil sont focalisés sur une feuille de platine très mince
(de l’ordre du micron) ce qui induit une variation de la température du
métal ainsi que de sa résistance électrique. Ce changement est mesuré, à
l’époque, en utilisant un pont de Wheatstone dont les autres résistances
sont maintenues à température constante par contact avec un bain thermique.
L’instrument est sensible à des variations infimes de température (soit, disait-on
à l’époque, « à la présence d’une vache paissant à 500 mètres de l’appareil »).
Pour ne pas être perturbé par les ruminants ni par les nombreuses usines
sidérurgiques de Pittsburgh (ville située à proximité de l’observatoire où il
effectuait ses recherches), Langley fait des mesures au sommet du mont Whitney
situé dans les Montagnes Rocheuses au Sud Est de la Californie. Opérer en
altitude a aussi l’avantage de diminuer les effets parasites de l’atmosphère.
Son expédition est relatée dans le New York Times en juillet 1881 avec une
typo malencontreuse qui parle de « balometer » (que l’on pourrait traduire par
«détecteur de ballot») alors qu’en pratique pour mettre en œuvre cet instrument
extrêmement sensible, il faut dépenser des trésors d’ingéniosité pour être sûr
que les variations observées sont bien le résultat du phénomène étudié.
page 34
DR
DR
Samuel Pierpont Langley
(1834-1906), est un astrophysicien américain qui a
effectué des travaux pionniers
dans la mesure de la constante
solaire et dans l’étude de la
partie infrarouge du spectre
solaire (1894).
Pour ces
mesures, il invente et développe le bolomètre. Dans
les années 1880 il participe aux débuts de l’aviation,
étudiant en soufflerie les différents paramètres
conditionnant le vol d’un plus lourd que l’air. Il
fait voler plusieurs prototypes sans pilote, dès 1896,
mais échoue par deux fois dans ses tentatives de vol
piloté. En octobre et décembre 1903, son prototype
« Aerodrome A » ne survit pas au lancement par une
catapulte bâtie sur la rivière Potomac en Virginie
(rassurez-vous le pilote n’a pas péri). Quelques jours
plus tard les frères Wright effectuent leur premier vol
dans l’état voisin de Caroline du Nord.
Comme leur nom l’indique, les bolomètres sont sensibles à l’énergie
déposée par un rayonnement. Inventés pour l’observation du Soleil à la
fin du XIXe siècle, ils restent les plus performants dans le domaine allant
de l’infrarouge aux ondes millimétriques, bien que de nombreux autres
appareils, basés sur des technologies différentes, aient été développés. D’où
l’utilisation des bolomètres sur le satellite Planck (voir « Expérience »). Ils
sont aussi employés dans un tout autre champ de recherches que nous
évoquerons également à cause de ses liens avec la cosmologie : celui de
la « matière noire ».
Le principe du bolomètre consiste donc à
transformer en chaleur l’énergie transportée
par un rayonnement et à mesurer l’élévation
de température correspondante via un circuit
électrique. De nos jours, il comporte un absorbeur
et un thermomètre, dont le rôle est joué par une
thermistance, qui est en contact avec un bain
thermique ou source froide. Un courant, dit de
polarisation, traverse en permanence la résistance
dont on mesure la tension aux bornes. Sans apport
ÉLÉMENTAÍRE
Principe du fonctionnement d’un bolomètre.
extérieur, le système fonctionne à température constante et est à l’équilibre,
����������
c’est-à-dire que la puissance produite dans la résistance par effet Joule est �����������
������������
évacuée en permanence vers la source froide. Si l’absorbeur reçoit l’énergie
véhiculée par un photon, celle-ci provoque une élévation de température
�����������
�����������
qui induit une variation de la résistance (appelée thermistance à cause
de cette propriété) ce qui modifie la tension mesurée. C’est ce signal qui
est enregistré après avoir été amplifié. Sa durée dépend de la capacité
�������������
thermique de l’absorbeur et de la vitesse d’évacuation de la chaleur. Les
���������
bolomètres sont refroidis à très basse température afin de diminuer la valeur
��������������
de la capacité thermique ce qui permet d’augmenter leur sensibilité à des
dépôts d’énergie de plus en plus faibles. Opérer à basse température est aussi
Bain thermique
un moyen de diminuer l’importance des différentes sources de bruit.
Réservoir de matière ayant une grande
inertie thermique, dont la température reste
constante et qui sert à évacuer la chaleur
déposée dans le bolomètre.
Les photons du Big Bang capturés par la
toile d’araignée de Planck
En plus de sélectionner un domaine de longueurs d’onde, la structure adoptée
pour ces bolomètres a d’autres avantages. Sa faible masse fait qu’elle est
peu sensible à la présence de rayons cosmiques, qui vont pour la plupart
la traverser sans y interagir. Pour la même raison, elle est peu sensible aux
vibrations issues de l’environnement et notamment lors du lancement du
satellite. Enfin, sa faible capacité thermique entraîne une réponse rapide à
un dépôt de chaleur.
Au signal recherché – les photons du CMB (voir « Découverte ») dont les
fréquences étudiées par Planck varient entre 100 et 860 GHz – s’ajoutent
de nombreux bruits de fond dont l’importance est diminuée par le
fonctionnement à basse température des bolomètres et par l’utilisation d’une
modulation temporelle (connue) des signaux recherchés. Cette dernière
propriété vient du mouvement de Planck, qui effectue une rotation autour
de son axe toutes les minutes. Compte tenu de l’extrême sensibilité des
bolomètres, leur conception et leur installation ont nécessité d’étudier et de
maîtriser ces différentes sources de bruit. Des mesures au sol sur le satellite
complet ont permis de s’assurer que le système atteindra une sensibilité 10
fois supérieure à celle de la mission précédente (WMAP).
Certains des bolomètres équipant le satellite Planck permettent de mesurer
la polarisation des photons incidents. De conception similaire à ceux décrits
ÉLÉMENTAÍRE
Capacité thermique
C’est le rapport entre l’énergie déposée dans
un corps et la variation de température
correspondante. À très basse température
la capacité thermique peut devenir
extrêmement faible. On obtient ainsi des
variations de température mesurables pour
d’infimes dépôts d’énergie.
Plomb archéologique : pour obtenir du plomb
peu radioactif on doit éliminer les noyaux
instables qu’il contient. Si ces noyaux ne sont pas
du plomb, des méthodes chimiques de séparation
peuvent être utilisées. La radioactivité résiduelle
provient alors d’isotopes instables du plomb et
notamment du 210Pb qui a une période de 22 ans.
Cet isotope est issu de la désintégration du radon,
un gaz émis en permanence depuis le sol par la
désintégration de l’238U présent dans la croûte
terrestre. On fabrique les lingots en réduisant
de l’oxyde de plomb avec du charbon issu de
végétaux contenant du 210Pb. Ces noyaux vont se
répartir dans tout le volume du métal et vont donc
concourir à la radioactivité des lingots. Le plomb
dit archéologique a l’avantage de ne plus contenir
pratiquement de cet élément : extrait des mines
et coulé en lingots au cours de l’Antiquité, il a
séjourné par exemple sous terre ou dans la mer. Le
210
Pb contenu dans les lingots s’est désintégré au
bout de quelques siècles tandis que les nouveaux
dépôts de cet isotope, qui ont lieu en permanence,
n’ont affecté que la surface des lingots. Le plomb
utilisé dans Edelweiss est issu de la cargaison de
22 tonnes d’un bateau celte qui a fait naufrage
vers l’an 400 sur le site des Sept Îles.
page 35
Les bolomètres installés sur le satellite Planck ont été fabriqués par le Jet
Propulsion Laboratory (Pasadena, États-Unis). L’absorbeur est une structure
mince en nitrure de silicium recouverte d’une couche d’or, d’épaisseur
voisine du micron. Elle est dite en toile d’araignée car elle comporte de
nombreux vides. L’absorbeur sélectionne ainsi les longueurs d’onde dont la
valeur est supérieure à la taille de ces structures. Les photons dont la longueur
d’onde est plus courte traversent l’absorbeur pratiquement sans interagir. Cet
absorbeur est relié au bain thermique, maintenu à 0,1 K, par une dizaine de
bras et en son centre est placée une thermistance en germanium de 100 x
100 x 25 μm3.
Bolomètres s
précédemment, ils sont équipés de grilles qui absorbent seulement les
photons dont le champ électrique est parallèle aux fils. Une seconde
grille, dont les fils sont perpendiculaires à ceux de la précédente, absorbe
l’autre composante de la polarisation. Chaque grille est reliée à une
thermistance.
© Edelweiss
De l’arachnéen au massif : Edelweiss
Vue partielle de l’expérience Edelweiss
montrant certains des écrans de protection
(blindage en plomb), et le cryostat, qui sert
à maintenir à 20 mK la température des
détecteurs placés à l’intérieur du gros capot
en cuivre.
© Edelweiss
L’énergie cinétique de recul
Lorsqu’une particule de matière noire entre
en collision avec un noyau ce dernier va se
déplacer. L’énergie cinétique qu’il acquiert
dépend de celle de la particule incidente (E)
et de l’angle suivant lequel elle est diffusée.
Cette énergie varie entre zéro et une valeur
maximale qui est déterminée par les masses
(m et M) du projectile et de la cible. Elle est
égale à :
4 m ME/(m + M)2.
Pour des particules de matière noire ayant
des masses (m) comprises entre 10 et 1000
GeV/c2 l’énergie de recul maximale varie
entre 1 et 100 keV. La limite de détection
pour Edelweiss est aux environs de 20 keV.
Germanium : plusieurs matériaux sont
utilisés pour détecter la matière noire. Le
germanium en fait partie car il permet de
mesurer à la fois l’énergie de la collision et
l’ionisation créée par le noyau de recul. Il
peut être d’autre part utilisé sous forme de
cristaux très purs et de masse élevée.
page 36
Un des cristaux en germanium : son diamètre
est de 70 mm et son épaisseur de 20 mm.
L’expérience Edelweiss (Expérience pour DEtecter Les Wimps En Site
Souterrain) se propose de détecter la présence de matière noire dans notre
environnement. Les particules recherchées sont neutres, relativement
lourdes et animées d’un mouvement tel qu’elles restent piégées dans
la Galaxie. Elles ont une faible probabilité d’interagir avec la matière
ordinaire. En fonction de différents modèles, on s’attend à une interaction
par kilogramme - voire par tonne - et par an. Si une de ces particules entre
en collision avec un noyau atomique, ce dernier se déplace sous l’effet
du choc et on mesure l’énergie cinétique de recul qui doit être comprise
entre quelques keV et quelques dizaines de keV. Cette valeur dépend de
la masse des particules et de leur vitesse. Contrairement au cas de Planck,
on utilise l’absorbeur le plus massif possible de manière à augmenter la
chance que des particules de matière noire y interagissent. On a choisi
pour cela des cristaux de germanium de 320 g chacun. La première
phase de l’expérience, maintenant terminée, comportait 3 cristaux ;
120 devraient équiper au final la seconde. Si la présence de matière est
nécessaire pour la détection de la matière noire, elle rend également
l’appareil sensible à de nombreux bruits de fond. Pour se protéger des
rayons cosmiques l’expérience fonctionne dans le tunnel du Fréjus. On
a également construit le détecteur, et le blindage qui l’entoure, avec des
matériaux faiblement radioactifs ; ainsi du plomb archéologique est utilisé
dans le blindage. L’interaction de photons dans les cristaux reste malgré
tout 100 000 fois plus probable que les signaux recherchés. Ces photons
proviennent principalement de désintégrations de substances radioactives
contenues dans le blindage de cuivre le plus externe. Afin de réduire cette
pollution on mesure non seulement l’énergie déposée dans les bolomètres
mais aussi l’ionisation générée dans les cristaux. Cette dernière est, pour
un même dépôt d’énergie, 3 à 4 fois plus faible quand elle est produite par
un noyau de recul que par un électron (éjecté d’un atome par un photon
ayant interagi).
L’expérience Edelweiss espère observer prochainement un signal car
elle est maintenant sensible à une gamme de masses et de probabilités
d’interaction compatibles avec certains modèles de matière noire.
Leur vitesse : la vitesse des particules de matière noire par rapport à la Terre résulte de la
composition de plusieurs mouvements. Tout d’abord ces particules se déplacent au sein du
halo entourant la Galaxie selon un mouvement supposé isotrope avec des vitesses distribuées
suivant une loi de Maxwell dont la valeur moyenne est estimée à 270 km/s. On doit y ajouter
le mouvement de rotation galactique (~ 230 km/s), de celui du soleil par rapport aux étoiles
voisines (~10 km/s) et enfin de la rotation de la Terre autour du Soleil (~30 km/s) et on néglige
le mouvement propre de la rotation terrestre.
ÉLÉMENTAÍRE
Retombées
Le GPS
Premier septembre 1983 : en provenance de New York via Anchorage
(Alaska) et à destination de Séoul, le vol 007 de la Korean Airlines s’écarte
de sa trajectoire. Le réglage incorrect du pilote automatique échappe à
la vigilance de l’équipage et le Boeing 747 pénètre dans l’espace aérien
soviétique. Repéré par les radars et pris en chasse par des appareils
militaires il est, selon la version la plus vraisemblable, confondu avec
un avion espion américain qui vole dans la même zone, de grande
importance stratégique. L’appareil est abattu et ses 269 occupants trouvent
la mort au large de l’île de Sakhaline. Suite à cette tragédie qui marque un
renforcement très net de la guerre froide, le président américain Ronald
Reagan annonce que le « GPS », alors encore en développement, sera
accessible aux civils (et donc aux avions de ligne) une fois opérationnel.
Ironie de l’Histoire, c’est donc une page sombre du XXe siècle qui est à
l’origine du transfert vers le grand public de cette technologie militaire.
Écusson du système GPS.
Effet Doppler
Les ondes (sonores ou électromagnétiques)
émises par une source en déplacement
voient leur longueur d’onde (et donc leur
fréquence) modifiée quand elles sont
captées par un récepteur immobile. Ainsi
le bruit d’un moteur nous paraît plus aigu/
grave quand la voiture vient vers nous/se
fait plus distante. De même, la lumière en
provenance d’une galaxie qui s’éloigne de
la Voie Lactée est « décalée vers le rouge ».
Plus généralement, la différence entre la
longueur d’onde du signal reçu et celle qu’il
aurait si sa source était immobile permet de
déterminer la vitesse relative de l’émetteur
par rapport au récepteur.
La mise au point du GPS est l’aboutissement de plusieurs décennies de
recherche. En effet, les premiers systèmes de guidage des avions par ondes
radio depuis le sol apparaissent lors de la seconde guerre mondiale.
En 1957, des scientifiques américains sont chargés de surveiller les
transmissions radio de Spoutnik, le premier satellite artificiel lancé par
l’URSS le 4 octobre de cette même année. Ils découvrent alors que les
variations du signal émis par l’engin spatial (et plus particulièrement la
modification de la fréquence du signal qu’il émet par effet Doppler)
donnent accès à sa position le long de son orbite à condition de connaître
avec précision les coordonnées de l’endroit d’où ils effectuent leurs
observations. Dès 1960 – les premiers vols habités n’auront lieu que
l’année suivante –, une constellation de cinq satellites permet à la marine
américaine de connaître la position de ses bâtiments une fois par heure.
En 1968, le système de navigation Omega, associant sept pays dont les
Etats-Unis et la France, utilise les informations de huit stations au sol
pour localiser avions et navires, avec pour objectif de couvrir l’ensemble
des océans du globe. La précision limitée des mesures, entre cinq et dix
kilomètres en moyenne, ne permet que le guidage en haute mer. D’abord
réservé aux militaires, Omega s’ouvre peu à peu aux civils ; le système
est finalement abandonné en 1997, victime du succès de la technologie
GPS.
ÉLÉMENTAÍRE
DR
page 37
Le GPS (« Global Positioning System » en français « Géo-Positionnement par
Satellite » pour conserver l’acronyme) est un système permettant d’établir
précisément la position d’un récepteur (R), a priori situé n’importe où sur
la Terre. Pour cela, ce dernier reçoit à intervalles réguliers des signaux
provenant de satellites (S) dont les positions sont connues en temps réel
et les traite grâce à son calculateur intégré. Les ondes électromagnétiques
(lumière, radio, etc.) se déplaçant à la vitesse de la lumière, le temps
mis par un signal pour aller d’un satellite au récepteur donne la distance
(D) séparant les deux objets. Le récepteur se situe donc quelque part sur
une sphère de centre S et de rayon D. En combinant les informations de
plusieurs satellites, on obtient autant de sphères dont l’intersection fournit
finalement la position précise de R. La même mesure effectuée à des instants
R
D
S
Reconstruction de la position du récepteur
à partir des mesures des satellites GPS.
Le GPS
successifs permet ainsi de suivre les déplacements du récepteur (vitesse et
direction), qu’il soit sur le bateau d’un navigateur solitaire doublant le Cap
Horn ou dans votre voiture.
Les premiers satellites GPS sont lancés en 1978. Les mises sur orbite se
succèdent ensuite, afin d’augmenter la taille de la flotte et de remplacer les
anciens instruments par de nouveaux, plus performants. Le système devient
opérationnel sur l’ensemble du globe en 1995 ; enfin, le 1er mai 2000, le
président américain Bill Clinton annonce la fin du système de brouillage des
signaux destinés aux civils : la précision des mesures s’améliore d’un facteur
dix, ce qui ouvre la voie à la diffusion du GPS – rien qu’en France 2,5 millions
de récepteurs ont été vendus en 2007.
Le GPS comment ça marche ?
Un satellite GPS, exposé au musée de
l’Air et de l’Espace à San Diego (Californie).
page 38
© ASSDM
Les 31 satellites GPS actuellement en orbite
se répartissent sur six orbites inclinées de
55 degrés par rapport à l’équateur et d’altitude moyenne 20 200 km. Chacun de ces
plans contient au minimum quatre satellites
répartis de manière équidistante et on passe
d’une orbite à ses voisines par une rotation
de ±60 degrés autour de l’axe Sud-Nord.
Dans cette configuration, quatre (six) satellites sont visibles de n’importe quel point
du globe (presque) en permanence. À hautes latitudes les satellites sont plus bas sur
l’horizon sans que cela n’affecte de manière
significative la précision de la mesure GPS.
Le système est également robuste vis-à-vis
de pannes multiples.
Pour connaître les trois grandeurs (latitude, longitude et altitude) définissant
la position d’un objet sur Terre il faut au minimum trois informations et donc,
dans le cas du GPS, trois satellites. En fait, cette configuration minimale n’est
pas satisfaisante, à la fois pour une raison fondamentale sur laquelle nous
reviendrons dans la suite, mais aussi parce que la précision des mesures
dépend de la position des satellites, laquelle varie en permanence. De plus,
des problèmes temporaires sur l’un ou l’autre des émetteurs ne doivent pas
interrompre la circulation de l’information GPS. Il y a donc au minimum 24
satellites GPS en orbite, disposés de manière à ce que quatre d’entre-eux au
minimum (et bien plus la plupart du temps) soient visibles quelle que soit la
position du récepteur sur Terre. Ils font un tour de la Terre en 11 heures 58
minutes et reviennent donc régulièrement à la même position dans le ciel, ce
qui simplifie leur suivi depuis le sol. Leur guidage est assuré par l’armée de
l’air américaine depuis ses bases enterrées dans les Montagnes Rocheuses au
Colorado et par un réseau de stations de télémétrie réparties sur l’ensemble
du globe.
En plus des données à usage purement militaire, chaque satellite GPS émet
deux types de signaux « en clair », à destination des civils. Leur fréquence,
de l’ordre du gigahertz, est un compromis entre spécifications techniques et
lois physiques gouvernant la propagation des ondes électromagnétiques dans
l’atmosphère.
• Une suite de 1023 bits répétée toutes les millisecondes est utilisée pour
déterminer la distance émetteur-récepteur.
• Le signal de navigation est émis avec un débit de 50 bits/s et chaque
message dure typiquement 30 secondes. Durant les six premières, le satellite
envoie des informations sur son état – un engin dont l’orbite est instable, par
exemple parce qu’elle est en train
d’être modifiée depuis le sol, ne
Bits
doit pas être utilisé pour déterminer
Le bit est le bloc d’information élémentaire :
une position GPS – ainsi que des
il ne peut prendre que deux valeurs, 0 ou
paramètres de correction pour les
1. Tout chiffre, et plus généralement tout
caractère, peut être codé par une succession
horloges atomiques embarquées.
de bits et la transmission d’information
Ensuite, l’éphéméride, c’est-àpar le biais de cet alphabet, est à la base de
dire tout ce qu’il faut savoir sur
l’électronique et de toutes ses applications.
l’orbite particulière du satellite, est
ÉLÉMENTAÍRE
Déterminer la distance émetteur-récepteur
Chaque satellite émet une suite de 1023 bits
qui lui est propre. Les séries utilisées sont aussi
différentes que possible de manière à assurer
une identification sans erreur des émetteurs
visibles. Le récepteur les connaît toutes et les
génère en boucle. Il estime ainsi la distance le
séparant de chacun des satellites en comparant
les séquences produites avec les signaux
reçus.
Le principe est simple : chaque série de bits
peut être vue comme une bande de tissu
bicolore (par exemple blanc pour « 0 » et noir
pour « 1 »). Posant les bandes « émetteur »
et « récepteur » l’une sous l’autre, le décalage
entre les deux motifs permet de remonter à
la distance séparant les deux instruments. En
pratique, l’opération est plus complexe : la bande
de tissu livrée par le satellite arrive « froissée »
(à cause de l’effet Doppler dû au mouvement
relatif entre émetteur et récepteur) et « salie »
(du bruit parasite s’est ajouté au signal sur
son parcours) ; il faut donc la « repasser » et
la « nettoyer » pour assurer le succès de la
comparaison. La précision du résultat est très
bonne : de l’ordre du centième de l’intervalle
de temps séparant deux bits consécutifs, soit
trois mètres environ une fois convertie en
distance – la vitesse de propagation des ondes
électromagnétiques vaut 300 000 km/s.
Le GPS
transmis pendant douze secondes. Bien que ces données soient valables
quatre heures, elles sont normalement mises à jour toutes les deux heures.
Enfin vient l’almanach, un ensemble d’informations sur la constellation dans
son ensemble (orbite, statut technique, code numérique d’identification, etc.
pour chaque satellite) ainsi que des données environnementales nécessaires
pour corriger la mesure. L’almanach représentant un volume de données
conséquent, chaque message met à jour 4% de son contenu.
Précisions, corrections et
applications et limites du GPS
erreurs :
© N. Arnault
11 satellites GPS (en jaune) visibles par un récepteur situé à Rome
le 28 juillet 2008 à 17h20.
ÉLÉMENTAÍRE
page 39
À la base du GPS se trouvent donc des mesures de temps
dont la précision doit être d’autant plus grande que le
facteur de conversion temps → distance – la vitesse de propagation des
ondes électromagnétiques – est gigantesque : une erreur d’un millionième
de seconde conduit à une position fausse de trois cent mètres ! Non
seulement vous n’êtes pas dans l’allée du garage de beau-papa mais en
plus vous avez probablement roulé sur les rosiers très rares de belle-maman
avant d’atterrir avec votre voiture dans le ruisseau en contrebas... Pour
éviter ce scénario catastrophe, les inventeurs du GPS ont pensé à tout : la
redondance des mesures (quatre au minimum pour déterminer seulement
trois coordonnées ; un récepteur standard est aujourd’hui capable de lire
douze, voire vingt canaux en parallèle) permet de calculer et de corriger le
décalage du récepteur par rapport aux émetteurs, synchronisés entre eux
grâce aux informations contenues dans les messages de navigation.
Une difficulté supplémentaire provient du
fait que la séquence est courte : elle revient
toutes les millisecondes soit tous les 300 km à
la vitesse de la lumière ! La mesure n’est donc
pas absolue puisqu’elle correspond à plusieurs
distances, une seule étant correcte. La position
du récepteur est déterminée par itérations
successives en comparant les données
issues de plusieurs satellites et en utilisant
sa dernière position connue. Ceci explique
pourquoi la phase d’initialisation d’un boîtier
GPS longtemps éteint peut être assez longue,
surtout s’il a été transporté sur une grande
distance : en plus de prendre contact avec
les satellites maintenant visibles, il lui faut
comprendre où il se trouve !
Retombées
Le GPS
© B. Mazoyer
Horloges atomiques
Mesurer un temps revient toujours à compter le nombre de fois où un phénomène répétitif ou défini par convention (oscillation d’un balancier,
seconde, etc.) se produit pendant la « durée » d’observation. Une horloge est donc un métronome dont la précision dépend de la stabilité de la
mesure qu’elle bat. Celles qui sont actuellement – et de très loin – les meilleures sont basées sur une conséquence de la mécanique quantique :
l’énergie d’un atome est quantifiée, c’est-à-dire qu’elle ne peut prendre que des valeurs bien précises. L’état fondamental correspond à l’énergie
la plus basse tandis que les autres niveaux décrivent des états dits « ex-cités ». Les
seules transitions permises correspondent à l’absorption (l’émission) d’un photon
détecteur
apportant (emportant) exactement la différence d’énergie entre les états final et
B
B
cavité
initial. Or l’énergie d’un photon est directement proportionnelle à la fréquence de
A+B
B
A+
A
l’onde électromagnétique associée.
A
Il « suffit » ainsi d’utiliser une transition atomique particulière d’un état « A » à
four
un état « B » pour obtenir un étalon de fréquence parfaitement stable. Une horloge
atomique contient un oscillateur mécanique (par exemple un morceau de quartz
comme dans les montres-bracelets) dont le battement est accéléré jusqu’à avoir une
fréquence aussi proche que possible de celle de la transition atomique utilisée.
f = 9 192 631 770 Hz
L’oscillation ainsi générée est convertie en signal électrique puis envoyée dans une
cavité spécialement conçue pour entretenir une onde électromagnétique de même
asservissement
fréquence et dans laquelle des atomes dans l’état A sont injectés. Les passages A →
B sont d’autant plus probables que la fréquence est proche de celle de la transition
Principe de fonctionnement d’une horloge atomique
atomique – phénomène dit de résonance. La comparaison du débit d’atomes dans
l’état A/B à l’entrée/sortie de la cavité est finalement utilisée comme « signal d’erreur » et sert à ajuster l’oscillation mécanique.
Une fois le système stabilisé (dans la réalité, les opérations décomposées ci-dessus s’enchaînent et se répètent continuellement), on dispose d’un
métronome ultra-précis sur des durées très longues : en février 2008, des scientifiques de l’université de Boulder ont annoncé avoir mis au point
une horloge dont l’erreur est inférieure à une seconde chaque 200 millions d’années. Une telle montre mise en route lors de la formation de la
Terre serait décalée de moins de trente secondes aujourd’hui !
page 40
Horloge atomique à « fontaine de césium »
utilisée comme référence aux États-Unis
depuis l’an 2000. Une horloge similaire est
employée comme étalon en France. En effet,
la définition officielle de la seconde (et par
ricochet celle du mètre puisque la vitesse de
la lumière dans le vide est fixée à 299 792
458 m/s) est actuellement basée sur une
transition particulière de l’atome de césium
137 dont la fréquence vaut très précisément
9 192 631 770 Hz. Les atomes de césium,
refroidis et donc ralentis autant que
possible, sont injectés de bas en haut dans la
cavité contenant l’onde électromagnétique
de très haute fréquence : comme ils finissent
par retomber sous l’effet de leur poids, le
temps qu’ils passent dans celle-ci est donc
doublé ce qui améliore la précision de la
mesure. Dans les satellites GPS, les horloges
atomiques embarquées sont évidemment
beaucoup moins encombrantes.
La précision du GPS vient également de la rigueur et de la qualité des lois
physiques sur lesquelles il est basé. En particulier, deux effets relativistes
dégraderaient considérablement les performances du système s’ils étaient
ignorés. La Relativité Restreinte nous apprend que les horloges des
satellites – en mouvement à grande vitesse (environ 10 600 km/h) autour
de la Terre – battent plus lentement que celles restées immobiles au sol.
La différence n’est pas négligeable, 7,2 microsecondes (µs) par jour ou
2200 mètres d’erreur environ pour un signal voyageant à la vitesse de la
lumière. Quant à la Relativité Générale, elle prédit un effet opposé et plus
conséquent (45,9 µs/jour) dû au fait que le champ gravitationnel est plus
faible en orbite. Le décalage cumulé est donc d’environ 39 µs/jour. Pour
le compenser, la fréquence des horloges embarquées est légèrement plus
faible que celles des stations au sol : 10,22999999543 MHz au lieu de
10,23 MHz.
De plus, les conditions atmosphériques influent sur la propagation des
impulsions GPS – la vitesse de la lumière n’est constante que dans le vide
absolu ; ailleurs elle est plus faible et varie en fonction du milieu traversé.
Ces effets, inconnus a priori puisqu’ils dépendent de la densité de l’air,
jouent d’autant plus que l’émetteur est bas sur l’horizon et le récepteur
à faible altitude. Les variations d’humidité et de pression dans les basses
couches de l’atmosphère sont locales et évoluent rapidement ce qui rend
leur prise en compte difficile. Par contre, leur effet dépend de la fréquence
de l’onde électromagnétique. Or, un satellite GPS émet plusieurs signaux
à des fréquences bien distinctes. En comparant leurs distorsions, on peut
estimer la correction à apporter à la mesure sans même avoir besoin de
décoder les signaux supplémentaires utilisés comme référence.
ÉLÉMENTAÍRE
Le GPS
0.0
0.1
0.2
0.3
0.4
Précision du GPS
Un récepteur du commerce a une précision d’environ
5 mètres. Cette valeur remarquable suffit à expliquer
le succès de cet outil auprès du grand public et vaut
la peine qu’on s’y arrête un instant. Que signifie-t-elle
en pratique ? On peut représenter la distribution de
l’erreur d’une position GPS donnée, par exemple celle de la Tour Eiffel à Paris, par une
fonction gaussienne, de moyenne μ et d’écart-type σ. μ vaut évidemment 0 (faute de quoi le
34.1% 34.1%
relevé GPS serait décalé d’une quantité fixe ce qui n’aurait pas beaucoup d’intérêt) tandis que
σ correspond à la précision : σ = 5 mètres
2.1%
2.1%
0.1%
0.1%
13.6%
13.6%
Comme le montre la figure ci-dessus, 68,2% des mesures donnent effectivement un résultat
meilleur que « 1σ », soit 5 mètres. Par contre, dans environ un tiers des cas, l’erreur est plus
−3σ
−2σ
−1σ
µ
1σ
2σ
3σ
grande. Par exemple la probabilité qu’elle dépasse 10 mètres (« 2σ ») n’est pas négligeable :
4,4%. Heureusement, la fonction gaussienne décroit assez rapidement à mesure que l’écart par rapport à sa moyenne (là-aussi exprimé en
« unité de σ ») augmente et seules 2 mesures sur 1000 environ sont fausses de plus de 15 mètres (« 3σ »).
Au final, une précision de 5 mètres signifie que le GPS donne « souvent » un résultat meilleur et qu’il ne se trompe « presque jamais » de plus de
15 mètres. Dans certains cas (relevés topographiques, séismologie ou volcanologie, transport, etc.) ces performances se révèlent insuffisantes
et des systèmes plus complexes doivent être mis en place pour les améliorer. Le GPS différentiel utilise une station de référence proche dont la
vraie position est connue avec précision. La comparaison entre cette valeur et la mesure donne l’ordre de grandeur de l’erreur GPS à un instant
donné et cette information permet de corriger le relevé du point étudié. Dans le domaine du transport aérien les systèmes WAAS (États-Unis)
et EGNOS (Europe, encore en développement) servent au guidage de précision des avions dans les phases d’atterrissage et de décollage : leur
précision est de l’ordre du mètre, simultanément dans les trois dimensions d’espace.
Un des premiers récepteurs GPS grand
public, exposé au Musée de la Science
et de l’Industrie de Chicago.
Logo du futur système européen de positionnement global par satellite Galileo.
page 41
ÉLÉMENTAÍRE
© Élémentaire
Les réflexions multiples (sur un immeuble, dans une vallée encaissée, etc.)
sont une autre source potentielle d’erreur de mesure car elles allongent
le parcours des ondes. On peut s’en affranchir quand le récepteur est en
mouvement car les signaux réfléchis donnent des positionnements aberrants
et donc facilement détectables. Parmi les autres limitations du système, on
peut citer la faiblesse du signal reçu sur Terre et la facilité avec laquelle il
peut être perturbé, au moins localement, par d’autres émetteurs utilisant le
spectre électromagnétique.
Un dernier atout du GPS, et pas le moindre, est qu’il est entièrement basé
sur une technologie passive : comme son nom l’indique, le récepteur ne
fait que ... recevoir et ne renvoie aucune information, ce qui rend illimité
le nombre potentiel d’utilisateurs. Vue d’Europe, le seul point critiquable
de ce système de navigation est le fait qu’il est propriété des États-Unis et
que ses satellites sont contrôlés par l’armée américaine. Cette dépendance
stratégique n’étant pas souhaitable sur le long terme, l’Union Européenne
s’est lancée dans la mise au point de son propre système de positionnement
par satellite, Galileo. Cette initiative, très mal vue au départ OutreAtlantique, a finalement été acceptée et un accord a été trouvé pour que
les utilisateurs puissent passer d’un type de signal à l’autre dans le cas où
celui qu’ils utiliseraient aurait une défaillance.
Après de nombreux retards dus en grande partie à la nécessité d’adapter
les demandes de participation des États aux réalités industrielles et à la
recherche d’un équilibre entre secteurs public et privé, le projet semble
enfin être sur les bons rails. La phase de démonstration des technologies,
marquée par le lancement de deux satellites est en voie d’achèvement ;
elle sera suivie par l’envoi de quatre satellites de validation – en 2010
au plus tôt – avant un déploiement de la constellation (une trentaine de
satellites au total) vers 2013-2015.
Analyse
Transformée de Fourier et...
DR
Joseph Fourier (1768-1830), effectue des
études si brillantes à l’École royale militaire
d’Auxerre, ville dont il est originaire, qu’il y
devient professeur avant d’avoir dix-sept ans.
Ses origines modestes (fils de tailleur, orphelin à
neuf ans) l’empêchent d’entrer dans l’artillerie
– d’après Arago, le ministre de la Guerre de
l’époque aurait déclaré « Fourier n’étant pas
noble, ne pourrait entrer dans l’artillerie,
quand il serait un second Newton ». Un
temps tenté par le séminaire, la Révolution
française le fait changer de trajectoire. Il
est élève à l’École Normale Supérieure tout
juste créée, puis professeur à l’École Polytechnique (1794) après avoir été
repéré par Monge. Ce dernier l’emmène en Égypte avec Bonaparte en 1798
pour une expédition aux objectifs à la fois militaires et scientifiques. Si les
Anglais remportent finalement la victoire sur le terrain, les savants présents
sur place accumulent une quantité impressionnante d’informations dans
de nombreux domaines. Fourier coordonne la publication du rapport de
l’expédition « Description de l’Égypte » : dix volumes de planches gravées,
neuf de texte et un atlas. Ses qualités d’organisateur et de négociateur qui
se sont révélées à cette période conduisent le Premier Consul à le nommer
préfet de l’Isère, poste que Fourier n’accepte qu’à contrecœur car il est
d’un naturel extrêmement frileux – la petite histoire, très certainement
apocryphe, veut d’ailleurs expliquer par cette particularité physique la
persévérance qu’il a montrée dans l’étude de l’équation de la chaleur.
Destitué par Louis XVIII après l’abdication de Napoléon, il retrouve son
poste lors des Cent Jours mais le perd tout aussi vite car il s’oppose à la
politique répressive qu’on lui demande d’appliquer. Malgré cela il est
ostracisé lors de la Restauration et traverse une période difficile – tout
comme la communauté scientifique, divisée entre partisans de l’Empire
et royalistes. Finalement ses compétences scientifiques sont reconnues
et il accède à la reconnaissance qu’il mérite. Laissons le mot de la fin à
Auguste Comte lui rendant hommage après sa mort : « (...) je ne crains pas
de prononcer, comme si j’étais à dix siècles d’aujourd’hui que, depuis la
théorie de la gravitation, aucune création mathématique n’a eu plus de
valeur que celle-ci [l’œuvre de Fourier], quant aux progrès généraux de la
philosophie naturelle (...) ».
Un préfet mathématicien
Notre histoire commence en Isère dans les années 18041807. Joseph Fourier est préfet de ce département,
unité administrative créée par l’Assemblée Constituante
en 1789. À première vue, rien ne le distingue de ses
collègues qui gèrent la France pour Napoléon sous
le Consulat comme sous l’Empire. Pourtant, il a une
qualité particulière qui le fera passer à la postérité. Cela
aurait pu être sa popularité qui rendrait jaloux beaucoup
de personnalités publiques actuelles – on raconte que
les Grenoblois s’arrêtaient pour le saluer lorsqu’ils
le croisaient dans la rue – ou encore son « Mémoire
sur les températures du globe terrestre et des espaces
planétaires » (1824) dans lequel il présente les bases
du mécanisme connu aujourd’hui sous le nom d’effet
de serre. Mais si Fourier est encore aujourd’hui célèbre
et célébré dans le milieu scientifique, c’est en premier
lieu parce qu’il était également mathématicien et qu’il
a cherché à résoudre l’équation de la chaleur dans un
cadre général.
Deux observations le mettent sur la bonne voie. Il
remarque d’une part que la solution est calculable
lorsque la température au bord du solide étudié (on parle
de condition aux limites) est donnée par une sinusoïde
en temps. C’est par exemple le cas du sol que le Soleil
chauffe le jour et qui se refroidit la nuit. D’autre part,
les expériences qu’il mène dans son appartement de
fonction le convainquent que la solution de l’équation
de la chaleur devient rapidement proche d’une fonction trigonométrique
classique (cosinus ou sinus) pour peu que la condition aux limites soit
périodique (par exemple le solide est chauffé pendant une minute puis refroidi
la minute suivante et les mêmes actions se répètent de manière cyclique). Il
suppose alors que toute fonction périodique peut s’écrire comme une somme
de cosinus et de sinus dont les fréquences sont des multiples de la fréquence
originale de la fonction. Il définit également les règles permettant de calculer
les coefficients de pondération de ces différents termes. Comme l’équation
de la chaleur est linéaire, il suffit de la résoudre dans les cas où la condition
aux limites est l’une des sinusoïdes utilisées pour décomposer la fonction
périodique : la solution générale cherchée est alors la somme pondérée des
solutions particulières.
page 42
Fourier et l’effet de serre
« C’est ainsi que la température est augmentée
par l’interposition de l’atmosphère, parce
que la chaleur trouve moins d’obstacle pour
pénétrer l’air, étant à l’état de lumière, qu’elle
n’en trouve pour repasser dans l’air lorsqu’elle
est convertie en chaleur obscure. »
L’atmosphère est essentiellement transparente pour le rayonnement solaire
visible. Celui-ci arrive sur le sol, qui
l’absorbe puis le réémet sous forme de
rayonnement
infrarouge
(« chaleur
obscure ». L’atmosphère est plus opaque
à ce rayonnement et l’absorbe, ce qui
contribue à augmenter sa température.
« Et ignem regunt numeri » [Le feu aussi est régi par les
nombres]
Devise utilisée par Fourier en épigraphe de ses principales
publications.
ÉLÉMENTAÍRE
...application au CMB
Équation de la chaleur et conditions aux limites
L’étude de la chaleur et de l’évolution de la température d’un objet en fonction du temps est bien antérieure à Fourier : Newton, puis un
siècle plus tard Laplace et Lavoisier, s’y intéressent mais ils butent sur la définition de la chaleur et sur le processus physique qui la fait se
propager dans un solide. L’approche choisie par Fourier est plus pragmatique et lui permet d’obtenir l’équation qui gouverne le phénomène
sans s’attarder sur sa nature précise. Elle est basée sur deux principes : la chaleur se déplace de la région chaude vers la région froide d’un
objet perpendiculairement aux isothermes et le flux de ce « courant » à un instant donné est d’autant plus important que la température varie
rapidement sur son parcours ; de plus, la quantité de chaleur d’un volume donné est proportionnelle à sa température, laquelle varie donc
dans le temps en fonction des apports et des prélèvements externes. La juxtaposition de ces deux énoncés se traduit mathématiquement par
une équation aux dérivées partielles. Mais cela ne suffit pas pour résoudre un problème donné : il faut également connaître une ou plusieurs
conditions aux limites qui vont obliger la solution de l’équation à avoir un comportement prédéfini dans certaines zones du milieu (par
exemple au bord) ce qui la contraint de manière unique. Ainsi, pour étudier précisément l’évolution de la température d’un volume d’eau
mis à bouillir sur une plaque électrique il faut tenir compte du fait que le fond de la casserole est maintenu à la température (connue) de
la plaque, se demander si le couvercle est ou non posé sur le récipient pour limiter les pertes de chaleur dans l’atmosphère ou encore avoir
mesuré la conductivité thermique des parois. Une propriété importante de l’équation de la chaleur est qu’elle est linéaire : la somme de
deux solutions en est également une solution.
Fort des succès qu’il obtient avec cette approche, Fourier va même plus
loin : il étend sa décomposition au cas des fonctions non-périodiques –
qui peuvent, d’une certaine manière, être vues comme des fonctions dont
la période est infinie. Sans en avoir vraiment conscience, il est en train de
faire avancer les mathématiques d’un pas de géant. D’abord, il jette les
bases d’une nouvelle discipline – appelée maintenant analyse de Fourier
en son honneur – et qui s’est révélée extrêmement féconde. Ainsi, les
méthodes numériques de traitement d’un signal (comme une émission de
radio) ou d’une image sont en grande partie basées sur la correspondance
entre leurs variations, temporelle ou spatiale, et leurs décompositions
comme somme de fréquences élémentaires. C’est par exemple le cas du
format de compression JPEG très utilisé actuellement en informatique.
De plus, sa méthode (réexpression d’un objet mathématique compliqué
comme somme d’objets plus simples et plus faciles à manipuler ; utilisation
de cette nouvelle formulation pour résoudre des problèmes difficiles ;
application de la transformation inverse une fois que la décomposition
n’est plus utile) s’est avérée très générale et s’applique dans de nombreux
domaines scientifiques, au premier rang desquels l’astronomie et
l’astrophysique. Les fréquences et leur étude jouent également un rôle
primordial en musique.
Période
j
k
l
n
Temps
j
k
l
n
© N. Arnaud
Amplitude
Coefficients de Fourier
Fréquence
ÉLÉMENTAÍRE
La figure du haut montre
l’évolution
temporelle
de
différentes sinusoides dont la
fréquence augmente : 1, 2, 3 et 5
Hz en allant du haut vers le bas.
En dessous, les mêmes sinusoïdes
sont représentées dans l’espace de
Fourier qui décrit leur contenu
en fréquence. Ces courbes sont
des composants de base de la
décomposition en série de Fourier,
ce qui explique que tous leurs
coefficients soient nuls à l’exception
d’un seul – celui correspondant
précisément à leur fréquence. On
peut voir sur la figure que leurs
amplitudes sont égales.
2 Coefficients
1 Coefficient
Amplitude des
coefficients
j
k
l
6 Coefficients
page 43
Sinusoïdes
Approximation d'une fonction créneau
m
n
o
Fréquence des coefficients
Approximation d’une fonction créneau
par sa série de Fourier. Plus le nombre
de coefficients augmente (1, 2 puis 6 de
gauche à droite et de haut en bas), plus
cette dernière se rapproche du modèle.
Les petites oscillations visibles sur les
portions « horizontales » des courbes
rouges sont appelées « phénomène de
Gibbs » et apparaissent chaque fois qu’une
fonction discontinue (ici le créneau passe
brutalement de ± π/4 à son opposé chaque
demi-période) est approchée par sa série de
Fourier. Le graphique en bas à droite montre
comment l’amplitude des coefficients (axe
vertical) décroit en fonction de la fréquence
des sinusoïdes associées (axe horizontal).
Ces figures illustrent parfaitement le
résultat mathématique, aussi beau que
peu intuitif, selon lequel une combinaison
précise de sinusoïdes peut donner n’importe
quelle forme.
Transformée de Fourier et...
Fréquences & musique
Un son est produit par les vibrations d’un objet (par exemple une corde de
guitare) qui se propagent dans l’air avant d’être détectées par notre oreille. Il
se caractérise par sa fréquence, ou hauteur en musique : le « la » du diapason
correspond ainsi à une vibration à 440 Hz. En fait, un son n’est jamais simple : en
plus du mode principal (le « fondamental »), il comporte d’autre composantes,
appelées harmoniques, et dont la fréquence est le produit de celle du fondamental
par un quotient de nombres entiers (3/2, 5/3, etc.). Les poids relatifs du
fondamental et des harmoniques dans un son définissent son timbre, différent
par exemple pour un violon ou une flûte jouant la même note. Remarquons que
l’oreille humaine procède naturellement à une décomposition de Fourier des
sons : nous caractérisons les sons par leur fréquence (plus aigu, plus grave) et
leur intensité ; spontanément, nous percevons la superposition de plusieurs
ondes sonores comme l’accord de plusieurs notes de fréquences distinctes. On
peut aussi analyser les différentes harmoniques produites par un instrument
à l’aide des méthodes développées par Fourier pour résoudre l’équation de la
chaleur.
Toute médaille a son revers : la pensée de Fourier
est tellement novatrice que les mathématiques
ne sont pas assez développées à son époque
pour ordonner et formaliser tous les concepts
qu’il introduit et utilise, sans toujours les
démontrer ni justifier leur emploi. Un exemple :
les sommes de sinusoïdes élémentaires qu’il
manipule sont le plus souvent infinies et leur
convergence (c’est-à-dire leur existence en
mathématiques) ne va pas de soi. Ce manque
de rigueur et ses démonstrations pas toujours
convaincantes – deux éléments essentiels
en mathématiques – lui sont reprochés par
ses contemporains et Fourier doit lutter de
longues années pour voir son travail reconnu.
Il remporte finalement un concours de l’Académie des Sciences en 1812
(sur le thème « La Propagation de la Chaleur ») avant d’en devenir membre
cinq ans plus tard. En 1822 enfin il publie son ouvrage de référence, « La
Théorie analytique de la chaleur ».
©Benoît Mosser/Observatoire de Paris
Dans les décennies suivantes, d’autres mathématiciens – en particulier
l’école allemande, dont les figures marquantes sont Dirichlet, Riemann
et Cantor – font avancer la théorie des fonctions en général et l’analyse
de Fourier en particulier. Ils démontrent rigoureusement la plupart des
points sur lesquels Fourier s’est appuyé et mettent de l’ordre là où c’est
nécessaire. Fourier avait ainsi été trop optimiste en supposant que toute
fonction périodique pouvait se décomposer en somme de sinus et de
cosinus. En effet, on peut trouver des contre-exemples « exotiques » qui ne
satisfont pas à cette loi, heureusement vérifiée par une très large gamme
de fonctions qui inclut celles que l’on rencontre dans les problèmes
concrets, par exemple en biologie ou en physique.
Représentation de la partie réelle des
premiers harmoniques sphériques sur la
sphère : l croit à chaque ligne et m varie de
0 à l. La valeur de la fonction est d’autant
plus élevée que la couleur utilisée pour la
représenter est chaude : rouge ⇔ valeur
positive ; bleu ⇔ valeur négative ; blanc
⇔ valeur nulle.
page 44
CMB et séparation angulaire
En raison de l’expansion de l’Univers, un
degré sur la carte du CMB correspond à
une distance d’environ 200 mégaparsec
(Mpc) aujourd’hui. C’est la taille des
superamas de galaxies, les structures
les plus larges connues à ce jour. Par
comparaison, un amas de galaxies et une
galaxie ont des tailles caractéristiques de
10-20 Mpc et 1 Mpc respectivement. Quant
à la résolution spatiale du satellite Planck,
elle sera de 5 minutes d’arc environ (soit 4
fois mieux que WMAP et 50 fois mieux que
COBE).
Et les anisotropies de température du
CMB dans tout ça ?
À la lecture de ce numéro d’Élémentaire il ne vous a sans doute pas échappé
que la carte du « ciel CMB » montrant les fluctuations de température de
ce rayonnement en fonction de la direction d’observation est un élément
essentiel de la cosmologie actuelle. Cette image peut être vue comme une
fonction périodique de deux angles (une « latitude » et une « longitude »),
exactement comme un planisphère terrestre. Qui dit périodicité dit
analyse de Fourier : des développements mathématiques aussi rigoureux
que techniques (et sur lesquels nous jetons un voile pudique dans cet
article) nous apprennent qu’une telle carte peut être décomposée comme
somme de fonctions « simples », appelées poétiquement harmoniques
sphériques et qui généralisent à deux dimensions les cosinus et les sinus
qui nous sont plus familiers.
ÉLÉMENTAÍRE
..application au CMB
© WMAP
Ces harmoniques sphériques sont par convention numérotées avec deux
nombres entiers : ℓ qui est positif ou nul et m qui varie entre – ℓ et +ℓ.
Comme dans le cas de Fourier et de son équation de la chaleur, un calcul
donne les poids de ces fonctions dans la carte des anisotropies du CMB.
L’indice ℓ joue un rôle prépondérant. Tout d’abord on peut le relier à un
angle (noté θ) par la relation approchée ℓ ~ (100 degrés) / θ. À ℓ fixé,
les poids associés, notés Cℓ, quantifient l’intensité des fluctuations de
température moyennes entre des points séparés angulairement de θ sur
le ciel : plus ℓ est grand, plus on s’intéresse à des angles petits. Le spectre
du CMB n’est autre que la variation des poids Cℓ en fonction de l’indice
ℓ. Il décrit la présence (ou l’absence) de structures dans le CMB selon
l’échelle considérée.
La décomposition du CMB (en haut à
gauche) sur les premières harmoniques
sphériques : les modes sont identifiés
par leur indice ℓ. L’ensemble du ciel est
représenté sur ces cartes ; par convention,
leur centre correspond au centre de la
Voie Lactée et le plan galactique est
horizontal.
Comme l’existence et la taille de structures dans le CMB peut être
prédite au niveau théorique par différents modèles cosmologiques, la
comparaison entre les données expérimentales et les courbes attendues
permet de départager ces modèles.
Le spectre du CMB
La connaissance expérimentale du spectre du CMB est résumée dans
la figure ci-après ; les coefficients Cl sont mesurés soit par des satellites
comme WMAP, soit par des expériences terrestres, au sol ou en ballon.
Plusieurs zones sont visibles sur ce graphique. À bas ℓ (et donc grand
angle), le spectre est presque plat : les distances correspondantes sont plus
grandes que l’horizon au moment de la recombinaison (voir « Théorie »)
et les anisotropies n’ont pas eu le temps d’évoluer : elles restent à un
niveau « moyen ».
Horizon
En astronomie, l’horizon correspond
à la distance maximale que l’on peut
observer depuis la Terre à un moment
donné. Cette grandeur dépend de la
vitesse de la lumière et de l’expansion de
l’Univers qui étire les distances.
Pour des ℓ compris entre 100 et 1000, les angles correspondent à des
distances inférieures à l’horizon et les inhomogénéités ont pu évoluer
de manière significative : des « pics acoustiques » sont visibles. Ils sont
le reflet de deux processus concurrents qui se produisent dans le plasma
d’électrons et de protons au moment de la recombinaison. La gravitation
a tendance à attirer encore plus de matière là où elle est déjà en excès
tandis que les photons exercent une pression de rayonnement qui tend au
contraire à repousser la matière et à diluer les anisotropies. L’importance
de ces effets n’est pas la même selon l’échelle considérée : tantôt la gravité
l’emporte et parvient à former des anisotropies (c’est un pic), tantôt la
pression des photons aplanit une grande partie des variations (c’est un
creux).
Recombinaison
La recombinaison correspond au
moment (environ 300 000 ans après
le Big Bang) où la température de
l’Univers a suffisamment baissé pour
que les électrons se combinent avec des
noyaux légers pour former les premiers
atomes stables. À partir de ce moment,
les photons, qui jusque là interagissaient
sans cesse avec les particules chargées
présentes en abondance dans l’Univers,
peuvent se propager librement : le CMB
est justement formé de ces photons
et constitue une « photographie »
de l’Univers au moment de la
recombinaison.
ÉLÉMENTAÍRE
page 45
Enfin, à très grand ℓ (c’est-à-dire à très petite échelle angulaire), le spectre
présente des oscillations qui s’atténuent progressivement. La recombinaison n’a pas été instantanée : lors de ce processus, des photons ont
pu être diffusés de zones chaudes vers des zones froides à proximité, ce
Transformée de Fourier et...
qui a eu pour effet d’atténuer les anisotropies aux petites échelles.
Ainsi, les liens du CMB avec la présence (ou l’absence) de structures dans
l’Univers à différentes échelles expliquent son rôle clé dans la validation
de modèles cosmologiques. La composition exacte de matière dans
l’Univers primordial (baryons, neutrinos, matière noire), les paramètres
cosmologiques comme la géométrie de l’Univers, la constante de Hubble
ou l’énergie noire ainsi que la répartition des anisotropies initiales
contrôlent les positions et les amplitudes des pics du spectre ainsi que
des « vallées » qui les séparent. La mesure précise du spectre du CMB
est donc essentielle pour faire progresser les modèles cosmologiques et
améliorer la connaissance de leurs paramètres... une analyse impossible
à mener à bien sans les travaux de Joseph Fourier, si controversés à son
époque !
Pression de rayonnement
La pression de rayonnement traduit la
force exercée sur une surface exposée à
un rayonnement électromagnétique. Par
exemple, la pression de rayonnement
exercée par les rayons du Soleil sur
la Terre est de l’ordre de quelques
micro pascal (μPa) – à comparer avec
la pression atmosphérique qui est de
l’ordre de 100 000 Pa.
Spectre du CMB obtenu en combinant les
mesures du satellite WMAP intégrées sur
cinq ans (points gris) avec les données enregistrées par d’autres expériences terrestres
(Acbar et CBI) ou en ballon (Boomerang).
Les barres verticales donnent les erreurs
associées à chaque point expérimental. La
courbe rose correspond à la prédiction du
meilleur modèle cosmologique ajusté sur les
données de WMAP. On peut remarquer que
les expériences terrestres et satellitaires sont
complémentaires car elles sont sensibles à
différentes régions du spectre du CMB.
page 46
Quelques formules pour les passionnés d’équations
ÉLÉMENTAÍRE
Accélérateur
Les accélérateurs co(s)miques
À ce flux de particules neutres s’ajoutent des corpuscules chargés (pour
99% des noyaux atomiques, essentiellement de l’hydrogène et, en
proportion moindre, de l’hélium ; 1% d’électrons), appelés « rayons
cosmiques » de manière générique. On croyait initialement que ces
particules étaient des sortes de photons, d’où l’emploi (erroné mais
entré dans l’usage) du mot « rayon ». Leur étude, entamée avant la mise
au point des premiers accélérateurs, se poursuit aujourd’hui avec un
intérêt soutenu. Les champs magnétiques terrestre et solaire ainsi que
l’atmosphère nous protègent des effets nocifs de ces rayonnements en
déviant, éliminant ou atténuant les particules les plus énergétiques,
potentiellement dangereuses.
© Simon Swordy
La Terre est bombardée en permanence par une multitude de particules
venues de l’espace. Les plus familières sont certainement les photons
émis dans le domaine du visible par le Soleil ou les autres étoiles et qui
font partie de notre environnement. Mais ce sont loin d’être les seules :
les progrès de la science dans la seconde moitié du XIXe siècle puis
tout au long du XXe ont permis d’en découvrir beaucoup d’autres (voir
Élémentaire N°3). Ainsi, le spectre électromagnétique ne se limite pas
à la lumière visible ; des photons sont émis dans une très large gamme
d’énergie qui va des ondes radio aux rayons X et γ en passant par les microondes, l’infrarouge, toutes les nuances de l’arc-en-ciel et l’ultraviolet. Ils
sont parfois associés à des phénomènes violents, courants à l’échelle de
l’Univers mais au sujet desquels les scientifiques ont encore beaucoup à
apprendre : noyaux actifs de galaxie (AGNs), sursauts gamma...
Spectre du rayonnement cosmique. Ce
graphique montre le nombre de particules
chargées d’énergie donnée arrivant sur Terre
par seconde, par m2 et provenant d’une
direction donnée. Les deux échelles (énergie
sur l’axe horizontal, flux de particules en
vertical) sont logarithmiques, ce qui veut dire
que chaque (grande) graduation correspond
à une variation d’un facteur 10. Entre le haut
et le bas de la courbe, l’énergie des particules
est multipliée par près de mille milliards
tandis que leur nombre est divisé par dix
mille milliards de milliards de milliards
(ouf !) environ. Si réaliser un tel spectre
est un vrai défi sur le plan expérimental,
interpréter le résultat obtenu se révèle tout
aussi complexe. Au premier abord la courbe
paraît très régulière : elle suit assez bien la
forme d’une loi de puissance, représentée
sur la figure par les pointillés noirs. En
fait, elle comporte plusieurs structures qui
reflètent la diversité des sources de rayons
cosmiques ainsi que celle des mécanismes
assurant leur accélération bien au-delà de
ce que les accélérateurs « terrestres » les
plus performants peuvent produire. Ainsi
quelques particules produisant une énergie
au moins égale à celle des collisions protonsprotons dans le LHC (14 TeV) arrivent
chaque heure sur une surface d’un kilomètre
carré.
Le spectre des rayons cosmiques
Intéressons-nous plus particulièrement aux rayons cosmiques qui arrivent
sur Terre de manière individuelle et incohérente, en provenance de
sources multiples ; leur spectre est riche d’enseignements.
Ensuite, la variation du flux de rayons cosmiques en fonction de l’énergie
est, en première approximation, simple ; chaque fois que l’énergie est
multipliée par 10, le nombre de particules incidentes est divisé par un
facteur compris entre 500 et 1000. Cette loi est qualitativement conforme
à l’intuition : plus un rayon cosmique est énergétique, plus il doit être
rare. De manière plus quantitative, on passe de plusieurs centaines de
particules par mètre carré et par seconde à moins d’une par kilomètre
ÉLÉMENTAÍRE
page 47
Tout d’abord ces particules couvrent une gamme d’énergie considérable :
plus de treize ordres de grandeur (un facteur dix mille milliards !) entre les
deux extrémités du spectre. Les rayons cosmiques les moins énergétiques
subissent l’influence du champ magnétique et du vent solaire tandis
que les plus puissants créent des gerbes géantes de particules lors de
leur interaction avec l’atmosphère. Les difficultés d’estimer précisément
l’énergie de tels événements et leur rareté suscitent de nombreuses
discussions – voire des controverses – au sein de la communauté des
physiciens.
Les accélérateurs co(s)miques
carré et par an quand l’énergie s’approche de sa valeur maximale. Le
spectre contient également quelques structures, détaillées plus avant dans
l’article.
page 48
Le match Technologie / Nature
Sur le plan de l’énergie absolue, la Nature
gagne sans contestation possible : le plus
puissant des accélérateurs, le LHC, atteindra
« seulement » des énergies de 1,4×1013 eV lors
des collisions proton-proton et de 2,8×1012 eV
par nucléon lorsque les noyaux d’hydrogène
seront remplacés par des ions plomb quelques
semaines par an. L’énergie d’un rayon cosmique,
elle, peut dépasser 1019 eV ! Par contre, la
technologie reprend l’avantage au niveau du
nombre de particules accélérées (trois cent mille
milliards de protons circuleront simultanément
dans le LHC), de la fréquence de répétition
des événements (40 millions de collisions par
seconde, toujours au LHC) et surtout grâce à
sa capacité à générer les collisions là où elles
doivent se produire pour être observables dans
leurs moindres détails, c’est-à-dire au centre
des détecteurs ! La technologie est également
plus « économique » que la Nature : grâce aux
collisionneurs (voir Élémentaire N°6) l’énergie
des particules circulant dans le LHC est bien
inférieure à celle que doit avoir un rayon
cosmique pour que sa collision avec un proton
terrestre (au repos) produise autant d’énergie.
- Pour obtenir une énergie de collision
Ecollision = 14 TeV, l’énergie des protons du
LHC doit valoir E = 7 TeV (les énergies des
deux particules impliquées dans le choc
s’ajoutent). - Dans le cas d’une collision rayon
cosmique – proton « terrestre » au repos
(d’énergie équivalente Mc2 ≈ 1 GeV), il faut
E ≈ (Ecollision)2/(2Mc2) ≈ 105 TeV, soit quatorzemille fois plus !
Enfin, les rayons cosmiques les plus énergétiques sont du genre « costauds ».
Leur énergie peut atteindre celle emmagasinée par une balle de tennis de
57 g lancée à 85 km/h soit 32 Joules, ou 1020 eV. Les meilleurs accélérateurs
de particules, pourtant à la pointe de l’innovation technologique, font pâle
figure par rapport à ces records « 100% naturels ».
Comprendre les mécanismes à l’origine de telles accélérations, trouver
les sources d’énergie sans lesquelles ces phénomènes ne pourraient se
produire, ou découvrir de nouvelles particules dont la désintégration serait
à l’origine de certains rayons cosmiques, sont trois des questions que se
posent actuellement les physiciens spécialistes des « astroparticules »,
c’est-à-dire des particules élémentaires en provenance de l’espace.
Contrairement aux photons, certains rayons cosmiques ont une charge
non nulle ce qui les rend sensibles aux champs électriques et magnétiques
présents dans le cosmos. Cette caractéristique importante est à l’origine de
mécanismes d’accélération spécifiques
.
À basse énergie (jusqu’à 1010 eV environ), le flux de rayons cosmiques
est sensible au vent solaire, un plasma chargé (protons, électrons, noyaux
d’hélium, etc.) émis par notre étoile à une vitesse d’environ 400 km/s.
Celui-ci crée un puissant champ magnétique dont l’effet se fait sentir dans
tout le système solaire et qui dévie une grande partie des particules chargées
incidentes. Au-delà, le flux en fonction de l’énergie E varie en « loi de
puissance », c’est-à-dire qu’il est proportionnel à E-γ. Expérimentalement,
γ = 2,7 jusqu’à 1015 eV environ avant de passer brusquement à 3,1 – le
flux chute. Cette transition est appelée poétiquement le « genou » par
les physiciens, jamais en mal d’inspiration pour donner des noms à leurs
observations ! Le taux décroît donc plus fortement sur plus de trois ordres
de grandeur avant de « ralentir » vers 1019 eV. Sans surprise, cette seconde
structure se nomme la « cheville ».
Des particules d’énergies aussi diverses sont nécessairement créées par
des processus très différents. Jusque vers 1018 eV, elles sont issues de notre
galaxie. Au-delà, elles viennent probablement de régions de l’Univers plus
lointaines car le champ magnétique galactique ne parvient pas à maintenir
de tels projectiles suffisamment longtemps dans la Voie Lactée pour qu’ils
aient une chance de croiser la Terre sur leur chemin. En fait, la plupart des
rayons cosmiques subissent l’influence de nombreux champs magnétiques
sur leur parcours ; ceux-ci dévient leur trajectoire, rendant très difficile,
voire impossible, l’identification des sources. Expérimentalement, leur
distribution sur le ciel apparaît isotrope avec une précision de un pour
mille. Pour les particules les plus énergétiques, la situation est différente :
un article récent de l’expérience AUGER semble montrer un lien entre
rayons cosmiques et noyaux actifs de galaxies.
Au-delà de ces énergies, le faible nombre de rayons cosmiques et les
possibles biais dans la mesure de l’énergie compliquent l’interprétation
ÉLÉMENTAÍRE
Les accélérateurs co(s)miques
Un article récent de l’expérience
AUGER
des résultats expérimentaux. Une contrainte forte est apportée par des
calculs théoriques qui prédisent une énergie limite – appelée « coupure
GZK » en l’honneur des trois physiciens Kenneth Greisen, Georgi
Zatsepin et Vadem Kuzmin qui déterminèrent sa valeur en 1966. En effet,
les rayons cosmiques les plus énergétiques interagissent avec les photons
du CMB ce qui limite leur énergie pour peu qu’ils aient parcouru une
distance suffisante. D’autre part, on ne connaît aucune source qui soit
assez puissante pour produire de telles particules et suffisamment proche
pour que la coupure GZK ne s’applique pas. La conjonction de ces deux
éléments fait qu’on ne devrait observer aucun rayon cosmique d’énergie
supérieure au seuil GZK.
Or une expérience basée au Japon (AGASA) et qui a pris des données
de 1990 à l’an 2000 a annoncé avoir détecté une douzaine de rayons
cosmiques qui, d’après l’argument précédent, ne devraient pas exister !
La question de savoir si ces événements sont réels ou si leur énergie
a été surestimée par les mesures a agité pendant plusieurs années la
communauté des physiciens, dans l’attente des résultats de l’expérience
Auger. Finalement publiées mi-2008, ces mesures donnent raison à une
expérience antérieure, HiRes, et montrent que la coupure GZK est bien
présente : le taux de particules décroît très fortement au niveau du seuil
en énergie.
AUGER (voir Élémentaire N°3) a
récemment publié une étude des
premiers rayons cosmiques de très
haute énergie enregistrés dans ses
détecteurs. Sa conclusion, basée sur
une trentaine d’événements d’énergie
supérieure à 57 × 1018 eV environ,
est que ces particules ont tendance à
provenir de sources « peu éloignées »
(moins de 75 Mpc, soit en-dessous de
la « coupure GZK » dont nous parlons
dans un encadré voisin) et que leurs
directions (observables car ces rayons
cosmiques sont peu déviés par les
champs magnétiques du cosmos) sont
proches de celles de noyaux actifs de
galaxie (AGNs) déjà connus. Bien que
ce résultat ne soit encore basé que sur
une tendance statistique – si les sources
sont isotropes, les observations d’Auger
sont peu probables mais pas impossibles
– il est intéressant car les AGNs sont
considérés par ailleurs comme de
bons candidats pour produire de tels
rayons cosmiques. Cette hypothèse
sera confirmée ou invalidée lorsque
plus de données seront analysées dans
les prochaines années, réduisant ainsi
les incertitudes statistiques sur ces
mesures.
Mais qu’est-ce qui fait courir les rayons
cosmiques ?
ÉLÉMENTAÍRE
Projection de la sphère céleste; les cercles noirs de rayon 3,1 degrés montrent
les directions d’arrivée des 27 rayons cosmiques les plus énergétiques
(énergie supérieure à 57 × 1018 eV) détectés par la collaboration Auger.
L’expérience est sensible à la partie du ciel en bleu : la Terre masque les
autres directions. Les points rouges montrent les 472 (!) AGNs connus
situés à moins de 75 millions de parsec (Mpc, 1 parsec = 3,6 annéeslumière). La comparaison précise de ces cartes indique une corrélation
entre elles (à confirmer avec plus de données) ; en particulier, rayons
cosmiques et noyaux actifs de galaxie semblent se concentrer autour du
plan matérialisé par la ligne pointillée et qui contient un grand nombre
de galaxies proches de la nôtre.
page 49
Coupure GZK
À partir d’une énergie très élevée (de l’ordre de 6×1019 eV pour
des protons), un rayon cosmique interagit avec les photons du
rayonnement fossile. À chaque collision, des particules (les
pions) sont produites et emportent une partie de l’énergie
disponible – 15% environ. Lentement (une interaction tous
les quinze millions d’années en moyenne) mais sûrement
(une telle particule peut voyager des centaines de millions
d’années) le processus se poursuit jusqu’à ce que l’énergie du
rayon cosmique passe en dessous du seuil d’interaction. En
conséquence, pour chaque type de rayon cosmique, il existe
une distance de propagation critique (plusieurs centaines de
millions d’années-lumière pour un proton) au-delà de laquelle
l’énergie de la particule est forcément inférieure au seuil GZK,
et ce quelle qu’ait pu être son énergie initiale.
© The Auger collaboration
Les rayons cosmiques étant chargés, ils interagissent avec les champs
électromagnétiques qu’ils rencontrent sur leur parcours. Les zones
où ces champs sont présents sont de taille astronomique (étoiles,
nébuleuses, trous noirs etc.) ; il est donc logique que des particules
microscopiques puissent parfois acquérir une énergie colossale en les
traversant. Dès la fin des années 1940, Enrico Fermi s’intéresse aux
mécanismes d’accélération des rayons cosmiques. En 1948 il propose
Les accélérateurs co(s)miques
DR
une théorie basée sur des chocs avec des nuages de gaz se comportant
comme des miroirs magnétiques, phénomène également à l’origine des
ceintures de Van Allen qui entourent la Terre. Lorsque miroir et particule
vont l’un vers l’autre (se suivent), la particule accélère (ralentit) après
le choc. Comme le premier type de collisions est plus probable que le
second (il est plus « facile » de croiser des objets qui viennent en sens
inverse que de rattraper ceux qui se déplacent dans la même direction),
les rayons cosmiques gagnent de l’énergie en moyenne.
La variation relative de l’énergie est alors proportionnelle au carré de la
vitesse des nuages – on parle d’accélération de Fermi du second ordre.
Si ce phénomène donne bien un spectre d’énergie en loi de puissance,
il a également plusieurs problèmes qui le rendent irréaliste. Tout d’abord
il est trop lent : les rayons cosmiques devraient être au moins dix fois
plus vieux que ce qui est effectivement observé. Ensuite, il demande
une énergie initiale importante (sans laquelle le mécanisme s’inverse et
ralentit la particule). Enfin, il faut effectuer un ajustement fin (et donc
peu naturel) des paramètres du modèle pour s’approcher du spectre en
énergie observé.
Malgré ces défauts, la théorie de Fermi est passée à la postérité car elle
contient la bonne idée : le gain d’énergie s’obtient par réflexions multiples.
À la fin des années 1970, plusieurs équipes de chercheurs ont proposé,
de manière indépendante, un nouveau mécanisme d’accélération. Une
particule traversant une onde de choc voit son énergie augmenter d’un
terme proportionnel à la différence entre les vitesses de propagation du
milieu interstellaire avant et après le choc. Si des miroirs magnétiques
sont situés de part et d’autre de cette frontière, le rayon cosmique se
Effet du mécanisme GZK sur des protons
cosmiques d’énergies supérieures à 1020 eV.
Leur énergie décroît en fonction de la distance
parcourue – comptée en Mpc – à cause des
interactions avec les photons du CMB et la
variation est d’autant plus rapide que l’énergie
est élevée. Au-delà d’une certaine distance de
propagation, quelques centaines de Mpc dans
le cas du proton, les particules ont des énergies
très voisines bien qu’elles aient été initialement
très différentes. Cela signifie que l’énergie d’un
proton qui a parcouru un trajet aussi long ne peut
excéder une valeur limite, de l’ordre de 6×1019 eV
et appelée « coupure GZK ».
trajectoire en spirale
de la particule chargée
Ceintures de Van Allen Un miroir magnétique est une configuration particulière d’un
champ magnétique dont l’effet est de ralentir, puis de réfléchir les particules chargées
incidentes – dont les énergies peuvent parfois augmenter par ce mécanisme. Ce phénomène
peut se produire lorsque l’intensité du champ magnétique varie le long des lignes de champ,
ce qui est par exemple le cas pour le champ magnétique terrestre, plus fort au niveau des
pôles. Les ceintures de Van Allen, du nom du scientifique américain qui a interprété les
données des premiers satellites qui les ont traversées, sont ainsi une conséquence directe
de cet effet. Il s’agit de zones en forme d’anneau regroupant des particules chargées qui font
sans cesse l’aller-retour entre les deux pôles de notre planète où elles sont immanquablement
réfléchies par ces « miroirs ». Chaque traversée dure de l’ordre d’une seconde mais une
particule donnée peut rester prisonnière de ces régions pendant plusieurs années.
Terre
Page d’un carnet
de notes d’Enrico
Fermi datée du
4 décembre 1948
et contenant son
modèle
d’accélération
des
rayons cosmiques
par des nuages
de gaz agissant
comme
miroirs
magnétiques.
Moins de quatre
semaines plus tard Fermi enverra un article
au journal scientifique « Physical Review »
qui le publiera en avril 1949.
Bibliothèque de l’Université de Chicago.
ligne de champ magnétique
page 50
© B. Mazoyer
points miroir
Ni les hommes ni les circuits électroniques ne résisteraient à un séjour prolongé dans les
ceintures de Van Allen dont la présence doit donc être prise en compte avec soin lors de
la préparation de missions spatiales. Comme les pôles géographiques et magnétiques ne
sont pas alignés (l’écart est d’environ 11 degrés) et que les deux axes associés (rotation et
magnétique) sont décalés d’environ 450 km, les ceintures de Van Allen ne sont pas à la
même altitude partout sur la Terre. Ainsi, l’endroit où ce flot de particules est le plus proche
du sol est localisé à la verticale du Brésil. Cette « anomalie magnétique de l’Atlantique Sud »
a nécessité la pose d’un blindage supplémentaire sur la station spatiale internationale dont
l’orbite passe parfois au travers de cette région. De même, le télescope spatial Hubble et le
satellite GLAST-Fermi éteignent leurs instruments lorsqu’ils traversent cette zone. Dans tous
les cas, il s’agit de se protéger des dommages que pourraient causer cette densité inhabituelle
de particules chargées. Pas d’inquiétude au niveau du sol : les ceintures de Van Allen ne
s’approchent pas à moins d’une centaine de km d’altitude. Il n’est donc pas nécessaire de
mettre un heaume de chevalier pour visiter Copacabana !
ÉLÉMENTAÍRE
les accélérateurs co(s)miques
Dix fois plus vieux
L’âge des rayons cosmiques est estimé
en regardant l’abondance relative
de noyaux radioactifs. Ceux-ci se
désintègrent au cours du temps selon un
rythme qui leur est propre ; comparer
leurs abondances relatives permet de
situer le moment où ils ont été créés.
retrouve au milieu d’une partie de flipper géante et accélère chaque fois
qu’il la traverse. Les calculs montrent que cette accélération de Fermi
du premier ordre (proportionnelle à la vitesse du choc et non pas à son
carré) « colle » mieux à la réalité même si elle est loin d’expliquer tous les
phénomènes observés. Ce domaine d’étude, au confluent de nombreuses
disciplines, est actuellement en plein développement. Il progresse grâce à
des avancées théoriques (mises au point de modèles complexes et prenant
en compte toujours plus de phénomènes) et numériques : une fois les
équations écrites, il faut encore les résoudre de manière approchée avec
des ordinateurs gourmands en temps de calcul. Le but est de modéliser
de manière précise les ondes de choc et, par voie de conséquence, les
événements qui les produisent dans l’Univers.
Pour les rayons cosmiques d’origine galactique, les ondes de choc
générées par des supernovæ sont de bons « candidat-accélérateurs ».
En comparant le taux de ces phénomènes (quelques-unes par siècle) à la
densité de particules mesurée (de l’ordre de 1 eV/cm3), on montre qu’une
dizaine de pourcents de l’énergie émise par ces explosions d’étoiles
suffisent pour alimenter la production de ces particules. Le gain d’énergie
peut atteindre 1000 eV/s pendant plusieurs centaines d’années d’affilée,
ce qui est beaucoup mais insuffisant pour rendre compte de l’ensemble du
spectre des rayons cosmiques. D’autres mécanismes doivent y contribuer
mais les observations ne permettent pas actuellement de trancher entre les
candidats potentiels. Le diagramme de Hillas est une manière commode
de caractériser les différentes sources possibles au moyen de leur champ
magnétique B et de leur taille L. En effet, l’énergie apportée à un rayon
cosmique de charge q est forcément inférieure au produit qBcL, l’énergie
maximale, où c est la vitesse de la lumière dans le vide. En faisant des
hypothèses sur le rendement du processus, on obtient les relations que
doivent satisfaire B et L pour fournir des énergies données – des droites
en échelle doublement logarithmique. En plus des noyaux actifs de
galaxie déjà mentionnés plus haut dans l’article, les sursauts gamma (voir
« ICPACKOI »), voire les étoiles à neutrons, pourraient accélérer une
partie des rayons cosmiques de (très) haute énergie.
V
v
© B. Mazoyer
v + 2V
Analogie entre le mécanisme
d’accélération de Fermi et le
tennis.
page 51
ÉLÉMENTAÍRE
© B. Mazoyer
Énergie maximale : une particule de charge q et d’énergie E, plongée dans un
champ magnétique B, décrit un cercle dans le plan perpendiculaire à l’axe de ce
champ. Le rayon R de cette trajectoire est donné par R=E/qBc. Ce mouvement se
fait sans gain d’énergie. Le champ B, présent dans la zone d’accélération sans en être
responsable, limite l’énergie acquise par la particule à cause de la relation écrite cidessus. Pour que l’accélération ait lieu, il faut que le rayon R de la trajectoire reste
plus petit que la taille caractéristique L de la zone où ce processus a lieu. On obtient
alors directement la valeur maximale Emax de l’énergie : R ≤ L => E ≤ Emax= qBcL.
Diagramme de Hillas montrant la relation
entre champ magnétique et taille pour
différentes sources potentielles de rayons
cosmiques de haute énergie (les deux échelles
sont logarithmiques). Les droites rouges
illustrent l’exemple de protons d’énergie
1020 eV (trait plein) ou 1021 eV (pointillés) ; la
droite verte montre le cas d’ions Fer d’énergie
1021 eV.
Les accélérateurs co(s)miques
Une onde de choc est une perturbation
qui se propage dans un milieu. Les deux
régions séparées par cette zone (en amont
et en aval du choc) ont des propriétés très
différentes. Ainsi lors d’une explosion,
une bulle de gaz à très haute pression
se forme tandis que l’air extérieur reste
à la pression atmosphérique. D’autres
exemples d’ondes de choc sont le « bang »
supersonique émis par un avion lorsqu’il
passe le mur du son ou la lumière Cerenkov
(Élémentaire N°4) qui apparaît lorsqu’une
particule chargée traverse un milieu à
une vitesse supérieure à celle qu’aurait la
lumière dans ce matériau.
Puisque nous parlons beaucoup de champs
magnétiques dans l’article, on peut
également mentionner la zone où le vent
solaire rencontre le champ magnétique
terrestre. Cette onde de choc a été
observée pour la première fois le 7 octobre
1962 à 15h46 temps universel par Mariner
2, alors en route pour Vénus. Comme le
montre le graphique ci-dessous, le champ
magnétique mesuré par la sonde spatiale
augmente brutalement lorsque celle-ci
quitte le bouclier magnétique terrestre
pour se retrouver avec le vent solaire
turbulent de face.
© MPIfR / A. Jessner
Ce photomontage présente d’une part (à
gauche) une image de la nébuleuse du
Crabe dans la constellation du Taureau et
d’autre part (à droite) des photographies
(ordonnées par colonne) illustrant le cycle
d’émission du pulsar central, une étoile
à neutrons créé par l’explosion d’une
supernova en 1054. Selon l’instant de la
prise de vue, le pulsar (au-dessous et à
droite de l’étoile fixe) est « allumé » ou
« éteint ». Tous ces clichés ont été pris
avec le télescope Mayall de 4 mètres de
l’observatoire du Kitt Peak (Arizona).
Et les particules neutres ?
© The HESS Collaboration
Au contraire des particules chargées, sans cesse soumises à l’action de
champs électriques et magnétiques, les particules neutres se propagent
en ligne droite sans réellement subir l’influence du milieu interstellaire.
Elles apportent donc des témoignages plus fidèles sur leurs sources et les
mécanismes d’accélération associés. Les photons (rayons X ou gamma)
et les neutrinos sont des produits secondaires d’interaction entre protons
tandis que les électrons peuvent également rayonner des photons par
effet synchrotron lorsque leurs trajectoires sont courbées par des champs
magnétiques.
De nombreuses expériences, déjà opérationnelles ou encore en
préparation, sont dédiées à la détection des particules neutres de
haute énergie. Pour les photons, il faut soit aller dans l’espace (satellite
GLAST-Fermi, voir «ICPACKOI») soit utiliser un réseau d’antennes au sol
(télescope HESS en Namibie). Pour les neutrinos, toujours aussi discrets,
il faut de grands volumes d’eau (projet ANTARES au large de Toulon, voir
Élémentaire N°5) ou de glace (expériences Amanda puis IceCube, voir
Élémentaire N°3). Observées de tous côtés, les particules énergétiques
qui nous arrivent en provenance de l’espace finiront bien par dévoiler
leurs secrets.
page 52
Étoile à neutrons Comme son nom
l’indique, il s’agit d’un astre composé
presque exclusivement de neutrons. Une
étoile à neutrons a un rayon d’une dizaine
de kilomètres et « pèse » environ 1,4 masse
solaire : sa densité (de l’ordre du milliard
de tonnes/cm3) est donc phénoménale. Elle
résulte de l’effondrement gravitationnel
d’une étoile en fin de vie qui a fini de
brûler tout son combustible nucléaire :
une supernova.
HESS « High Energy Stereoscopic System » (HESS) est un réseau
de télescopes situés en Namibie et qui utilise la lumière Cerenkov
produite par les gerbes de particules chargées qui apparaissent
lorsqu’un photon très énergétique interagit dans l’atmosphère.
HESS étudie ainsi en détail les sources connues de rayons gamma
(comme le pulsar du Crabe) et permet également d’en découvrir de
nouvelles grâce à son excellente sensibilité.
ÉLÉMENTAÍRE
Découvertes
Le rayonnement fossile
Y’a de la friture sur la ligne ...
© Bell Laboratories
Printemps 1965 : Arno Penzias et Robert Wilson sont perplexes. Voilà
bientôt un an que l’instrument qu’ils utilisent pour des observations de
radioastronomie enregistre un signal d’origine inconnue. L’antenne de
Crawford Hill (New Jersey, États-Unis) a été construite en 1960 pour
recevoir les données des premiers satellites de télécommunication
américains « Echo » (de simples ballons métalliques réfléchissant des
ondes radio envoyées depuis le sol). Sa forme de cornet lui permet de se
Robert Wilson (à gauche) et Arno Penzias (à droite)
focaliser sur une petite région du ciel et de minimiser les signaux parasites
posant en 1975 devant l’antenne de Crawford Hill,
reçus des autres directions. Les ondes radio venues de l’espace étant très
instrument de leur découverte.
faibles, elles sont amplifiées dans des circuits électriques refroidis à
quelques degrés au-dessus du zéro absolu grâce à de l’hélium liquide
La famille d’Arno Penzias fuit Munich peu de temps après
afin de limiter leur bruit. Penzias et Wilson ajoutent aux instruments
sa naissance en 1933 et s’installe à New York. Devenu
déjà existants un système leur permettant de tester séparément les
citoyen américain en 1946, Penzias étudie à l’Université
performances de l’antenne et de l’électronique.
Le bruit inattendu observé par Penzias et Wilson dégrade les
performances de leur détecteur et l’empêche d’atteindre la
sensibilité espérée. Cette perturbation se traduit par une élévation
de la « température » mesurée. L’un des avantages de cette
description concise est que la température mesurée dans le cas où
deux contributions sont simultanément détectées (par exemple une
émission radio en provenance de l’espace et un signal parasite dû à
une imperfection de l’instrument) est simplement la somme des deux
températures individuelles.
L’altitude de demi-absorption est celle à laquelle le rayonnement arrivant
sur Terre est diminué par deux. On voit que le rayonnement ultraviolet est
absorbé à haute altitude alors que l’atmosphère est quasi transparente au
visible et aux micro-ondes.
ÉLÉMENTAÍRE
Température : si leur antenne mesure une énergie E, il
est commode de parler de sa température équivalente T,
exprimée en Kelvin. Les deux quantités sont reliées par la
relation E = k × T où k= 8,62×10−5 eV K−1 est la constante
de Boltzmann. Une température de 3 K correspond donc
à une énergie de 0,00026 eV.
Radioastronomie
Il s’agit d’une branche de l’astronomie dédiée à l’étude des
émissions radio des corps célestes. Bien que très récente (la première
observation d’un signal radio en provenance du centre galactique
date de 1933), elle a permis de nombreuses découvertes : le CMB
bien sûr mais également les pulsars en 1967. En effet, la gamme
de fréquence d’un signal électromagnétique dépend du processus
physique à l’origine de l’émission. Et donc chaque nouveau mode
d’observation du ciel (optique, radio, infrarouge, rayons X, etc...)
améliore notre connaissance de l’Univers. Comparées à celles
de la lumière visible, les longueurs d’onde radio sont grandes :
de 400 à 700 nanomètres dans le premier cas, du millimètre au
mètre dans l’autre. Or la résolution d’un télescope (c’est-à-dire la
taille angulaire minimale de la région du ciel associée à un signal
donné) varie comme le rapport entre le diamètre de l’instrument
et la longueur d’onde observée. Une antenne radio doit donc
être très étendue pour être performante : ainsi, le radiotélescope
d’Arecibo situé sur l’île de Porto Rico a un diamètre de 305 mètres.
Heureusement, l’atmosphère est transparente pour les ondes radio
– comme le montre la figure ci-contre – ce qui permet d’installer de
tels détecteurs sur la Terre plutôt qu’en orbite.
page 53
© COBE
Bruit : tout circuit électronique ajoute une contribution parasite aux
signaux physiques qu’il reçoit et transforme. Le bruit thermique, dû
au mouvement aléatoire des électrons dans les conducteurs peut être
réduit en abaissant la température de l’ensemble. D’autres bruits,
également réductibles, dépendent de la qualité de fabrication du
circuit et de sa mise au point.
de Columbia où il soutient son doctorat en 1962. Il rejoint
ensuite les Laboratoires Bell (où ont été inventé entre autres
le transistor électronique, le système d’exploitation Unix dont
Linux dérive, ou encore les langages de programmation C et
C++) et commence à travailler sur des récepteurs micro-ondes
cryogéniques avec Robert Woodrow Wilson. Ce dernier,
de trois ans son cadet, a fait ses études au « California
Institute of Technology » à Pasadena (Californie). Tous
deux reçoivent en 1978 le prix Nobel de physique pour leur
mise en évidence expérimentale du rayonnement fossile.
Le rayonnement fossile
© R. Wilson
La calibration utilisant un cylindre métallique « étalon » également refroidi
à l’hélium liquide (et dont le bruit thermique est connu avec précision)
donne des résultats satisfaisants : la température détectée (autour de 4K)
correspond à la valeur attendue, ce qui démontre la qualité des systèmes
de lecture et de refroidissement. En effet, un défaut au niveau de l’un ou
l’autre de ces éléments se serait forcément traduit par une mesure plus
élevée. Les deux chercheurs s’attendent donc à trouver une température
de 3,3 K au niveau de l’antenne, dominée par les radiations venant
de l’atmosphère (2,3 K) et de l’antenne ou du sol (1 K). À leur grande
surprise, la valeur mesurée est bien supérieure : 7,5 K ! Si la différence
n’est pas énorme en absolu, Penzias et Wilson ont acquis au fil des mois
une compréhension très détaillée de leur détecteur qui ne laisse pas
place au doute : l’excès de température est réel et donc, quelque chose,
quelque part, le produit.
D’accord, mais quoi et où ? Une après l’autre les explications « logiques »
sont réfutées. Le bruit mystérieux ne dépend pas du pointage de l’antenne
ni de l’heure de la mesure, ni même des saisons. Il n’est donc pas
d’origine humaine et, en particulier, il ne vient pas de la ville de New
York toute proche. De plus, le mouvement de la Terre autour du Soleil
induirait forcément une modulation du signal si la source était dans le
système solaire. Enfin, cette dernière n’est pas non plus dans la Voie
Lactée : les variations de bruit observées en direction du plan galactique
sont compatibles avec l’excès de signal attendu en provenance de ces
régions, denses et donc riches en émetteurs potentiels d’onde radio.
Sensibilité de l’antenne de Crawford Hill
en fonction de l’angle du signal incident
– indiqué en degrés sur les quatre côtés de
la figure, le 0° correspondant à la direction
vers laquelle pointe le cornet (voir schéma
ci-dessous). Chaque cercle concentrique
indique une réduction d’un facteur dix de
la sensibilité. Celle-ci est donc maximale
dans l’axe du cornet et décroît très vite
lorsqu’on s’en éloigne : à ± 10° elle n’est plus
qu’1/100 000ème de l’optimum. L’antenne
est donc très directionnelle, contrairement
à une antenne isotrope dont le diagramme
idéal (sensibilité identique dans toutes les
directions) est matérialisé par le cercle en
gras au niveau 40.
D’autres hypothèses sont alors envisagées. La plus fameuse implique un
malheureux couple de pigeons qui ont niché dans un recoin abrité de
l’antenne. Découverts lors d’une inspection de la structure, ils sont chassés
et le guano – « un matériau diélectrique blanc » d’après Penzias – qu’ils
avaient déposé est nettoyé avec soin. Sans succès : aucune différence
significative n’est observée entre avant et après la phase de ramonage ...
La possibilité que le bruit soit la conséquence d’une explosion nucléaire à
haute altitude datant de 1962 est également envisagée : cet essai nucléaire
a produit un grand nombre d’ions dans les couches les plus élevées de
l’atmosphère dont la contribution au signal de l’antenne aurait pu ne pas
avoir été bien prise en compte. Là encore, l’absence de variation de la
mesure sur une longue durée (alors que cet excès d’ions diminue avec le
temps) rend l’hypothèse caduque.
guide d'ondes
signal
© B. Mazoyer
cornet évasé
MIT et Princeton
Le « Massachusetts Institute of Technology »
(MIT) et l’Université de Princeton (New
Jersey) sont deux des établissements
d’enseignement
supérieur
les
plus
prestigieux de la côte Est des États-Unis avec
Harvard. Ils ont été fondés en 1861 et 1764
respectivement.
page 54
« Les gars, on s’est fait griller ! »
Vient alors le petit coup de pouce du destin qui va mener nos deux
chercheurs au prix Nobel de physique 1978 : leur signal parasite est en
fait une avancée scientifique majeure qui n’attend que son interprétation.
Au détour d’une conversation, Arno Penzias mentionne à Bernard Burke,
professeur au MIT, l’existence de ce bruit inexpliqué. Ce dernier lui
explique alors que des travaux théoriques récents, menés à l’université
de Princeton autour de Robert Dicke et Jim Peebles, prédisent l’existence
d’une radiation résiduelle à une température d’environ 10K qui emplirait
ÉLÉMENTAÍRE
Le rayonnement fossile
tout l’espace et serait un témoignage des premiers instants de l’Univers.
Penzias et Wilson se font envoyer l’article en question et commencent
à réaliser la portée de leur découverte. Ils invitent alors les chercheurs
de Princeton à leur rendre visite et les convainquent sans peine de la
qualité de leurs mesures. Décision est alors prise de publier deux articles
dans le même numéro de la revue « Astrophysical Journal », soumis
respectivement les 7 et 13 mai 1965 :
• un article théorique signé par le groupe de Princeton, présentant le
rayonnement fossile micro-ondes (CMB pour «cosmic microwave
background») et expliquant son origine ;
• un article expérimental, écrit par Penzias et Wilson, « Mesure d’un excès
de température d’antenne à 4080 MHz », décrivant l’excès de température
enregistré dans l’antenne du New Jersey (3,5 ± 1,1 K, isotrope au niveau
de 10%) sans mentionner ses implications possibles en cosmologie.
Rayonnement
(CMB)
page 55
Des recherches dans des publications plus anciennes montrent alors
que la première indication, non pas du CMB mais d’un excès d’énergie
à une température voisine de 3 K, est en fait cachée dans des spectres
d’émission du milieu interstellaire ! Ces observations vieilles de près de
trente ans montrent en effet la présence d’une raie de cyanure dans le
milieu interstellaire (une molécule formée d’un atome de carbone et d’un
atome d’azote, produite comme plus de cent autres par des réactions
chimiques dans l’Univers). Les atomes absorbent l’énergie de photons
du CMB dont l’énergie correspond précisément à la différence entre le
fondamental et le premier niveau excité du cyanure. Puis ils reviennent au
repos en ré-émettant un photon de même énergie. Les photons forment la
raie du spectre d’émission détectée sur Terre, lequel porte donc la marque
du CMB.
ÉLÉMENTAÍRE
micro-ondes
Après le Big Bang, l’Univers est resté
opaque 380 000 ans environ : avant
cette date, sa température est telle que
les photons qu’il contient interagissent
continuellement avec la matière ionisée ce
qui les empêche de voyager sur de grandes
distances et donc de nous apporter leur
« lumière ». À mesure que l’Univers se
dilate, sa température diminue. Lorsque
les photons n’ont plus assez d’énergie pour
ioniser l’atome le plus simple, l’hydrogène,
ils se découplent de la matière et l’Univers
devient transparent (voir « Théorie »).
C’est l’empreinte de cet événement que
Penzias et Wilson ont découvert dans leur
antenne. L’expansion de l’Univers s’étant
poursuivie pendant plus de treize milliards
d’années, ces photons ont « refroidi »
jusqu’à 2,7 K.
L’émission du CMB correspond donc
à un instant bien précis de l’histoire
de l’Univers. Si nous l’observons en
permanence aujourd’hui, c’est parce qu’il
s’est produit au même moment en chaque
point de l’espace. Comme l’Univers est
très étendu, il y a toujours une partie de
la « surface de dernière diffusion » située à
une distance telle que les photons émis de
cet endroit nous parviennent maintenant.
Le même genre de phénomène serait
observé par une personne placée au
milieu d’une foule immense dont tous
les membres hurleraient le même mot au
même moment. Bien que le cri ne dure
qu’un instant, la personne entendrait un
cri continu qui proviendrait sans cesse
d’un endroit plus éloigné.
La petite histoire veut que Dicke, apprenant la découverte de Penzias et
Wilson, ait dit à ses collaborateurs : « les gars, on s’est fait griller ». Si sa
remarque s’adresse dans son esprit uniquement à son équipe – laquelle
construit une antenne précisément pour détecter ce rayonnement, ce
qu’elle parvient d’ailleurs à faire au mois de décembre de la même
année – elle a une portée plus large. L’excès de température était en fait
déjà présent (mais presque invisible) dans des données enregistrées à
Crawford Hill lors des expériences de communication avec les satellites
Echo : au lieu d’une valeur attendue de 18,9 ± 3,0 K pour la température
de l’antenne, les mesures avaient donné 22,2 ± 2,2 K. Comme l’excès
était dans la fourchette d’erreur attendue, il ne fut pas jugé significatif. De
toute manière le dispositif expérimental ne permettait pas de séparer les
bruits de l’antenne de ceux de l’électronique, ce qui rendait impossible
l’identification de sa source. Cet épisode montre bien le mérite de Penzias
et Wilson : par leur compréhension de l’instrument et la précision de leurs
mesures, ils ont préparé le terrain pour leur découverte... fortuite !
Les fondements théoriques du CMB sont également assez anciens. Les
pionniers dans ce domaine sont Gamov, Alpher et Herman qui « inventent »
le CMB entre 1948 et 1950 et estiment sa température : 50, ensuite 5 puis
28K. Par contre, il n’est pas encore clair pour eux que ce rayonnement
fossile
Le rayonnement fossile
Comparaison des spectres de corps noir
aux températures de 5777 K (Soleil),
300 K et 2,73 K (CMB) en fonction de la
longueur d’onde, exprimée en microns.
Les deux échelles sont logarithmiques ce
qui signifie que chaque variation d’une
unité correspond à un changement d’un
facteur dix. L’émission du CMB est donc
très faible.
doit être isotrope et présent partout dans l’Univers. Leurs travaux sont
redécouverts indépendamment par Zel’dovich et Dicke au début des
années 1960. En 1964, Dorochkevitch et Novikov déterminent les
principales propriétés du CMB et soulignent le potentiel de ... l’antenne
Bell de Crawford Hill pour sa recherche ! L’observation de Penzias et
Wilson l’année suivante retient donc immédiatement l’attention de la
communauté des chercheurs et leurs mesures sont immédiatement
interprétées et comparées aux prédictions alors disponibles.
Les brillants résultats de COBE
L’une des prédictions fondamentales de la théorie du CMB est que son
spectre, c’est-à-dire son intensité en fonction de la longueur d’onde
(ou de la fréquence), est celle d’un corps noir, caractérisé uniquement
par sa température TCMB. La grande majorité des mesures effectuées
durant les vingt années qui suivent la découverte du CMB confortent
cette hypothèse et donnent TCMB ≈ 2,7K. La confirmation vient en 1990
lorsque les mesures de l’instrument FIRAS embarqué sur le satellite
COBE sont publiées : TCMB = 2,725 ± 0,002K et le spectre est en parfait
accord avec celui d’un corps noir. Si elles existent, les déviations relatives
par rapport à cette courbe sont inférieures à 50 millionièmes, ce qui fait
du CMB le meilleur corps noir connu aujourd’hui.
Deux ans plus tard, les scientifiques en charge de l’analyse des données de
DMR, un autre détecteur emporté par COBE, rendent publique la première
carte des asymétries du CMB, c’est-à-dire des différences de température
du rayonnement en fonction de la direction d’observation. Les premières
mesures de Penzias et Wilson montraient un rayonnement isotrope, aux
erreurs de mesure près. Et de fait, les anisotropies sont minuscules : au
niveau du millième de pourcent, une fois soustraites les contributions
Doppler liées au mouvement de la Terre autour du Soleil et de celui-ci
par rapport au CMB, qui
sont de l’ordre du dixième
de pourcent. Comprendre
l’origine de ces variations de
température et expliquer leur
amplitude est une question
très importante pour la
Cosmologie. En particulier, il
est intéressant de comparer
les températures dans deux
directions données en fonction
de l’angle qui les sépare et de
moyenner ces informations
sur tout le ciel. On obtient
alors le spectre angulaire des Intensité du CMB en fonction de la longueur
fluctuations de température d’onde, mesurée par le satellite COBE. C’est
du CMB qui est, lui aussi, à l’heure actuelle le spectre expérimental se
rapprochant le plus de celui d’un corps noir
riche d’enseignements.
page 56
théorique.
ÉLÉMENTAÍRE
© COBE
© COBE
Corps noir
C’est un objet physique idéal qui absorbe la totalité
du rayonnement qu’il reçoit sans rien réfléchir ni
transmettre – d’où son qualificatif : « noir ». Un
corps noir émet un rayonnement caractéristique,
entièrement déterminé par un paramètre unique,
appelé température. Le CMB est, à l’heure actuelle, le
phénomène qui se rapproche le plus d’un corps noir
parfait car l’Univers était à l’équilibre thermique
au moment où ce rayonnement a été émis. Plus
prosaïquement, un four maintenu à température
constante est un bon exemple de « quasi-corps noir ».
Les étoiles peuvent également être décrites comme des
corps noirs, ce qui permet de déterminer avec une assez
bonne précision leur température de surface. Pour la
petite histoire, les nombreux travaux théoriques menés
dans le dernier quart du XIXe siècle pour expliquer la
forme du spectre du corps noir ont ouvert la voie vers
« l’invention » du photon et la mécanique quantique.
Le rayonnement fossile
© COBE
© COBE
Avec la mesure du spectre de corps noir du CMB et la mise en évidence
des anisotropies de température, COBE apparaît vraiment comme une
expérience fondatrice. Le jury du prix Nobel de physique 2006 a d’ailleurs
récompensé George Smoot et John Mather (responsables respectivement
des instruments DMR et FIRAS) en justifiant ainsi son choix : « le projet
COBE a marqué l’entrée de la cosmologie parmi les sciences de précision ».
Par contre, ce sont ses successeurs qui ont mené à bien la détermination
précise du spectre angulaire du CMB et son interprétation cosmologique :
tout d’abord des expériences au sol ou en ballon (comme BOOMERANG
ou ARCHEOPS), puis le satellite WMAP, dont la précision et la variété des
mesures ont surpassé tous les résultats obtenus jusqu’alors.
Les mesures de précision de WMAP
La NASA lance en 2001 le satellite WMAP. L’expérience a publié en
février 2003 ses premiers résultats basés sur les données accumulées la
première année. En 2006 et 2008, ils ont été mis à jour en utilisant trois,
puis cinq années d’observation. Toujours en fonctionnement, WMAP
devrait continuer à cartographier le CMB jusqu’à l’automne 2009.
Contrairement à COBE, WMAP n’est pas en orbite autour de la Terre : il
est positionné au second point de Lagrange (L2) du système Terre-Soleil
(voir « Expérience ») qu’il a rejoint après un voyage de trois mois. Cet
emplacement a été choisi pour minimiser les émissions parasites du
système solaire et pour lui assurer une excellente stabilité thermique.
Afin d’avoir accès à l’ensemble du ciel sans jamais regarder en direction
du Soleil, WMAP décrit une orbite complexe dans la zone de ce point
de Lagrange. De plus, il fait un tour sur lui-même toutes les deux
minutes et neuf secondes tandis que son axe de rotation précesse à
une vitesse d’un tour par heure ! Toutes ces caractéristiques permettent
au satellite de couvrir l’ensemble du ciel en six mois. Sa calibration
repose d’une part sur la mesure de l’anisotropie de température due
au mouvement propre du Soleil et d’autre part sur les signaux produits
par les passages de Jupiter dans la visée des détecteurs.
Dix paires de télescopes observent en permanence le ciel dans
vingt directions, deux à deux opposées ; ce sont les différences de
température qui sont mesurées. Cinq bandes de fréquence allant
de 23 à 94 GHz servent aux observations, ce qui permet de quantifier
et de soustraire les bruits de fond de notre galaxie et des sources
extragalactiques qui contaminent le CMB. En effet, le signal et les bruits
de fond ont des caractéristiques différentes selon la fréquence et ces
variations sont utilisées pour séparer le bon grain de l’ivraie. Plusieurs
méthodes permettent d’optimiser cette phase de soustraction de bruit,
cruciale pour obtenir la carte des anisotropies ainsi que leur spectre
angulaire. L’instrument est maintenu à une température constante tandis
que la puissance nécessaire aux instruments (419 Watts) est fournie par
des panneaux situés sur le « bouclier solaire » de cinq mètres de diamètre
qui isole également les télescopes du Soleil.
page 57
ÉLÉMENTAÍRE
Anisotropies du CMB (écart par rapport
à la température moyenne) mesurées par
l’instrument DMR du satellite COBE (les
zones en rouge sont plus chaudes que les
zones en bleu, la différence étant de quelques
dizaines de millionièmes de degrés). Cette
carte est une sorte de « photo » de l’Univers
prise alors qu’il n’avait que 380 000 ans
environ.
© COBE
COBE
Le satellite COBE (« Cosmic Background
Explorer ») est lancé par la NASA en
novembre 1989, près de quinze ans après
les premières études de prospective d’un
tel engin. Il emporte deux instruments
consacrés à l’étude du CMB.
■ FIRAS (« Far-InfraRed Absolute Spectro-photometer ») ; il a mesuré le spectre
d’émission du CMB et vérifié qu’il
s’agissait bien de celui d’un corps noir.
■ DMR (« Differential Microwave Radiometer ») ; il a cartographié les anisotropies
du CMB dans le ciel en fonction de la
direction de visée.
Le rayonnement fossile
Les paramètres mesurés par WMAP sont présentés dans l’article
« Théorie ». Ici, on peut simplement dire qu’ils concernent son âge, son
évolution (de la phase d’inflation initiale à l’expansion actuelle) ou encore
sa composition. À mesure que la quantité de données analysée augmente
et que son traitement s’améliore, les mesures se font plus précises et plus
complètes : la moisson de WMAP n’est pas encore terminée !
© WMAP
Le futur : Planck et la mesure de la
polarisation du CMB
Le satellite WMAP, « Wilkinson Microwave Anisotropy Probe », en français
« observatoire Wilkinson de l’anisotropie
du rayonnement micro-ondes », baptisé
en l’honneur de David Wilkinson, un
membre de la collaboration MAP décédé en
septembre 2002 et qui travaillait déjà sur le
CMB dans le groupe de Dicke à Princeton
près de quarante ans auparavant.
© WMAP
Vous en saurez plus en lisant l’article de ce numéro
consacré à ce satellite, qui a été lancé le 14 mai 2009.
Le satellite Planck améliorera les résultats de WMAP à
toutes les échelles angulaires. Il réalisera également les
premières mesures détaillées de la polarisation du CMB
(fluctuations au niveau du microkelvin), fondamentales
pour comprendre encore mieux les premiers instants de
l’Univers : c’est la nouvelle frontière du rayonnement
fossile !
page 58
Comparaison des mesures de Penzias et
Wilson (en haut), COBE (au milieu) et
WMAP (en bas) respectivement. WMAP
est quarante-cinq fois plus sensible que
COBE et a une résolution angulaire
trente-trois fois meilleure. Ses cartes
du ciel comptent un peu plus de trois
millions de pixels. Cette définition, qui
pourrait faire sourire étant données les
performances actuelles des appareils photo
numériques, est en fait remarquable vue
la complexité des processus mis en œuvre
(voir « Expérience »). La bande horizontale
« rouge » correspond au rayonnement de la
galaxie et a été soustraite dans l’image cicontre.
Après le succès des expériences COBE et WMAP, que nous reste-t-il
à apprendre du CMB ? Beaucoup de choses en fait : des scientifiques
américains et européens ont mis la dernière main à l’expérience de la
prochaine génération : Planck, du nom du physicien allemand Max Planck
dont les travaux sur la compréhension du spectre du corps noir ouvrirent,
à la toute fin du XIXe siècle, la voie vers la mécanique quantique.
Carte des anisotropies du CMB obtenue par WMAP après
analyse de cinq ans de données. Tous les bruits de fond
sont ici soustraits pour ne conserver que les anisotropies du
CMB.
ÉLÉMENTAÍRE
Théorie
Le modèle cosmologique standard
Principe d’équivalence
Le principe d’équivalence, postulé par
Einstein, stipule que tout champ de
gravité est localement indiscernable d’une
accélération. Ainsi, quand vous prenez un
ascenseur pour monter quelques étages,
vous ressentez au départ une accélération
qui vous donne l’impression de peser
plus lourd. Imaginons maintenant une
tour très haute où circule un ascenseur
en accélération constante. D’après le
principe d’équivalence, il est impossible
à un physicien réalisant des expériences
dans cet ascenseur de déterminer s’il est
en accélération constante ou bien s’il est
au repos dans un champ de pesanteur :
dans les deux cas, la pomme qu’il jette
en l’air lui retombe sur la tête suivant
la même trajectoire ! À l’inverse, le
principe d’équivalence implique qu’on
peut annuler un champ de pesanteur en
appliquant au système qui le subit une
accélération égale et opposée. Ainsi,
quand l’ascenseur décélère à la fin de son
ascension pour s’arrêter à l’étage de votre
choix, vous avez l’impression de moins
peser.
Pour un champ de gravité non uniforme,
qui dépend de l’endroit où l’on se trouve,
comme le champ de gravité terrestre,
les choses sont plus complexes, mais
aussi plus intéressantes quant à leurs
conséquences : le champ de pesanteur
est alors équivalent à une accélération
différente en chaque point de l’espace. Or
toute accélération est mathématiquement
équivalente à un changement de
coordonnées d’espace et de temps de sorte
qu’un champ gravitationnel est équivalent
à une déformation de l’espace-temps : on
retrouve ainsi les idées de la relativité
générale.
Une galaxie qui s’enfuit dans la nuit
En 1916, Albert Einstein élabore sa théorie de la relativité générale,
proposant une nouvelle vision de la gravité, basée sur le principe
d’équivalence. Un objet déforme l’espace-temps à sa proximité, et ce
d’autant plus qu’il est massif. Un corps qui passe à sa proximité ressent
cette déformation et voit sa trajectoire modifiée, exactement comme s’il
était attiré par sa gravité... Si la théorie d’Einstein permet de retrouver la
formulation de Newton dans la plupart des cas (en particulier la mécanique
céleste, qui décrit le mouvement des planètes autour du Soleil), elle prédit
certains écarts notables, en particulier pour des objets très massifs, ou se
déplaçant à des vitesses proches de celle de la lumière.
ÉLÉMENTAÍRE
DR
Einstein n’apprécie guère les idées de
Friedmann et de Lemaître – il affirme
même à ce dernier : « Vos calculs
sont corrects, mais votre physique
est abominable ». En effet, le modèle
de Lemaître est celui d’un univers
en expansion, né d’une « graine »
initiale (que Lemaître appelle « atome
primitif ») – une vision en opposition
Photographie en négatif d’une éclipse de Soleil
prise par l’astronome anglais Arthur Eddington
en 1919 sur l’île de Principe, dans le golfe de
Guinée. La position des étoiles apparaissant
à proximité du Soleil est indiquée par une
paire de fins traits horizontaux (combien en
voyez-vous sur cette photo ?). Cette position est
légèrement décalée par rapport à la position
réelle des étoiles : la présence (massive !) du
Soleil courbe la trajectoire des rayons issus des
étoiles, en accord qualitatif et quantitatif avec
la théorie de la relativité générale.
page 59
Tandis que les astronomes cherchent à vérifier ou infirmer sa théorie, en
particulier en étudiant des clichés d’éclipses du Soleil, Einstein met déjà en
pratique ses toutes nouvelles équations en les appliquant à l’Univers dans
son ensemble, ce qui requiert une description relativiste de la gravitation.
Il ouvre ainsi un nouveau domaine, la cosmologie relativiste, qui est le
cadre de toutes les théories cosmologiques actuelles.
Mais si Einstein a bel et bien montré ce que la théorie de la relativité
générale pouvait apporter à la cosmologie, son modèle d’un univers
statique, où rien ne bouge, va s’avérer complètement erroné. Il faudra
attendre les années 20 pour que deux physiciens, le soviétique Alexander
Friedmann et le belge Georges Lemaître, proposent indépendamment une
solution alternative, le premier en 1922, le second en 1927. Comment s’y
prennent-ils ? Ils ajoutent à l’idée d’un Univers homogène et isotrope
sur les grandes échelles (voir « Apéritif ») un ingrédient supplémentaire :
il peut se contracter ou s’étendre au fil du temps. Prenez un ballon sur
lequel vous avez dessiné des points, puis gonflez-le : les points s’écartent
progressivement les uns des autres, non pas du fait de leur mouvement
propre, mais simplement parce que la surface du ballon – l’espace – s’étire.
Friedmann et Lemaître imaginent
que l’Univers s’étire d’une manière
similaire, et écrivent des équations
dérivées de la relativité générale
pour montrer comment le contenu en
matière de cet univers « simplifié »
affecte son expansion ou sa
contraction.
Le modèle
Effet Doppler
La sirène d’une ambulance semble
plus aiguë lorsqu’elle roule dans votre
direction, et plus grave quand elle
s’éloigne de vous. Ce phénomène se
rencontre plus généralement quand
une source émet des ondes tout en se
déplaçant par rapport à un observateur
– y compris quand il s’agit d’ondes
lumineuses. L’effet Doppler permet de
déterminer la vitesse de déplacement de
la source par rapport à l’observateur.
avec le modèle statique préféré alors par Einstein. Lemaître tire de son
modèle une conséquence simple et pourtant remarquable. Remplacez les
points de notre ballon par des galaxies. Lorsqu’on gonfle le ballon, ces
galaxies s’éloignent les unes des autres, et ce d’autant plus vite qu’elles
sont éloignées.
DR
Depuis les années 1917-18, on soupçonne une telle fuite des galaxies.
En effet, plusieurs astronomes analysent la lumière provenant de galaxies
lointaines. Sur son parcours, celle-ci traverse des nuages de gaz qui
absorbent certaines fréquences bien précises (lesquelles dépendent de
la composition du gaz). En décomposant le spectre de la lumière reçue,
on observe donc des raies noires dites raies d’absorption. Mais les raies
observées par nos astronomes ne se trouvent pas là où elles devraient être,
elles sont systématiquement à des fréquences plus basses que prévues,
on dit qu’elles sont « décalées vers le rouge ». Parmi les nombreuses
explications proposées, l’une des plus naturelles consiste à penser que
ces galaxies s’éloignent de nous, ce qui engendre le décalage observé
– aussi appelé « redshift » – par effet Doppler. En 1929, l’astronome
américain Edwin Hubble va plus loin. En observant certaines étoiles, les
Céphéides, il détermine la distance de 46 galaxies
dont le décalage vers le rouge est connu. Avec Milton
Humason, il conclut alors à une proportionnalité
entre la distance des galaxies et leur vitesse – une
relation appelée loi de Hubble, en accord avec la
solution de Friedmann-Lemaître.
Alexander
Alexandrovich
Friedman (1888-1925)
© NASA/ESA
DR
Georges Lemaître
Georges Lemaître est
né à Charleroi le 17
juillet 1894. Après avoir
étudié les humanités
chez les Jésuites, il
entre à dix-sept ans à
l’école d’ingénieurs de
l’Université catholique
de Louvain. En 1914, il
interrompt ses études
et s’engage comme
volontaire dans l’armée
belge (ce qui lui vaudra la Croix de guerre).
Après la guerre, il étudie la physique et les
mathématiques, tout en se dirigeant vers une
carrière sacerdotale. En 1920, il passe un doctorat
sur « L’approximation des fonctions de plusieurs
variables réelles », et s’intéresse à la théorie de la
relativité. En 1923, Lemaître est ordonné prêtre,
et il obtient plusieurs bourses pour se rendre à
Cambridge (Royaume-Uni) et... à Cambridge
(USA) pour étudier l’astronomie. De retour en
Belgique, il devient chargé de cours à l’Université
catholique de Louvain en 1925. Deux ans plus
tard, il présente un mémoire intitulé « Un
Univers homogène de masse constante et de rayon
croissant rendant compte de la vitesse radiale des
nébuleuses extragalactiques », où il expose sa
théorie sur l’expansion de l’Univers. En 1931, il
présente son idée d’un « Atome primitif », peu
appréciée par la communauté scientifique de
l’époque, qui la juge trop proche de certains
concepts religieux – la vocation de son instigateur
n’est certainement pas étrangère à ce rejet. En
1936, il est élu membre de l’Académie Pontificale
des Sciences, et en 1960 il est nommé prélat. À
la fin de sa vie, Lemaître se consacre de plus en
plus au calcul numérique, en s’intéressant aux
calculateurs les plus avancés de l’époque. Il
meurt à Louvain le 20 juin 1966.
page 60
Une Céphéide dans la galaxie M100,
représentée sur la photographie
du bas. Les trois clichés en haut de
l’image correspondent à la même
région de M100 à trois moments
différents : au centre de chaque cliché
se trouve la même Céphéide, dont la
luminosité varie au cours du temps.
Céphéides
Les Céphéides sont des étoiles de luminosité
variable, dont le nom vient de l’une de leur
représentantes, Delta de la constellation de
Céphée. Ces étoiles géantes connaissent une
alternance de contractions et d’expansions.
La période de ce cycle est reliée de façon
étroite à la luminosité de l’étoile, ce qui fait
des Céphéides des étalons de luminosité (des
« chandelles standard »). En comparant la
luminosité d’une Céphéide, déterminée par
cette relation, avec la luminosité mesurée sur
Terre, il est possible d’estimer la distance de
l’étoile, et donc de la galaxie qui la contient.
ÉLÉMENTAÍRE
Décalage vers le rouge
La figure extraite de l’article original de Hubble (1929). Les points
noirs et la ligne continue correspondent aux données dans le cas
où les différentes nébuleuses étaient considérées individuellement.
Les cercles et la ligne discontinue correspondent à un regroupement
des nébuleuses, pour limiter les effets du mouvement propre
des nébuleuses les unes par rapport aux autres. Les deux lignes
correspondent à des valeurs de H nettement plus élevées que la
valeur actuellement mesurée.
Une version moderne du diagramme de Hubble, tracée
à l’aide de relevés de supernovæ en 1998. Les courbes
correspondent à différents modèles d’expansion de
l’Univers.
Boum, quand l’Univers fait boum
L’idée de base de Friedmann et Lemaître est par la suite reprise par Howard
Robertson et Arthur Walker, puis développée et raffinée dans les années 50
par un étudiant de Friedmann, le physicien George Gamow. L’hypothèse
d’un Univers en expansion a de nombreuses conséquences qui ne tarderont
pas à trouver une vérification expérimentale.
ÉLÉMENTAÍRE
page 61
En effet, si l’Univers est en expansion, il a dû être plus dense dans le passé.
Et si cette expansion dure depuis les premiers instants, comme suggéré par
la théorie de Friedmann et Lemaître, on peut rembobiner le film en partant
de l’Univers que nous connaissons, où la matière qui l’emplit est concentrée
dans et autour des galaxies, séparées par d’immenses régions vides...
En remontant dans le temps, les galaxies se rapprochent et se mélangent,
l’Univers primordial est une « soupe » chaude et dense de matière atomique
plus ou moins uniforme. En remontant encore plus loin dans le temps, on
peut même imaginer des densités et des températures telles que les atomes
eux-mêmes se dissocient en un plasma de particules chargées, noyaux
atomiques et électrons. Plus tôt encore, l’Univers doit être empli d’une soupe
de constituants encore plus fondamentaux. Nos connaissances actuelles ne
nous permettent pas, par principe, de remonter indéfiniment l’histoire de
l’Univers, jusqu’à son éventuel commencement, nommé « Big Bang ». En
effet, on se heurte inévitablement à la« barrière de Planck », temps auquel
l’Univers est si dense que les effets de gravité quantique ne peuvent plus
– comme c’est le cas aux échelles accessibles dans nos accélérateurs – être
négligés.
Proportionnalité
La tâche que Hubble et Humason avaient
à accomplir pour énoncer leur loi n’était
pas simple. Les mesures de distances par
Hubble étaient entachées d’incertitudes.
De plus l’astronome ne prenait pas en
compte le fait que certaines galaxies
ont un mouvement propre causé par
l’attraction des galaxies et des amas de
galaxies situés à proximité. Cet effet
modifie le décalage vers le rouge généré
par l’expansion générale de l’Univers. Il
n’est donc pas étonnant que le graphique
original de Hubble, représentant le
décalage vers le rouge des galaxies en
fonction de leur distance, ne montre pas
une belle droite, mais plutôt un essaim
de points plus ou moins alignés.. ce qui
amène néanmoins Hubble et Humason
à postuler que vitesse d’éloignement
et distance sont approximativement
proportionnelles, selon un rapport H
aujourd’hui appelé constante de Hubble.
Ils obtiennent la valeur approximative de
150 km/s par million d’années-lumière.
À l’heure actuelle, on a mesuré le
décalage vers le rouge d’un grand nombre
de galaxies et on sait corriger les effets
des mouvements propres des galaxies
pour obtenir une valeur plus précise de
la constante de Hubble, reliant distance
et vitesse des galaxies : H = 75 km/s
par million d’années-lumière, ce qui
signifie qu’une galaxie située à un million
d’années-lumière de la Terre s’en éloigne
à la vitesse de 75 km/s.
© (c) Supernova Cosmology Project
DR
Magnitude effective
Le modèle cosmologique standard
Le modèle cosmologique standard
Notre histoire commence donc il y a 13,7 milliards d’années, après que
l’Univers s’est suffisamment dilué pour qu’on puisse négliger ces effets inconnus
et séparer la gravitation « classique » des autres interactions fondamentales, qui
requièrent une description quantique aux échelles d’énergie considérées. En
imaginant qu’il existe un « début » de l’Univers, cela correspondrait à environ
10-43 seconde après cet instant initial. L’Univers est alors rempli de manière
homogène d’une soupe de particules extrêmement dense et chaude : sans
cesse, certaines se désintègrent tandis que d’autres sont créées sous forme de
paires particule-antiparticule. L’Univers est en expansion rapide, ce qui diminue
la densité des particules, tout comme la température. Au fur et à mesure, il
devient donc de plus en plus difficile de créer des particules massives, qui se
désintègrent et disparaissent au détriment de particules plus légères.
Asymétrie particule/antiparticule
Le physicien soviétique Andreï Sakharov
a formulé en 1967 les trois conditions
nécessaires pour créer une asymétrie entre
matière et antimatière dans l’Univers,
alors que le Big Bang est a priori une
situation symétrique :
• asymétrie des interactions de la
matière et de l’antimatière : il faut que les
symétries C (conjugaison de charge) et CP
(conjugaison de charge et renversement
par parité) ne soient pas respectées par
certaines interactions.
• création de baryons (contenant trois
quarks, comme le proton et le neutron) :
il faut qu’il existe des processus ne
conservant pas le nombre baryonique,
c’est-à-dire que le nombre de baryons et
le nombre d’antibaryons créés au cours de
certains processus soient différents.
• rupture de l’équilibre thermique : s’il
y avait équilibre thermique, les taux des
réactions produisant un excès de baryons
seraient égaux à ceux des réactions
produisant un excès d’antibaryons,
de sorte qu’aucune asymétrie ne se
produirait.
Le Modèle Standard de la physique des
particules contient bien des processus
satisfaisant ces critères, mais ils sont trop
faibles pour expliquer l’asymétrie entre
matière et antimatière dans l’Univers.
Parmi les pistes alternatives, on évoque,
entre autres, diverses extensions du
Modèle Standard, ou encore la création
d’une asymétrie initiale entre leptons
et antileptons convertie par la suite en
asymétrie entre baryons et antibaryons...
Tandis que l’Univers s’étend progressivement tout en se refroidissant, différents
phénomènes se produisent. Vers 10-36 seconde, la force forte et la force
électrofaible se différencient. Puis vers 10-12 seconde, la force électrofaible se
scinde en forces électromagnétique et faible, et toutes les particules acquièrent
une masse du fait de la brisure de la symétrie électrofaible, liée aux propriétés
du boson de Higgs (voir Élémentaire N°6). À cette époque, les particules et les
forces en présence sont tout à fait équivalentes à celles connues actuellement et
étudiées dans les accélérateurs de particules, mais la température et la densité
sont bien supérieures à tout ce que nous connaissons. Une légère asymétrie
entre particules et antiparticules serait apparue de sorte qu’une petite quantité
de matière ait survécu, alors que (presque) toute l’antimatière a disparu.Il faut
attendre 10-6 seconde après le Big Bang pour que la situation soit assez calme et
que les quarks puissent s’associer pour former des hadrons, comme les protons
et les neutrons – auparavant, l’agitation environnante aurait rapidement éjecté
un des quarks hors de notre pauvre hadron, réduit en miettes !
À partir de trois minutes, l’Univers est donc essentiellement empli de photons,
d’électrons, de protons et de neutrons. Ces derniers ne vivent pas vieux quand
ils sont tous seuls, hors des noyaux atomiques : au bout de seulement quinze
minutes, ils se désintègrent en protons. Ne peuvent survivre que les neutrons
qui s’associent avec des protons pour former les premiers noyaux stables, en
particulier ceux d’hélium. Les réactions de fusion nucléaire permettant cette
nucléosynthèse primordiale ne sont possibles que pendant une petite vingtaine
de minutes : l’expansion de l’Univers a ensuite trop dilué les noyaux pour
autoriser ces réactions.
L’Univers continue à se refroidir, tout comme les photons qu’il contient. Environ
380 000 ans après le Big Bang, ces derniers sont si peu énergétiques qu’ils ne
peuvent plus empêcher les électrons et les noyaux de s’associer pour former des
atomes neutres électriquement. À la fin de ce processus de « recombinaison »,
les photons ne rencontrent plus de particules chargées, mais des atomes neutres
qu’ils ne peuvent plus ioniser. Ils peuvent donc parcourir de longues distances
sans interagir avec la matière. L’Univers devient donc transparent, empli
principalement d’hydrogène, d’hélium, de lithium et de photons.
Ces nuages de gaz sont très homogènes, mais il existe quand même des zones
page 62
Photons
Au fur et à mesure de l’expansion
de l’Univers, la distance s’accroît
progressivement entre deux points qui
n’ont pas de mouvement relatif propre.
De la même manière, les photons voient
leur longueur d’onde augmenter, ce
qui correspond à une diminution de la
température associée.
ÉLÉMENTAÍRE
Le modèle cosmologique standard
légèrement plus denses ou moins denses. Les zones plus
denses tendent, par gravité, à attirer encore un peu plus la
matière environnante et vident les zones moins denses. Il
faut attendre au moins 150 millions d’années après le Big
Bang pour voir apparaître les premiers objets lumineux (les
quasars) et les premières étoiles ! Leur lumière ionise les
nuages d’hydrogène interstellaire, tandis qu’en leur cœur, les
noyaux légers fusionnent pour constituer des éléments plus
lourds. Plusieurs générations d’étoiles se succèdent et, autour
de l’une d’entre elles, au bout de neuf milliards d’années, se
forme notre système solaire. Enfin, onze milliards d’années
après le Big Bang, la vie apparaît sur Terre.
Les conséquences les plus marquantes de l’expansion de
l’Univers sont l’existence d’un rayonnement fossile emplissant le cosmos et les abondances relatives de certains noyaux
légers, comme le deutérium et l’hélium-4. La découverte de
ce qui est aujourd’hui appelé le rayonnement fossile (CMB,
voir « Découverte ») et la mesure des abondances relatives
des noyaux légers assoient définitivement cette théorie d’un
Univers en expansion, qui sera progressivement enrichie des
connaissances croissantes en astronomie, en astrophysique
et en physique des particules.
De façon ironique, c’est un adversaire acharné de Gamow,
l’astronome Fred Hoyle, qui baptise « Big Bang » cette
théorie au cours d’une émission de vulgarisation de la BBC. Elle constitue
en quelque sorte le modèle standard cosmologique. Tout comme dans
le cas du modèle standard de la physique des particules, les physiciens
cherchent à le mettre en défaut afin de l’améliorer. Il constitue la meilleure
description de nos connaissances sur l’évolution de l’Univers, mais cela ne
veut pas dire qu’il soit parfait !
Une représentation schématique de
l’évolution de l’Univers, depuis l’inflation
jusqu’à nos jours.
Des problèmes à l’horizon
ÉLÉMENTAÍRE
page 63
Le CMB est donc constitué des photons issus de l’Univers primordial qui
portent la marque de la dernière interaction qu’ils ont connue, environ
380 000 ans après le Big Bang. Les différentes observations provenant de
satellites et de ballons atmophériques (voir « Découverte »), ont fourni
une carte précise de ce rayonnement fossile : si celui-ci est extrêmement
homogène sur tout le ciel, de température moyenne 2,7K, on a pu mettre
en évidence d’infimes fluctuations de température - de l’ordre de 1 pour
100 000 - d’une direction du ciel à l’autre ! De telles anisotropies reflètent
les légères différences de densité de la matière au moment de l’émission
de ces photons. Ces hétérogénéités primordiales seront le germe des
nuages qui donneront naissance aux étoiles, aux galaxies, puis aux amas
de galaxies etc.
Le deutérium et l’hélium-4
Ces éléments sont de bons indicateurs
des processus liés à la nucléosynthèse
primoridale. Les étoiles produisent
l’hélium-4 lors de réactions thermonucléaires, mais en quantité nettement
insuffisante pour expliquer l’abondance
actuelle de cet élément (25% en masse de
la matière ordinaire de l’Univers) – c’est
donc à la nucléosynthèse primordiale
d’expliquer
cette
proportion.
A
contrario, lors de la nucléosynthèse
primoridale, le deutérium fraîchement
créé se combine très facilement pour
donner de l’hélium- 4, mais l’expansion
de l’Univers empêche ce processus de
faire complètement disparaître tout le
deutérium. Ainsi, les processus de nucléosynthèse primordiale et l’expansion de
l’Univers sont fortement contraints par
les mesures de l’abondance de ces deux
éléments légers dans l’Univers.
Mais dès les années 70, les observations des radioastronomes imposent
des contraintes très strictes sur ces hétérogénéités : le CMB semble
extrêmement homogène. Une victoire pour le modèle de Friedmann
et Lemaître, basée sur l’idée même d’isotropie et d’homogénéité ?
Plutôt un problème supplémentaire à résoudre. Pour le comprendre, il
faut passer par la notion d’horizon. Tout comme dans la vie courante,
l’horizon d’un observateur délimite la zone à l’intérieur de laquelle se
trouvent les objets dont il peut percevoir la présence. En cosmologie,
l’horizon est essentiellement défini par la question : une lumière
émise de tel point a-t-elle eu le temps de parcourir l’espace jusqu’à
moi depuis le début de l’Univers (Big Bang) ? Si c’est le cas, ce point
est à l’intérieur de mon horizon.
© S. Descotes-Genon
Au fil de l’expansion de l’Univers, l’horizon d’un observateur s’étend :
de plus en plus de points entrent dans notre champ de vision et le CMB
que nous percevons provient de régions de plus en plus éloignées de
nous. Prenons deux photons du CMB qui arrivent sur la Terre de deux
directions opposées : ils proviennent de deux régions de l’espace qui
viennent d’entrer dans notre horizon. Cependant, on peut montrer
qu’à l’époque où ces photons ont été émis, ces deux régions n’avaient
pas encore eu le temps de communiquer entre elles. Autrement dit, elles
ne sont pas dans l’horizon l’une de l’autre : elles n’ont donc aucune
raison d’avoir des caractéristiques physiques similaires. Comment se
fait-il qu’elles aient un CMB avec des températures aussi proches ? On
s’attendrait à observer des fluctuations beaucoup plus importantes.
Les régions de l’espace ayant pu être en
contact causal et pouvant donc présenter
un aspect homogène, représentées ici
par des cercles contenant des symboles
semblables, sont de taille limitée du fait
de la vitesse finie de propagation de tout
signal – ou interaction – physique. Dans
un scénario de type Big Bang sans inflation,
la taille de telles régions au moment de
l’émission du CMB est très inférieure à
celle de l’horizon (Univers observable),
lequel devrait donc présenter un haut
degré d’inhomogénéité, en contradiction
flagrante avec l’observation. Au contraire,
dans un scénario d’inflation, la taille des
régions causalement connectées est dilatée
exponentiellement avant l’émission du
CMB et devient nettement supérieure à
celle de notre horizon.
L’inflation cosmique : soufflez dans le
ballon !
page 64
Pour résoudre ce problème, confirmé par les observations, les
théoriciens ont proposé une solution assez originale : l’inflation. Elle n’a
(heureusement) pas grand-chose à voir avec celle des économistes, et
part d’une idée simple : si les interactions physiques ne peuvent pas se
propager plus vite que la lumière, rien ne contraint la vitesse d’expansion
de l’Univers lui-même, c’est-à-dire la rapidité avec laquelle le ballon se
gonfle.
Ainsi, les théoriciens ont imaginé que l’Univers ait subi une phase
d’expansion accélérée extrêmement rapide (exponentielle). On la situe
généralement entre 10-36 et 10-32 seconde après le Big Bang, alors que
les interactions fondamentales commencent à acquérir leur individualité.
Ainsi, les théoriciens pensent souvent que ce phénomène d’inflation est
lié à cette différenciation progressive des forces fondamentales. Dans la
phase d’inflation, un tout petit domaine de l’Univers enfle démesurément
pour atteindre des dimensions gigantesques, qui dépassent, à l’époque,
la taille de la région qui deviendra notre horizon actuel. Le problème
de l’horizon est résolu : toute la partie visible de l’Univers, que nous
observons à travers le CMB, provient de ce domaine initial.
ÉLÉMENTAÍRE
La répartition de la matière dans
l’Univers proche effectuée par
le 2dF Galaxy Redshift Survey.
Chaque point bleu correspond à
une galaxie. La distance au centre
du diagramme correspond à la
distance mesurée et donc à l’ancienneté de la galaxie. On voit que dans le passé (grandes
distances) l’Univers était relativement homogène Au cours du temps de nombreux
superamas et zones de vide apparaissent.
© Richard Powell
Répartition des superamas de
galaxies dans un rayon de 100
millions d’années lumière autour
de la Voie Lactée. En particulier,
notre galaxie appartient au
superamas de la Vierge.
Mais ce n’est pas tout ! En prime, l’inflation résoud un autre problème de
la théorie du Big Bang. En effet, dans un univers en expansion décélérée,
tel que celui de Friedman et Lemaître, la courbure spatiale augmente avec
le temps. Il est donc difficile de comprendre le fait que notre Univers
soit spatialement plat à une très bonne approximation (voir « Apéritif »).
Au contraire, un univers en expansion accélérée devient de plus en
plus plat : l’inflation fournit une explication naturelle au problème de la
« platitude ».
© NASA
Et ce n’est pas fini ! Durant l’inflation, d’éventuelles inhomogénéités
initiales sont diluées exponentiellement, donnant lieu à un univers
extrêmement homogène, reflété par le haut degré d’isotropie du CMB.
Mais alors, comment comprendre la présence de légères anisotropies
dans ce même CMB ? Si, par essence, l’inflation donne lieu à un univers
parfaitement homogène, il ne faut tout de même pas en oublier les principes
fondamentaux de la mécanique quantique. Ceux-ci nous disent, d’après
le principe d’incertitude d’Heisenberg, que l’Univers ne peut pas être
exactement homogène : il existe toujours des fluctuations - quantiques irréductibles aux échelles microscopiques. Celles-ci seront dilatées
exponentiellement par l’inflation pour donner lieu à des fluctuations sur des
échelles macroscopiques, lesquelles laissent leur empreinte dans le CMB.
À ce jour, les prédictions génériques des modèles d’inflation concernant
les anisotropies de température du CMB sont confirmées avec succès par
les observations. Les plus grandes structures observées à l’heure actuelle
seraient donc d’origine microscopique... quantique : l’inflation est un
formidable pont entre l’infiniment petit et l’infiniment grand.
Le contenu énergétique de l’Univers à
l’heure actuelle, et au moment où le CMB
est apparu. La part relative des différents
constituants a varié au cours du temps,
en particulier en ce qui concerne l’énergie
noire, responsable de l’accélération récente
de l’expansion de l’Univers.
Le modèle cosmologique standard
À l’heure actuelle, nous disposons d’un modèle, nommé poétiquement
ΛCDM (pour Lambda Cold Dark Matter), qui vise à expliquer simultanément
des observations très différentes - les propriétés du CMB, l’organisation
des structures à grande échelle (amas et superamas de galaxies), les
observations des supernovæ suggérant une accélération de plus en
plus rapide de l’Univers. Ces différents phénomènes sont liés à divers
constituants du modèle standard de la cosmologie, qui contribuent au bilan
ÉLÉMENTAÍRE
page 65
© 2dF Galaxy Redshift Survey
Le modèle cosmologique standard
Organisation des structures de grande
échelle
Les galaxies, amas et superamas de
galaxies ne s’organisent pas au hasard
dans l’espace. En fait, ils adoptent souvent
des structures de filaments et de plans,
comme s’ils étaient à l’interface de grandes
bulles de vide. En relevant les positions
relatives des galaxies, on peut caractériser
ces surfaces et ainsi proposer des modèles
décrivant la formation de ces structures.
Le modèle cosmologique standard
Observation de supernovæ
Certaines étoiles en fin de vie, les
supernovæ de type IA, explosent en
produisant une grande quantité de lumière
pendant une durée limitée, avant de perdre
progressivement en luminosité. L’étude
de cette évolution permet de déterminer
leur éclat initial, et donc leur distance. En
1998, le Supernova Cosmology Project a
mesuré des supernovæ à de très grandes
distances de la Terre – en étudiant leur
décalage vers le rouge, il est apparu
que l’expansion de l’Univers s’accélère
progressivement, en contradiction avec
les modèles de l’époque. En effet, dans un
Univers ne contenant que de la matière et
du rayonnement, l’expansion de l’Univers
devrait être progressivement ralentie. Le
concept d’énergie noire a été proposé pour
expliquer cette accélération de l’expansion
de l’Univers.
énergétique de l’Univers. Ce modèle repose sur les équations de la relativité
générale, les hypothèses de Friedmann et Lemaître (isotropie et homogénéité)
et sur l’hypothèse d’une période d’inflation.
Il suppose que les différents constituants de l’Univers se comportent comme
divers fluides. Le contenu du modèle est le suivant :
• le rayonnement, c’est-à-dire les photons, ayant une contribution
négligeable,
• la matière effectivement observée par les télescopes (galaxies, étoiles,
planètes, gaz interstellaires), qui constitue 4% de l’énergie de l’Univers,
• une matière massive, non-relativiste, invisible aux télescopes et uniquement
détectée par ses effets gravitationnels (la « matière noire froide »), qui constitue
environ 23% de l’énergie de l’Univers,
• une composante au comportement mal compris, appelée faute de mieux
« énergie noire », et qui constitue... 72% de l’énergie de l’Univers !
De façon tout à fait remarquable, notre ignorance sur la nature exacte de l’énergie
noire n’empêche pas d’obtenir des contraintes intéressantes sur les différents
paramètres du modèle. En particulier, la structure détaillée des anisotropies
du CMB est assez sensible à de nombreux paramètres de ce modèle... Mais ce
n’est évidemment pas la fin de l’histoire : de nombreuses questions restent sans
réponse, en particulier sur les premiers instants du Big Bang
et la nature précise des différents constituants du ΛCDM. De
quoi alimenter notre rubrique « La question qui tue » !
Structure détaillée des anisotropies du CMB
Comment le spectre du CMB varie quand
on modifie certains paramètres du modèle
standard cosmologique, à savoir la courbure
de l’Univers, la densité d’énergie noire, celle
de matière baryonique (« ordinaire ») et
celle de matière (y compris la matière noire).
On voit que la hauteur et la position des pics
sont sensibles à certains de ces paramètres.
page 66
© NASA
L’analyse des
anisotropies du
CMB peut être
faite par le biais
d’harmoniques
sphériques (voir
« Analyse ») –
un peu comme
l’extraction des
fréquences qui
composent un
signal sonore.
La figure résultante peut être interprétée comme la mesure des corrélations existant
entre les températures de deux régions de l’espace éloignées d’une
certain angle : plus le « moment du multipôle » ℓ est grand, plus l’angle
est petit. On voit apparaître des oscillations, qu’on peut expliquer par la
compétition entre deux processus antagonistes : la gravitation, qui tend
à accroître les hétérogénéités de matière, et la pression de radiation, qui
cherche au contraire à diluer ces hétérogénéités. À grand ℓ, on s’attend
à une décroissance des hétérogénéités, du fait d’interactions physiques
entre des zones séparées par de faibles distances.
Le caractère oscillatoire de ce spectre est un reflet de la phase d’inflation
de l’Univers primordial. La hauteur et la position des pics dépendent
de façon importante des valeurs de certains paramètres du modèle
ΛCDM, par exemple la densité de matière, mais pas de tous (elle n’est
par exemple guère affectée par la densité d’énergie noire).
ÉLÉMENTAÍRE
Le LHC
Démarrage du LHC le 10 septembre 2008
© CERN
Ce jour était impatiemment attendu par la communauté mondiale des physiciens des hautes énergies. La première injection d’un faisceau de protons
dans le LHC allait être tentée. Tous ceux qui depuis des années – souvent
depuis plus de 20 ans - ont travaillé à la construction de l’accélérateur, la
réalisation des détecteurs, la préparation des infrastructures et des analyses, sentaient enfin approcher la période excitante de la prise de données
et la fièvre des premiers résultats.
Les experts de l’accélérateur avaient préparé soigneusement cet événement depuis des semaines : des essais de transfert de protons entre le SPS
et l’anneau du LHC avaient déjà été réalisés avec succès quelques semaines auparavant.
Par ailleurs, le CERN et ses pays membres avaient lancé une couverture
médiatique sans précédent pour informer les citoyens des tenants et des
aboutissants de ce démarrage. Les articles dans les journaux et les reportages à la télévision se succédaient, présentant les enjeux de la mise en
fonctionnement du plus grand accélérateur au monde. La procédure d’injection allait être suivie en particulier par des équipes de la BBC et retransmise en direct dans le monde entier.
Le complexe accélérateur du CERN.
Avant d’arriver dans le LHC, les protons
sont progressivement accélérés par un
accélérateur linéaire et plusieurs anneaux
(en particulier le PS et le SPS). Dans le SPS,
ils atteignent 450 GeV et sont par la suite
injectés dans le LHC.
ÉLÉMENTAÍRE
Centre de contrôle du LHC le 10
septembre 2008 : quelques secondes avant
le premier tour de protons, les yeux rivés
sur les écrans .
page 67
La réalisation du premier tour de protons dans le LHC s’est faite par étapes.
Les paramètres de l’accélérateur n’étant pas, a priori, parfaitement ajustés, l’unique paquet de protons ne peut parcourir que quelques kilomètres
avant de s’écraser sur l’un des collimateurs (des blocs de matériau dense
permettant d’arrêter les faisceaux quand cela est nécessaire). Les capteurs
disposés tout au long de la chambre à vide dans laquelle circule le faisceau
suivent en détail ce trajet et leurs informations permettent aux ingénieurs
de modifier les champs magnétiques pour que l’orbite des protons puisse
rester circulaire plus longtemps à l’avenir. Après chaque perte du paquet
de protons, un nouveau paquet est injecté et réussit à aller plus loin que
le précédent. Quatre essais ont été ainsi nécessaires pour accomplir un
tour complet du LHC (soit 27 km). À ce moment, le responsable en chef
du projet LHC, Lyn Evans, a expliqué devant les micros que la réussite du
prochain essai allait se traduire sur les écrans de contrôle par l’apparition
© CERN
Le 10 septembre 2008, c’était donc la foule des grands jours dans le centre
de contrôle du LHC. Ingénieurs, journalistes et physiciens allaient et venaient dans cette salle comble, tandis que le personnel du CERN suivait la
retransmission sur des écrans placés dans plusieurs bâtiments du site. Tous
les anciens directeurs du CERN étaient présents pour assister à ce grand
moment auquel ils avaient contribué, chacun à sa façon, au cours de leurs
mandats respectifs.
La procédure de démarrage du LHC était établie depuis longtemps :
d’abord, un seul paquet de protons injecté depuis le SPS devait parcourir
les 27 kilomètres de l’anneau à son énergie initiale de 450 GeV. Une fois
ce parcours réalisé, on allait tenter d’augmenter l’énergie en mettant en
marche les cavités accélératrices et en réglant les aimants supraconducteurs. Puis, deux faisceaux sont injectés dans des sens opposés dans le
LHC. Enfin, le nombre de paquets circulant est augmenté de façon à obtenir plus de collisions. Ce calendrier prévoyait un à deux mois de réglages
avant d’obtenir des collisions à l’énergie nominale de 14 TeV.
Par injection on désigne le transfert des
particules d’un accélérateur à un autre,
par exemple du SPS au LHC. À l’aide
d’aimants puissants, les particules sont
déviées de leur trajectoire, extraites de
la première machine et dirigées vers la
seconde.
Instantané des paquets de protons
dans le plan perpendiculaire à l’axe
des faisceaux. Les deux taches du
paquet de protons correspondent à
des mesures de courant effectuées
localement à un des multiples
points de contrôle installés le long
du LHC. Si elles ont déclenché des
applaudissements enthousiastes, elles
signifient aussi que la trajectoire suivie
par ce paquet n’est pas parfaitement
fermée puisqu’au bout d’un tour,
celui-ci ne revient pas exactement
sur sa position initiale. En effet, en
absence de réglages supplémentaires,
ce paquet continuera de dévier et
sera perdu lors des tours suivants.
On peut lire sur les axes de ce
cliché les dimensions du paquet de
protons : environ 10 mm (et 5 mm)
de diamètre horizontal (vertical).
L’apparition des deux taches est
quasi simultanée puisque les protons
mettent un dixième de milliseconde
pour effectuer un tour dans le LHC.
Les directeurs du CERN du plus récent
(en exercice jusqu’au mois de janvier
2009) au plus ancien, réunis dans la salle
de contrôle du LHC pour assister à son
démarrage (de gauche à droite) : Robert
Aymar, Luciano Maiani, Chris LlewellynSmith, Carlo Rubbia et Erwin Schopper.
Tous ont contribué durant leurs mandats
respectifs à la réalisation de ce projet de
longue haleine.
de deux taches lumineuses décalées : la première correspondra au paquet entrant dans le LHC et la seconde, au même paquet ayant accompli
un tour complet. Tous les yeux se tournèrent vers les écrans alors que Lyn
Evans égrenait « 5,4,3,2,1,0 ».. et les applaudissements fusèrent de partout au moment de l’apparition simultanée des deux fameuses taches.
Par la suite, les spécialistes de la machine ont réussi avec la même facilité
apparente l’injection du faisceau dans le sens opposé. Puis, les efforts se
sont concentrés sur l’augmentation du temps de vie du paquet.
Les protons perdent de l’énergie par rayonnement en tournant dans l’anneau avec des conséquences qui s’enchaînent: la dispersion en énergie
du paquet augmente, ses dimensions aussi. En effet, le champ magnétique dipolaire courbe différemment les protons suivant leur énergie et au
fil des passages, la taille des paquets augmente et les protons sont perdus
par collision avec des obstacles. Pour palier ces pertes, on surveille les
paramètres du paquet de protons (étendue latérale, dispersion en énergie des protons) en plusieurs points de sa trajectoire et on corrige des
déviations éventuelles en agissant d’une part sur les aimants de façon à
ce que les particules passent exactement par le même point tour après
tour et d’autre part sur la radiofréquence pour les accélérer à leur énergie
nominale.
© R.Ciapala CERN
après 250 tours
après 10 tours
Dans les salles de contrôle des expériences Alice, Atlas, CMS et LHCb
la fièvre montait. On a vite enregistré les premières traces créées par le
passage du paquet, en particulier certains muons qui accompagnaient
le faisceau. Les événements les plus spectaculaires étaient les splashs,
observés lorsque le faisceau heurtait les collimateurs placés à 150m en
amont des expériences. Dans ce cas, les protons sont rapidement stoppage 68
Temps de vie du paquet
On mesure le signal du faisceau tous les
10 tours du LHC (le temps s’écoule de bas
en haut). Chaque ligne représente le signal
électrique mesuré par un compteur placé
sur la circonférence du LHC. La petite bosse correspond au courant électrique vu par
le compteur lorsque le paquet des protons
passe devant. À gauche, aucune correction
de radiofréquence (RF) n’est appliquée pour
préserver l’énergie de tous les protons et la
cohésion du paquet. La forme du faisceau
s’élargit et le paquet est perdu après environ 250 tours. Au milieu, une correction
RF est appliquée, la forme du paquet reste
bonne mais sa position oscille. La figure de
droite montre la stabilité de la forme du
paquet avec des corrections adéquates. Elle
a été obtenue quelques heures après la première injection.
© CERN
© R.Bailey CERN
Démarrage du LHC le 10 septembre 2008
ÉLÉMENTAÍRE
pés, absorbés par la matière, et créent des gerbes de particules.
Parmi celles-ci seules parviennent à émerger hors des collimateurs
celles qui interagissent le plus faiblement, en particulier les nombreux muons apparus lors du choc des protons. Compte tenu du
grand nombre de protons ayant heurté les collimateurs et de muons
créés par chacune des collisions, une pluie de particules a inondé
l’ensemble des détecteurs. En ajoutant les énergies de tous les dépôts dans les calorimètres, on a mesuré des centaines de TeV pour
de tels événements !
Ce grand nombre de particules est très utile pour certains types
d’études, en particulier pour la synchronisation de tous les canaux
d’électronique. Sachant que toutes les particules contenues dans un
événement sont produites au même instant, elles doivent aussi être
mesurées simultanément. Si tous les canaux des détecteurs ne donnent pas une réponse simultanée, c’est alors que certains retards
internes (câbles de longueur différentes, temps de traitement, etc),
spécifiques à chaque canal, n’ont pas été compensés.
Le 19 septembre : un croche-pied
en plein élan
© CERN
Démarrage du LHC le 10 septembre 2008
Visualisation d’un événement « splash » dans ATLAS.
L’image comprend une coupe du détecteur suivant l’axe du
faisceau (en bas) et une coupe perpendiculaire (en haut).
Depuis le point d’interaction (au centre des deux coupes)
on rencontre les différentes parties de sous-détecteurs, de
reconstruction des traces chargées, suivis des calorimètres
électromagnétique et hadronique et finalement du
spectromètre pour les muons (voir la description d’ATLAS
dans Élémentaire N°2). Sur les deux coupes on voit un
grand nombre de signaux enregistrés dans le détecteur,
représentés en vert et rouge.
page 69
ÉLÉMENTAÍRE
© CERN
Après la première injection, le rodage de la machine a continué
en mode simple, c’est-à-dire en faisant circuler un seul paquet de
protons en provenance du SPS sans accélération supplémentaire
dans le LHC. Les experts de l’accélérateur profitent des moments
sans faisceau pour préparer les dipôles en y injectant le courant
nécessaire à la prochaine montée en énergie de 450 GeV à 5 TeV.
Le 19 septembre, lors d’essais d’alimentation des dipôles du secteur 3- 4,
une défaillance dans une connexion électrique s’est produite en une région située entre un dipôle et un quadripôle. Les analyses effectuées ultérieurement ont montré que lorsqu’on a augmenté le courant pour un
fonctionnement à une énergie de 5.5 TeV, une résistance électrique est
apparue, ce qui a fait disjoncter le système d’alimentation. Ceci a déclenché la procédure de sécurité prévue dans ce cas, à savoir la vidange du
courant déjà stocké dans les aimants. Une série de transitions résistives
(appelées aussi quench, présentées dans la rubrique LHC, N°6) a eu lieu
dans une multitude d’éléments supraconducteurs. Un arc électrique s’est
développé au niveau de la connexion défectueuse et a perforé l’enceinte
contenant l’hélium. Celui-ci s’est alors déversé dans l’enceinte d’isolation
du cryostat et s’est brutalement réchauffé. La pression est montée à cet
endroit, exerçant des forces importantes sur les barrières entre les soussecteurs. Les soupapes de sécurité ont fonctionné en relâchant l’hélium
dans le tunnel. Mais leur réaction
n’a été pas suffisamment rapide
pour évacuer à temps toute la
pression due à la détente de l’hélium sans provoquer de dégâts
mécaniques.
Ci-dessus, on montre l’endroit où l’incident
initial a eu lieu sur la connexion électrique
entre un dipôle et un quadripôle.
Cette connexion est en fait conçue comme
un sandwich contenant les deux câbles
supraconducteurs (en photo à gauche)
soudés par un alliage d’argent et de cuivre.
L’incident du secteur 3-4 a provoqué la
rupture de cette connexion et l’apparition
d’un arc électrique qui a déclenché le
réchauffement.
Démarrage du LHC le 10 septembre 2008
© CERN
Ainsi, les équipes envoyées sur place pour l’inspection de la situation ont trouvé une cinquantaine d’éléments (dipôles et quadripôles) endommagés à différents degrés, sur une longueur de 300 m. Au point le
plus « chaud », les contraintes mécaniques ont provoqué le déplacement d’un aimant de 40 centimètres !
Lors des examens qui ont suivi on a contrôlé tous les
points d’interconnexion le long de l’accélérateur, ce
qui a mis en évidence des faiblesses similaires sur
d’autres aimants.
Suite à cet incident malheureux, on a évidemment interrompu le rodage du LHC. Une cinquantaine d’éléments ont été réchauffés, démontés et remontés en
surface avant Noël. Depuis avril 2009 les éléments
réparés ou ceux de remplacement sont de nouveau en place. Par ailleurs,
des systèmes de détection plus sensibles ont été ajoutés aux fameux
points d’interconnexion et des soupapes additionnelles ont été percées
sur les aimants pour éviter que cet incident ne se reproduise.
© CERN
Et maintenant ?
Les physiciens des quatre expériences sont évidemment affectés par ce
retard tout autant que les personnels travaillant sur l’accélérateur. Toutefois, les chercheurs « profitent » de ce temps supplémentaire sans faisceau
pour parfaire leurs détecteurs et affiner la préparation de différentes analyses. L’incident a obligé la communauté à revoir certains de ses plans. Lors
d’une réunion qui a eu lieu à Chamonix en février 2009, les ingénieurs du
LHC et des physiciens représentant les quatre expériences ont défini une
nouvelle feuille de route, combinant au mieux une reprise progressive et
sans risque de l’accélérateur, avec l’accumulation suffisante de données
intéressantes. Ainsi, l’énergie par faisceau ne dépassera pas les 5 TeV la
première année de prises de données. L’accélérateur, qui devra démarrer
durant l’automne 2009, ne s’arrêtera pas avant d’avoir fourni une luminosité intégrée de 200 pb-1 (vers l’été ou l’automne 2010). En tenant compte
de ces conditions, les physiciens ont ré-évalué les prévisions des signaux
attendus dans les expériences, puisque le scénario précédent prévoyait
un fonctionnement à 14 TeV. Cette énergie sera atteinte après 2010.
Sur cette photo, la région d’interconnexion
entre deux aimants endommagés est
montrée avant (en haut, à droite) et après
(en haut à gauche) avoir retiré le soufflet
de protection. La différence de niveau
entre les deux parties provient du fort
déplacement de l’aimant qui s’est décroché
de son support (en bas) sous la force de la
détente de l’hélium.
La luminosité permet de calculer le
nombre d’événements produits par seconde pour un processus donné dont
on connaît la section efficace. La luminosité intégrée correspond au nombre
d’événements produits sur une période
de temps donnée. Sa valeur tient compte
des arrêts de fonctionnement de la machine et des variations de sa luminosité
instantanée.
page 70
Une chose est sûre, malgré leur déception les ingénieurs et les physiciens
n’ont pas chômé depuis l’arrêt provisoire du LHC !
ÉLÉMENTAÍRE
ICPACKOI ?
[isepasekwa] ?
GLAST : une nouvelle « star » dans le ciel
© NASA
Mercredi 11 juin 2008, 8h 30 du matin en Californie. L’un des grands
amphithéâtres du Stanford Linear Accelerator Center est noir de monde :
l’auditoire a les yeux rivés sur un mur d’écrans installé sur l’estrade. Sur le
plus grand d’entre eux on peut voir une fusée sur le point d’être lancée par
la NASA au Kennedy Space Center (Floride). Les autres écrans montrent
plusieurs groupes de personnes regardant les mêmes images depuis leurs
laboratoires respectifs : les équipes de la collaboration GLAST (« Gamma
ray Large Area Space Telescope ») attendent le départ du satellite sur lequel elles ont travaillé pendant de nombreuses années.
Soudain, les visages se font plus tendus : le compte à rebours vient de
s’arrêter à H – 5 minutes. Une station radar située sur l’île d’Antigua (dans
les Antilles) et chargée de suivre la fusée après le lancement n’est plus
opérationnelle tandis qu’un voyant d’alarme au niveau du pas de tir vient
de s’allumer. Suit presque immédiatement une intervention de la station
météo de Cape Canaveral indiquant que la fenêtre de lancement pour la
journée se refermera dans une vingtaine de minutes à cause des nuages
qui s’amoncellent au-dessus de Cocoa Beach. Pour l’assistance c’est la
douche froide : le départ de GLAST va-t-il être retardé ?
Lancement du satellite d’observation
gamma GLAST, le 11 juin 2008 par une
fusée Delta-II, à Cape Canaveral. Le
panache au second plan est causé par la
vaporisation d’un grand volume d’eau
stocké sous le pas de tir et qui sert à évacuer
la chaleur produite lors du décollage ainsi
qu’à diminuer le volume sonore généré.
En fond on peut voir l’Océan Atlantique.
Les pas de tirs d’où ont été lancés tous les
vols spatiaux américains (vers la Lune,
les navettes, etc.) sont situés à quelques
kilomètres sur la même île.
Heureusement les deux problèmes se révèlent bénins. Le décompte repart
et, à 9h05, la fusée Delta-II décolle. Le lancement est un succès complet :
à 10h20 GLAST est placé sur orbite basse à 550 km d’altitude. En 12 minutes ses panneaux solaires se déploient et apportent l’énergie nécessaire
pour alimenter les ordinateurs de bord et les instruments scientifiques.
Une fois cette phase critique terminée, les tests des systèmes embarqués
peuvent commencer : il s’agit de s’assurer de leur bon fonctionnement et
de calibrer les différents détecteurs. Ces vérifications doivent prendre de
un à deux mois, ce qui est finalement peu par rapport à la durée de vie
du satellite : cinq ans d’après le cahier des charges tandis que les équipes
de chercheurs espèrent au moins le double.
GLAST, dont le coût total est environ deux cent millions de dollars, est
une mission de la NASA conçue en collaboration avec des laboratoires
ÉLÉMENTAÍRE
page 71
Calibrer
L’étalonnage d’un instrument scientifique est un préalable obligatoire à toute expérience : on utilise une référence pour laquelle on connaît
à l’avance le résultat de la mesure afin de faire la correspondance entre le signal enregistré par le détecteur et l’unité dans laquelle on veut
le convertir. En pratique on effectue plusieurs mesures avec différentes références afin d’obtenir la description la plus complète possible de
l’instrument. GLAST n’échappe pas à la règle et son bon fonctionnement requiert de nombreux étalonnages :
- performances (niveau de bruit et d’amplification) des circuits électroniques ;
- alignement des différents détecteurs les uns par rapport aux autres et orientation absolue du satellite dans l’espace ;
- correspondance entre signaux enregistrés et énergies des rayons gamma détectés ;
- synchronisation temporelle de tous les composants, etc.
Selon leur stabilité (estimée par des tests au sol avant le lancement ou des simulations informatiques), ces étalonnages sont mis à jour plus
ou moins rapidement. Pour les plus sensibles, des nouvelles données sont enregistrées plusieurs fois par seconde ; dans tous les cas, des
systèmes complexes de surveillance suivent leur évolution et interviennent lorsqu’une dérive est observée sur les signaux de contrôle. Ces
étalonnages sont en général basés sur des phénomènes physiques offerts par la Nature, par exemple des étoiles fixes pour l’orientation ou
les rayons cosmiques (qui viennent frapper GLAST en permanence) pour l’énergie. Des protons (le bruit de fond dominant) servent aux
étalonnages absolus en énergie tandis que les signatures caractéristiques des ions lourds (carbone, azote, oxygène, fer, etc.) sont utilisées
pour suivre leurs dérives.
[isepasekwa] ?
© NASA
américains, européens (Allemagne, France, Italie et Suède) et japonais.
Ce satellite embarque deux instruments spécialisés dans l’observation
des rayons gamma : des photons, similaires à ceux qui constituent la
lumière visible, mais bien plus énergétiques. Ces particules, émises par
des objets extérieurs au système solaire, ne peuvent pas pénétrer l’atmosphère à moins d’avoir une énergie considérable. Ainsi, les phénomènes
détectables sur Terre sont limités en nombre et les signaux reçus sont de
faible intensité. Or les rayons gamma sont des « messagers cosmiques »
très intéressants : neutres et sans masse, ils apportent des informations
sur la nature de leur source ; de plus, leur énergie est essentiellement
préservée sur leur parcours, ce qui permet d’obtenir des renseignements
sur les phénomènes qui leur ont donné naissance : explosions d’étoiles,
annihilation de particules encore inconnues, etc. Les satellites d’observation gamma comme GLAST sont donc des éléments essentiels pour ce
domaine d’étude.
Installation en juin 2008 du satellite GLAST
dans la coiffe de son lanceur Delta-II.
Le premier télescope, le LAT (« Large Area Telescope ») est en quelque
sorte un détecteur « classique » de physique des particules lancé dans
l’espace. Son grand champ de vue, sa sensibilité (c’est-à-dire sa capacité
à détecter un signal faible) et son excellente résolution angulaire, assurant
la localisation précise des sources de photons, lui permettront de réaliser une cartographie du « ciel gamma » sans équivalent à ce jour entre
20 MeV et 300 GeV. Seuls des événements très violents à l’échelle de
l’Univers (explosions d’étoiles, pulsars, trous noirs etc) sont susceptibles
d’émettre des photons de plusieurs centaines de GeV.
Grand champ de vue
Le LAT observe en permanence 20% de la
voûte céleste et couvre l’ensemble du ciel
en deux orbites, soit toutes les 192 minutes.
Cette rapidité de balayage est nécessaire car
les signaux émis peuvent être très faibles :
il faut alors observer de nombreuses fois la
même zone pour accumuler suffisamment
de photons. De plus, il est ainsi possible
de suivre des sources « transitoires », dont
l’intensité du rayonnement varie avec le
temps. À chaque cycle, une direction donnée du ciel est observée pendant 30 minutes en moyenne.
L’autre instrument embarqué, le GBM (« Gamma Burst Monitor »), vise à
détecter et à étudier les sursauts gamma, dans une large plage d’énergie
(10 keV – 30 MeV) et avec un champ de vue maximal. Les observations
ont lieu simultanément dans toutes les directions, le Soleil et son voisinage immédiat étant occultés pour éviter que les détecteurs ne soient
éblouis par son rayonnement. Environ 215 détections sont attendues chaque année, dont 70 seront également visibles par le LAT qui pourra alors
aider à la localisation de la source et suivre son évolution.
page 72
LAT
Le LAT utilise une technologie qui le rend très similaire aux détecteurs de physique des particules. Il est composé de seize tours identiques, ordonnées en quatre lignes et quatre colonnes. La partie supérieure est un détecteur de traces, un assemblage de couches de silicium séparées par
de minces feuilles de tungstène. Lorsqu’un photon traverse l’une de ces dernières, il a une probabilité non nulle (et croissante avec son énergie)
de se convertir en une paire électron-positron. Au contraire des photons les particules chargées laissent des traces dans le silicium ce qui permet
de reconstruire leurs trajectoires, quasi-rectilignes et dans le prolongement du rayon gamma – en fait leur direction est modifiée de manière
aléatoire à chaque interaction avec le silicium mais la déviation est d’autant plus faible qu’elles sont énergétiques.
Le bas des tours contient un calorimètre qui mesure l’énergie des particules. Les informations combinées des deux détecteurs sont utilisées pour
sélectionner les événements intéressants. De plus, le LAT est entouré d’un « détecteur d’anti-coïncidences » à scintillations (l’ACD) sensible
aux particules chargées (des rayons cosmiques qui interagissent avec le détecteur de traces et le calorimètre) mais pas aux photons. Lorsque
l’ACD détecte une de ces particules les données du LAT sont ignorées puisqu’elles ont vraisemblablement été produites par ce signal parasite.
Les algorithmes de décision au niveau du satellite permettent ainsi d’éliminer 75% du bruit de fond ce qui améliore le potentiel de détection du
télescope tout en limitant le flot de données transmises vers le sol. 99% du bruit de fond restant est rejeté lors de la phase d’analyse au sol, effectuée par 600 ordinateurs basés à SLAC. L’ensemble de la chaîne de traitement, du satellite GLAST aux stations de travail des physiciens, prend à
peine quelques heures. Au final le taux de gamma « célestes » enregistré est de l’ordre d’une particule par seconde, soit tout de même plusieurs
dizaines de millions de photons par an !
ÉLÉMENTAÍRE
Sursauts gamma
Les sursauts gamma sont des émissions violentes de photons énergétiques qui durent de quelques
secondes à quelques dizaines de minutes, apparaissent de manière aléatoire dans le ciel (à une
fréquence de l’ordre d’un événement par jour) et dont les sources sont très éloignées de la Terre.
Ce sont les phénomènes les plus puissants jamais observés : l’énergie dégagée par chaque sursaut
gamma correspond au rayonnement émis par un millier d’étoiles comme le Soleil pendant toute
leur vie. C’est également l’ordre de grandeur de l’énergie qu’on obtiendrait si la totalité de la
masse du Soleil était convertie en énergie par la formule d’Einstein E = Mc2.
Ces phénomènes furent détectés pour la première fois en 1969 par des satellites espions américains
chargés de vérifier que tous les pays se conformaient au traité international d’interdiction des
essais nucléaires atmosphériques. Ces observations étaient si mystérieuses que l’information ne
fut pas rendue publique avant 1973. Il fallut ensuite attendre une quinzaine d’années pour que
les expériences PHEBUS (France) et BATSE (États-Unis) montrent que les sursauts se divisent
en deux catégories.
- Les courts : quelques secondes au plus ; ils sont sans doute dus à une collision cataclysmique
entre deux astres compacts très massifs (étoiles à neutrons ou trous noirs), orbitant l’un autour
de l’autre dans un mouvement de spirale de plus en plus rapide et rapproché à mesure que le
système perd de l’énergie.
- Les longs : jusqu’à vingt minutes ; on sait aujourd’hui qu’ils sont provoqués par la mort d’étoiles
massives, l’association sursauts gamma – supernovæ de type I ayant été démontrée en 2003.
En février 1997 le satellite BeppoSAX fut le premier à observer une émission résiduelle dans
d’autres longueurs d’onde à la suite d’un sursaut gamma. Le satellite SWIFT a maintenant pris
sa suite.
© LAT collaboration SLAC
[isepasekwa] ?
Simulation du passage d’un photon dans
une des seize tours du LAT. Le gamma se
convertit dans une feuille de tungstène en
deux particules chargées (en bleu) dont les
traces sont ensuite détectées par plusieurs
couches de silicium (croix vertes).
GLAST participe ainsi à un réseau global de surveillance de ces phénomènes qui comprend plusieurs autres observatoires dont le satellite
SWIFT (lancé en 2004). Ce dernier étudie les émissions électromagnétiques moins énergétiques prolongeant le sursaut gamma dans les domaines des rayons X et du visible, améliorant ainsi notre connaissance de ces
phénomènes.
Le 26 août 2008, une conférence de presse a présenté la première carte
du ciel gamma de GLAST, obtenue en analysant 95 heures de données
prises en juin lors de la phase de mise au point du satellite. Celui-ci fonctionnant parfaitement, il a été rebaptisé, comme le veut la tradition de la
NASA : GLAST est maintenant le « Fermi Gamma-ray Space Telescope »
(FGST), du nom du physicien italo-américain Enrico Fermi qui fut, entre
autres, le premier à proposer un mécanisme expliquant comment des
particules chargées pouvaient être autant accélérées lors de leur traversée
ÉLÉMENTAÍRE
page 73
© NASA DOE
Sursaut gamma observé le 23 janvier 1999
par le télescope spatial Hubble.
Première carte du ciel gamma de
GLAST, rendue publique le 26 août 2008
et utilisant 95 heures de données prises en
juin. Plus la couleur d’une zone est chaude
et plus le nombre de photons gamma reçus
de cette direction est élevé. On distingue
parfaitement le plan galactique ainsi
que quatre sources très brillantes déjà
bien connues, dont le pulsar du crabe
(à l’extrême droite de l’image), vestige
d’une supernova ayant explosé en 1054 et
observée par les astronomes de l’époque,
en particulier chinois.
Ni l’étalonnage en énergie, ni l’alignement
ne sont parfaits mais l’important est, par
cette première analyse, de montrer que le
satellite est opérationnel.
du milieu interstellaire – les rayons cosmiques contiennent des particules
bien plus énergétiques que celles produites par les plus puissants des
accélérateurs terrestres – (voir « Accélérateurs »). Pour la petite histoire,
le délai entre la prise des données (juin) et leur présentation (fin août) est principalement dû à la difficulté de
contacter le ... petit-fils de Fermi pour obtenir son accord à propos du nouveau nom du satellite – traditionnellement annoncé en même temps que les premiers
résultats scientifiques.
© LAT collaboration SLAC
Vue d’artiste montrant le satellite GLAST
en orbite autour de la Terre avec, en arrièreplan, quelques exemples de corps célestes
(fortement grossis et artificiellement
regroupés) qui seront observés par ses
instruments.
À gauche : carte du ciel dans le domaine des rayons gamma (énergie supérieure à 100 MeV)
obtenue en accumulant toutes les données enregistrées par le prédécesseur de GLAST,
l’observatoire EGRET (« Energetic Gamma Ray Experiment Telescope ») en service de 1991
à 2000. À droite : une simulation de la carte équivalente que devrait obtenir GLAST après
seulement un an de prise de données. La comparaison est éloquente : on dirait deux clichés du
même paysage, l’un flou et l’autre correctement mis au point !
Sur ces cartes, plus le nombre de rayons gamma venant d’une direction donnée est grand,
plus la zone correspondante est brillante. La bande horizontale claire correspond au plan
galactique où des rayons gamma sont produits par interaction de rayons cosmiques avec le
milieu interstellaire, plus dense dans ces régions.
L’objectif principal de la première année de prise de
données du LAT est la mise en place d’un catalogue de
sources : sur les 271 émissions détectées à ce jour, l’objet céleste à l’origine des rayons gamma n’a pas encore
été déterminé dans deux tiers des cas, en particulier à
cause du manque de résolution angulaire des satellites
de la génération précédente. De plus, la sensibilité de
GLAST devrait lui permettre de trouver plusieurs milliers de nouvelles
sources par an. Ensuite, la surveillance systématique du ciel se poursuivra, en parallèle avec des campagnes d’observation spécifiques, ouvertes
à des chercheurs extérieurs à la collaboration GLAST. Les données seront
rendues publiques très rapidement – quelques mois au plus après leur enregistrement – afin que l’ensemble de la communauté scientifique puisse
en bénéficier. L’autre appareil embarqué, le GBM, n’est pas en reste :
fin août, plus d’une trentaine de sursauts gamma
avaient été repérés.
page 74
Évolution de la sensibilité de GLAST après
100 secondes (en haut à gauche), 1 orbite
(en bas à gauche), 1 jour (en haut à droite)
et 1 an (en bas à droite) de prise de données.
Le code de couleur donne l’intensité que
doit avoir une source pour être détectable :
plus la couleur est chaude, plus l’émission
doit être intense.
Logo du satellite FGST. Le « F » initial de
Fermi est représenté (de manière artistique)
par un « noyau actif de galaxie », une source
de rayons gamma que les scientifiques
espèrent bien étudier avec les données de
GLAST – pardon, de FGST !
© NASA/Sonoma State University/
Aurore Simonnet
© GLAST
© EGRET NASA
[isepasekwa] ?
ÉLÉMENTAÍRE
[isepasekwa] ?
Non, non, Élémentaire n’a pas décidé de
vous envoyer une carte postale de Malibu,
mais plutôt de vous faire part d’une nouvelle surprenante concernant les rayons
cosmiques. Notre Pamela n’est autre...
qu’un détecteur installé sur un satellite,
dont le nom est l’acronyme de Payload
for Antimatter Exploration and Light-nuclei Astrophysics.
Le lancement de la sonde
Lancé le 15 juin 2006 par une fusée russe
CAPRICE 94 avec le ballon en
Soyouz, comme nous l’annoncions dans
l’air et la sonde au sol.
le numéro 3 d’Élémentaire (rubrique « Centre »), Pamela a été placé sur le satellite russe Resurs-DK1 qui évolue entre 350 et 610 kilomètres d’altitude sur une orbite elliptique autour de la
Terre. Prenant la suite de travaux menés à l’aide de ballons-sondes, cette
collaboration entre l’Italie, la Russie, l’Allemagne et la Suède a décidé
d’étudier la composition des rayons cosmiques (constitués d’électrons,
positrons, protons, antiprotons, noyaux légers) pour des énergies allant
de 50 MeV à quelques centaines de GeV.
© WiZard collaboration
Pamela : Alerte aux positrons
ÉLÉMENTAÍRE
page 75
© NASA-ESA
Un peu comme GLAST (voir article précédent), Pamela contient plusieurs détecteurs permettant de séparer les différents types de particules contenues dans
les rayons cosmiques et de mesurer leur
énergie. On y trouve entre autres un
spectromètre magnétique qui identifie
les caractéristiques des particules chargées, un calorimètre capable de distinguer les électrons (positrons) des antiprotons (protons) et des noyaux légers,
un système de mesure du temps de vol
Une éruption solaire vue par le satellite
pour déterminer la masse des particuSoho.
les, et un détecteur de neutrons.
En octobre dernier, Pamela a surpris les physiciens et enfiévré bien des
esprits. En effet, la collaboration a rendu public des résultats sur la proportion d’électrons et de positrons dans les rayons cosmiques entre 1
et 100 GeV. En-dessous de 10 GeV, les résultats sont compatibles avec
les données prises antérieurement par des ballons-sondes, à condition
de prendre en compte les effets du vent solaire. Mais au-dessus de 10
GeV, la fraction de positrons présents dans les rayons cosmiques augmente avec l’énergie. Si les électrons sont très communs dans l’Univers,
les positrons nécessitent des circonstances un peu plus originales pour
être produits. En effet, on s’attend à ce que des paires électrons-positrons
soient créées lorsque des protons, ou des noyaux légers, accélérés se
propagent dans la Galaxie et interagissent avec les protons des nuages de
Ballons-sondes
Pamela a été conçu par la collaboration
italienne WiZard, qui a mené de nombreuses campagnes de mesures sur ballonssondes entre 1989 et 1998. Ces ballons
qui, comme MASS89, MASS91, TS93,
CAPRICE94 et CAPRICE98, portaient
des détecteurs très proches de ceux utilisés
en physique des particules ont mesuré
le rapport particule/antiparticule et le
spectre en énergie pour les antiprotons
et les positrons contenus dans les rayons
cosmiques. Les résultats accumulés, et
complétés par d’autres mesures en ballonssondes, ont débouché sur une collaboration
russo-italienne, avec des expériences
embarquées sur la station spatiale russe
MIR à partir de 1995. Des détecteurs à base
de silicium y étaient utilisés pour étudier
les rayonnements solaires et cosmiques
de basse énergie. Pamela constitue l’étape
suivante de cette collaboration.
Vent solaire
Le vent solaire est un flux de particules
chargées issues des couches supérieures
du Soleil. Il est principalement constitué
d’électrons et de protons qui échappent à
l’attraction gravitationnelle du Soleil en
raison de la température élevée régnant à
sa surface. Ces particules sont entre autres
responsables des aurores polaires quand
elles pénètrent l’atmosphère terrestre
(voir Élémentaire N°3).
L’intensité du vent solaire dépend
de l’activité du Soleil lui-même, qui
varie selon un cycle régulier de 11 ans
(correspondant à un retournement
complet du champ magnétique solaire).
Ainsi, suivant les années, les mesures de
positrons et d’électrons dans les rayons
cosmiques de basse énergie sont modulées
plus ou moins intensément par le vent
solaire. Il faut donc prendre en compte les
variations du cycle solaire pour comparer
les résultats des expériences en ballons
menées de 1994 à 2001 avec ceux de
Pamela, accumulés ces deux dernières
années.
[isepasekwa] ?
gaz interstellaires (les mêmes processus peuvent avoir lieu avec des noyaux
légers). Ce phénomène s’ajoute aux nombreux autres processus astrophysiques (supernovæ, pulsars, noyaux actifs de galaxies...) qui produisent en
proportion variable des électrons, des positrons, et les autres constituants
des rayons cosmiques.
© Pamela
Au final, donc, rien d’étonnant à ce que Pamela observe des positrons. Mais
selon les modèles astrophysiques en vigueur, leur proportion devrait diminuer avec l’énergie, alors que Pamela observe au contraire une augmentation ! Au même moment, des ballons-sondes des collaborations ATIC et
PPB-BETS, qui ne sont pas sensibles à la charge des particules, mais seulement à leur énergie, ont également observé un excès du nombre total de
positrons et d’électrons dans les rayons cosmiques autour de 700 GeV.
Rapidement, plusieurs explications ont été avancées... Certains physiciens
suggèrent que le modèle décrivant la production de positrons souffre de
grandes incertitudes (énergie des protons initiaux, interaction avec le gaz
interstellaire, propagation des rayons cosmiques dans la galaxie). D’autres
évoquent la création de paires électrons-positrons par des pulsars (voir «
Centre ») situés à proximité de la Galaxie. Mais si les résultats de Pamela
entretiennent tant la fébrilité de certains chercheurs, c’est parce qu’un excès
de positrons de haute énergie est aussi attendu dans de nombreux modèles
de matière noire. En effet si cette fameuse matière noire était constituée de
particules exotiques très massives situées dans le halo galactique, elles se
rencontreraient de temps à autre et s’annihileraient en une paire électronpositron très énergétique. Ce mécanisme pourrait donc en principe expliquer l’anomalie vue par Pamela.
Mais avant de crier victoire, il faut encore fournir un modèle cohérent de
matière noire qui explique quantitativement les résultats de Pamela tout en
restant en accord avec les autres observations cosmologiques et les contraintes de physique des particules. D’une part, le nombre d’antiprotons observés
dans les rayonnements cosmiques à ces énergies (quelques centaines de
GeV) est en bon accord avec les modèles astrophysiques actuels. D’autre
part, les caractéristiques de la matière noire ont un impact sur l’évolution de
l’Univers depuis le Big Bang jusqu’à nos jours. Il faut aussi tenir compte
des contraintes fournies par la physique des particules sur la masse et les
interactions des constituants potentiels de la matière noire. Si des modèles de physique nouvelle excitent l’imagination de nombreux théoriciens,
d’autres étudient l’éventualité que les modèles actuels décrivant le fond astrophysique soient à revoir (par exemple en raison de supernovæ dans notre environnement proche capables de libérer les positrons observés). Un
sacré casse-tête sur lequel planchent actuellement les théoriciens, pendant
que Pamela, mais aussi d’autres expériences comme Fermi, continuent à
accumuler des données pour mieux comprendre la composition du rayonnement cosmique !
Pamela dans toute sa splendeur : 470
kilogrammes de haute technologie dans un
volume de 130 × 70 × 70 cm3.
page 76
© M. Cirelli
Halo galactique
Le halo galactique désigne une région
approximativement sphérique qui entoure
chaque galaxie et qui englobe tous les
objets liés gravitationnellement à cette
dernière. Dans le cas de notre Galaxie,
la matière noire se situerait dans un halo
dont le rayon serait de l’ordre de plusieurs
centaines de milliers d’années-lumière – à
titre de comparaison, la partie visible de
notre Galaxie est un disque dont le rayon
est de cent mille années-lumière, avec une
épaisseur de mille années-lumière.
Évolution de la fraction de positrons dans les rayons cosmiques en fonction de l’énergie. La
mesure de Pamela apparaît en rouge avec d’autres, effectuées par des ballons-sondes (MASS,
CAPRICE, HEAT). Un modèle décrivant la production de positrons par la propagation de
rayons cosmiques dans la Galaxie prédit la courbe grisée en aplat. On n’a pas représenté ici
les incertitudes théoriques du modèle, liées aux différentes hypothèses en jeu.
ÉLÉMENTAÍRE
La question qui tue !
Combien pèse le vide ?
L’obscure clarté qui tombe des étoiles
L’étude du passé lointain de l’Univers durant le demi-siècle dernier
s’est avérée très fructueuse. Non seulement les physiciens ont compris
de nombreux aspects de son histoire, mais ils ont aussi trouvé dans la
cosmologie primordiale – l’étude de son passé lointain – une fenêtre
unique pour l’étude de la physique des très hautes énergies (et donc
des très petites distances) au-delà du Modèle Standard des interactions
élémentaires. Pour autant, les observations détaillées de l’Univers récent
ne sont pas dénuées d’intérêt et ont, en fait, mis à jour des phénomènes
inattendus.
Par exemple, un « petit » détail : à force de scruter l’Univers, les
physiciens ont découvert que seul 5% du contenu énergétique actuel
de l’Univers observable – sa masse – est de nature connue ! Mais alors
comment peuvent-ils affirmer avoir une bonne compréhension, non
seulement qualitative, mais quantitative, de l’histoire de l’Univers ? En
fait la proportion de « physique connue » a varié au cours du temps
et était plus importante, et même dominante, dans l’Univers primordial.
Bien, mais nous avons tout de même un problème sur les bras pour
« expliquer » l’Univers actuel, un problème grave... et nous pesons nos
mots !
Deux représentations graphiques
du contenu en énergie de
l’Univers, avec sa part directement
observée... et le reste !
Les tentatives d’explication théorique de ce phénomène suivent
essentiellement deux pistes : la première consiste à supposer que les lois
de la gravitation décrites par la relativité générale d’Einstein ne sont plus
valables à très grande distance et doivent être modifiées ; la seconde
postule l’existence d’une nouvelle forme de « matière », génériquement
appelée « quintessence », dont l’influence gravitationnelle est telle qu’elle
donne lieu au phénomène observé. Les données observationnelles
ÉLÉMENTAÍRE
page 77
Regardons les choses de plus près : toute masse, et plus généralement,
d’après la théorie de la relativité générale, toute forme d’énergie, est
source de gravitation, autrement dit... pèse. Mais tout ne gravite pas
de la même façon. Une partie des 95% inconnus gravite comme la
matière ordinaire, c’est-à-dire qu’elle donne lieu à une force de gravité
attractive, subit l’effondrement gravitationnel – ce qui pour la matière
ordinaire, donne lieu à la formation d’étoiles ou de galaxies, etc... On
parle de « matière noire », qui constitue environ 23% de la masse de
l’Univers. Il pourrait s’agir de particules nouvelles, prévues par certaines
extensions théoriques du Modèle Standard des interactions élémentaires,
suffisamment massives pour n’avoir encore jamais été observées dans
les expériences étudiant les collisions effectuées par des accélérateurs
de particules. Les 72% restant sont nettement plus mystérieux, donnant
lieu, en particulier, à une force de gravité répulsive à grande distance,
responsable de l’accélération de l’expansion de l’Univers observée
récemment. Nous traversons actuellement une nouvelle phase d’inflation
(voir « Théorie ») ! Mais une expansion quand même nettement plus lente
que l’inflation des premiers âges de l’Univers. Pour désigner ces 72%
mystérieux, on parle « d’énergie noire ».
Combien pèse le vide ?
Particules nouvelles
La plupart des extensions du Modèle
Standard des particules et interactions
élémentaires (voir Élémentaire N°6), qui
visent à unifier les interactions connues, ou
à fournir des explications à des faits qui sont
de simples hypothèses du Modèle Standard,
prévoit l’existence de nouvelles particules
et/ou interactions, activement recherchées
par les physiciens. Certaines sont stables,
d’autres interagissent très peu avec la
matière ordinaire ou ont des temps de vie
extrêmement longs, de l’ordre de l’âge de
l’Univers et pourraient donc être présentes
en quantité non négligeable aujourd’hui.
En général, ces particules n’interagissent
que très peu avec la matière ordinaire.
Toutes, cependant, se comportent, d’un
point de vue gravitationnel, comme cette
dernière. Celles qui satisfont à ces critères
sont autant de candidates possibles pour
expliquer la matière noire. Parmi les
nommées, nous trouvons les neutralinos,
particules neutres et stables, prévues par
les théories supersymétriques; ou encore
le (ou les) neutrino(s) supermassif(s)
prévu(s) par les extensions du Modèle
Standard cherchant à expliquer la masse
des neutrinos connus. Mais il y en a bien
d’autres.
Dans les théories supersymétriques, chaque particule connue est associée à un partenaire, une
particule de nature différente. Ces particules seraient très massives, de sorte qu’elles n’ont pas
encore été observées dans les accélérateurs de particules. La particule supersymétrique la plus
légère est un bon candidat pour la matière noire de l’Univers.
actuelles, si elles ne permettent pas de trancher, semblent légèrement
favoriser la première hypothèse et, en particulier, la modification la plus
simple possible de la théorie d’Einstein, modification introduite... par
Einstein lui-même en 1917.
Une (grande) constante...
En effet, Einstein, appliquant sa toute nouvelle théorie de la relativité
générale à l’Univers dans son ensemble, introduit un terme dans ses
équations, baptisé « constante cosmologique », dont le rôle est de
permettre l’existence de solutions statiques (sans expansion), qui lui
semblent les seules satisfaisantes. Plus tard, il mentionnera cet épisode
comme sa plus grande erreur. Toujours est-il qu’un tel terme est permis
par les postulats de base de la relativité générale et n’a, a priori, aucune
raison d’être nul. Selon son signe, il peut soit ralentir l’expansion (et même
l’annuler, comme le souhaitait Einstein initialement), soit l’accélérer !
À lui seul, ce terme permet de rendre compte de l’accélération
récente de l’Univers de manière très économique sans recourir à
de nouveaux principes ou inventer de nouvelles formes exotiques
de matière. Problème résolu ? Ce serait compter sans les principes
de base de la mécanique quantique qui, s’ils ne permettent pas
d’exclure cette solution, la rendent très insatisfaisante. Voyons cela
de plus près.
Une simulation numérique de la
répartition de matière noire dans un cube
d’un milliard d’années-lumière de côté.
Le trajet de rayons lumineux émis par des
galaxies lointaines est représenté en jaune :
selon la relativité générale, la présence de
matière (noire) dévie ces rayons !
page 78
... plus une (grande) constante...
La mécanique quantique implique l’existence d’une constante
cosmologique. En effet, un système quantique ne peut jamais être
véritablement « au repos » au sens classique du terme, c’est-à-dire
avec une position donnée et une vitesse nulle. En vertu du principe
de Heisenberg, position et vitesse ne peuvent avoir simultanément
des valeurs parfaitement déterminées. Elles ont, au contraire, des valeurs
qui fluctuent « inévitablement » : on parle de fluctuations quantiques.
Il s’ensuit que tout système quantique, même dans son état de plus
basse énergie, l’état « fondamental », a une énergie non nulle et, par
conséquent, pèse ! C’est le cas, en particulier, de l’état fondamental
d’un système de particules quantiques. On l’appelle aussi « vide » car il
ÉLÉMENTAÍRE
Combien pèse le vide ?
... égal une (petite) constante ?
Fluctuations quantiques
En mécanique classique, l’état d’une particule ponctuelle est, à tout
instant, complètement déterminé par la donnée de sa position et de sa
vitesse : connaissant les valeurs de ces dernières à un moment donné,
les lois de la mécanique classique permettent de prédire l’état de la
particule (position et vitesse) à tout instant ultérieur (ou antérieur),
c’est-à-dire la trajectoire de la particule. En particulier, on obtiendra
invariablement le même résultat si on répète un grand nombre de fois
la même expérience, en préparant notre particule invariablement et
strictement dans le même état de départ, et en mesurant sa position et sa
vitesse à un instant ultérieur (si on omet les incertitudes expérimentales
dans la préparation et la mesure).
Les choses sont bien différentes en mécanique quantique. En général, on
ne peut pas prédire avec une assurance parfaite le résultat de la mesure
d’une quantité (observable). On peut seulement prédire la probabilité
que la mesure d’une observable aboutisse à telle ou telle valeur. En
d’autres termes, si on répète un grand nombre de fois une même mesure,
on n’obtient en général pas le même résultat : on dit que l’observable
en question « fluctue ». Si ces fluctuations quantiques sont petites (en
particulier devant les inévitables incertitudes expérimentales relatives
à la préparation de l’expérience et à la mesure), la mécanique classique
fournit une description approximativement correcte.
En effet, les estimations théoriques montrent que, dans le
cadre du Modèle Standard, la contribution des fluctuations
quantiques du vide à la constante cosmologique (le «
poids du vide ») est beaucoup trop importante par rapport
à la valeur mesurée, et ce de plusieurs dizaines d’ordres
de grandeur (un ordre de grandeur correspondant à un
facteur 10) ! Mais non contente d’être incompatible avec
la valeur mesurée, cette contribution qui, rappelons-le,
provient de la seule « physique connue », est incompatible avec
notre existence, avec l’existence même de notre Univers. En effet,
une telle valeur de la constante cosmologique aurait donné lieu à
une expansion exponentielle de l’univers dans ses tous premiers
instants, ne permettent pas la formation des premiers noyaux,
atomes, l’allumage des premières étoiles etc... Courrons-nous à la
catastrophe !? Pas complètement.
La constante introduite par Einstein qui, comme nous l’avons dit
plus haut, est a priori non nulle, fournit une autre contribution,
classique celle-là, à la constante cosmologique. La valeur mesurée
est donc une valeur effective, somme des contributions classique
et quantique. Il suffit d’ajuster la contribution classique pour que
la somme des deux soit compatible avec la valeur observée. Nous
voilà sauvés ?
L’insoutenable légèreté du vide
Cette solution, tout à fait cohérente, est pourtant loin d’être
satisfaisante pour les (esprits retords des) physiciens. En effet, il
faut viser juste ! La constante classique d’Einstein doit être ajustée
avec une précision extrême, sur plusieurs dizaines de décimales.
Ceci signifie que pour une raison obscure, notre Univers, loin
de correspondre à une solution générique des équations de la
Physique, en est, au contraire, une solution très particulière, très
ÉLÉMENTAÍRE
Champs
Dans le cadre de la théorie quantique des champs, qui
combine relativité restreinte et mécanique quantique, les
particules ne sont plus l’objet central de la description
mathématique. Elles sont les excitations élémentaires
d’un objet plus fondamental : le champ. Ce dernier est
une fonction prenant des valeurs différentes en différents
points de l’espace-temps. En guise d’illustration, on peut
imaginer un « champ » qui mesure la hauteur de l’eau sur
l’océan par rapport à un certain niveau de référence. Ce
champ prend des valeurs différentes à différents endroits.
Les excitations élémentaires de ce champ sont des vagues
qui se propagent sur l’océan. En mécanique quantique,
la hauteur des vagues ne peut prendre que certaines
valeurs précises (on dit qu’elles sont « quantifiées ») et ces
« vagues élémentaires » ne sont autres que les particules.
Il existe un type de champ pour chaque type de
particule. Une conséquence remarquable de la théorie
des champs est qu’elle permet d’expliquer pourquoi
toutes les particules d’un même type (par exemple, tous
les électrons de l’Univers) ont exactement les mêmes
caractéristiques (masse, charge, etc.) : elles sont les
excitations d’un seul et même champ (tout comme une
vague sur l’Océan Indien n’est pas intrinsèquement
différente d’une vague sur la Méditerranée).
page 79
correspond à l’état vide de particules – ici les quantités
qui fluctuent ne sont pas les positions et les vitesses (il
n’y a aucune particule dans ce vide...), mais les champs
associés aux différents types de particules connues, tels
les champs électrique et magnétique associés au photon
(voir Élémentaire N°6). Donc, le vide pèse et, tenez vous
bien : l’effet gravitationnel des fluctuations quantiques
du vide est strictement identique à celui d’une constante
cosmologique ! Il semblerait que le problème de l’énergie
noire soit en passe d’être résolu, avec la seule physique
connue. Eh bien non !
Combien pèse le vide ?
peu naturelle. On parle d’un problème d’ajustement fin ou de « fine
tuning » en anglais. Une erreur minime dans cet ajustement donne lieu
à des conséquences désastreuses quant à l’évolution de l’univers qui en
résulte (absence de formation de galaxies etc).
On peut adopter deux attitudes face à une telle situation. La première
est de penser qu’il s’agit d’une coïncidence, d’un hasard. Après tout,
contrairement aux autres domaines de la physique, nous n’avons qu’un
seul Univers sous la main, c’est-à-dire qu’une seule solution des équations.
Il n’y a pas de raison de s’attendre à ce qu’il corresponde à une solution
générique. Il y a d’autres exemples de telles situations en physique. Le
rayon de l’orbite sur laquelle s’est formée la Terre doit être très finement
ajusté pour permettre l’apparition de la vie telle que nous la connaissons.
Notre planète n’est donc pas un cas générique. Pour les planètes, on peut
le vérifier car on connaît de nombreux autres cas où la vie ne
s’est pas développée. On parle de principe « anthropique » : les
paramètres décrivant notre Univers doivent être compatibles
avec l’apparition de l’espèce humaine (laquelle peut être prise
comme un fait expérimental)... et peu importe si ce choix nous
semble peu naturel !
À l’inverse, on peut penser que le problème d’ajustement
fin de la constante cosmologique signale que quelque chose
de plus profond nous échappe. L’ajustement fin ne serait pas
un hasard, mais la conséquence d’une nouvelle loi de la
physique encore à découvrir. Ou encore, il se peut que notre
compréhension limitée des effets de gravité quantique soit à
l’origine du problème.
Un exemple d’ajustement fin lié au principe
anthropique : pour voir apparaître la vie sur
Terre, basée sur la présence d’eau liquide
et de molécules carbonées, il faut que
notre planète ne soit ni trop chaude ni trop
froide. Des situations différentes en ce qui
concerne la position de la Terre et la masse
du Soleil n’auraient pas permis à l’être
humain d’apparaître... et de s’interroger sur
les problèmes d’ajustement fin dans notre
Univers.
page 80
Ce problème, soulevé par l’observation de l’Univers récent, est une des
grandes questions de la cosmologie actuelle. Sa résolution ouvrira peutêtre les portes de mondes inconnus dans le domaine de la physique des très
hautes énergies, jusqu’ici chasse gardée de la cosmologie primordiale.
ÉLÉMENTAÍRE
Énergie nucléaire
ITER vers une future source d’énergie?
Fission-Fusion
La fission d’un gros noyau en deux
noyaux plus petits produit de l’énergie.
C’est la différence de masse des différents
constituants qui permet de dégager
environ 200 MeV dans la réaction de
fission de l’235U.
235
U → 139Te + 94Zr + 2 neutrons + 197 MeV
Les décisions sont arrêtées. Le chantier est lancé. Le réacteur thermonucléaire
ITER (International Thermonuclear Experimental Reactor), implanté à
Cadarache, entrera en service en 2015-2016, même si certains physiciens
ont contesté l’opportunité de cette entreprise.
ITER (en latin la voie) est une étape sur le chemin de l’autre source d’énergie
nucléaire : des réactions de fusion de noyaux légers qui comme les réactions
de fission, fragmentation de noyaux lourds, sont exothermiques. Mais alors
que la fission, maîtrisée dans des réacteurs depuis 1942, est passée au stade
industriel vers 1970, la fusion en est encore au stade expérimental. Ce long
délai est dû à des causes spécifiques : masse de nouvelles connaissances
qu’il fallait acquérir, nombreuses techniques d’avant garde à développer,
nécessité d’expérimenter sur des installations de grande taille, extrêmement
coûteuses.
Dans le cas de noyaux légers, il faut au
contraire fournir de l’énergie pour
pouvoir les scinder. À l’inverse, en
réalisant la fusion de ces noyaux, on peut
produire de l’énergie. La somme des
masses de petits noyaux est plus grande
que la masse du noyau issu de leur fusion.
C’est ce processus qui est à la base de la
production d’énergie des étoiles.
Fusion thermonucléaire
ÉLÉMENTAÍRE
Régime thermonucléaire : Taux de
réaction de divers processus de fusion
en fonction de la température.
Né à Lille, le 30 septembre 1870, Jean-Baptiste Perrin fit ses études à l’École Normale Supérieure
en 1891 où il resta attaché comme agrégé préparateur.
Chargé de créer l’enseignement de la Chimie-Physique à la Sorbonne, Jean Perrin y professa
jusqu’en 1940. Il chercha à étayer par des preuves expérimentales certaines l’hypothèse atomique,
encore très contestée à l’époque. Il fit, en 1908, la première détermination incontestable du
nombre d’Avogadro qui fixe les grandeurs moléculaires.
Ses expériences mémorables, et notamment la vérification de la théorie d’Einstein sur le
mouvement brownien, pour lequel lui fut décerné, en 1926, le prix Nobel de Physique, furent
exposées en 1913 dans un livre : « Les Atomes ». Jean Perrin s’est beaucoup investi dans la
vulgarisation de la science avec, entre autres, la fondation du Palais de la Découverte.
L’astronomie passionnait Jean Perrin qui fut le premier à trouver l’origine du flux d’énergie
rayonnée par le soleil en montrant dès 1920 que seule la fusion d’hydrogène en hélium peut en
rendre compte.
page 81
DR
Par application de la formule E = mc2, la fusion de 4
noyaux d’hydrogène pour former un noyau d’hélium, plus
léger que la somme de 4 protons, est depuis 1919 (Jean
-Baptiste Perrin) reconnue comme la source d’énergie du
Soleil et des autres étoiles. La réaction proton-proton est
une interaction faible dont la probabilité, excessivement
petite, garantit la longue vie du Soleil en même temps
qu’elle exclut toute mise en œuvre sur la Terre.
En revanche, les réactions du deutérium, découvertes
en 1934 par Rutherford et ses collaborateurs, ont des
probabilités (sections efficaces) qui les rendent compatibles
avec une source d’énergie terrestre à la condition d’être
produites en régime thermonucléaire : au sein d’un gaz
chaud complètement ionisé (plasma), projectiles et cibles
ont une distribution en énergie dont une seule tranche, vraiment active,
correspond au maximum de probabilité de la réaction. Située à une énergie
très supérieure à la moyenne (température du plasma), elle est constamment
renouvelée. Les étoiles et toutes les machines à fusion construite à ce jour
fonctionnent sous ce régime. Les températures sont nécessairement élevées :
au moins 107 K ou en unités d’énergie 1 keV.
ITER vers une future source d’énergie?
Un demi-siècle de confinement magnétique
DR
Les recherches sur la fusion contrôlée ont vraiment commencé dans les
années 50. Elles visaient à provoquer la réaction de fusion la plus favorable,
celle entre le deutérium et le tritium (DT), dans un plasma ténu, chaud
et isolé de toute paroi par un champ magnétique de confinement. La
température d’allumage, telle que le chauffage par les produits de réaction
chargés compense les pertes inévitables de chaleur par rayonnement, est de
4,5 107 K. Une température de fonctionnement raisonnable est 108 K. Un
bilan d’énergie positif est alors obtenu si le plasma est suffisamment dense
et stable. On utilise le produit de la densité du plasma par le temps pendant
lequel on a pu l’obtenir pour décrire le fonctionnement du réacteur.
Les premières années furent de grande créativité : on essaya nombre de
configurations, mais les succès furent modestes. L’horizon s’éclaircit en
1968. Une machine imaginée par Andreï Sakharov et depuis longtemps
à l’étude à l’Institut Kourchatov de Moscou sous la direction de Lev
Artsimovitch, le TOKAMAK (pour TOroidalnaia KAmera i MAgnetnaia
Katouchka, soit chambre torique et bobine magnétique), avait fourni des
valeurs apparemment reproductibles de la température électronique (c’està-dire celle du plasma) et du temps de confinement (la « durée de vie » du
plasma) : 10 millions de Kelvins et 20 millisecondes, respectivement (soit un
ordre de grandeur à peine des 108 K nécessaires). Confirmés par une équipe
britannique dépêchée sur place, ces résultats étaient bien meilleurs que tous
ceux qui avaient été obtenus par ailleurs
Ce fut le point de départ du développement d’une véritable filière. À partir
de 1970, des installations de plus en plus grosses et performantes ont été
construites et exploitées de par le monde. L’un des buts de ces expériences
Andreï Sakharov
Né à Moscou le 21 mai 1921, il effectue des
recherches sur les armes thermonucléaires et
entre à l’Académie des sciences d’URSS en
1953. Il participe à la mise au point de la
bombe à hydrogène soviétique mais s’oppose
quelques années plus tard à la poursuite
des expériences nucléaires. En 1966, il rallie
l’intelligentsia dissidente au régime soviétique
en place et crée en 1970 le Comité pour la
défense des droits de l’homme, ce qui lui vaut
le prix Nobel de la paix en 1975. Déchu de
ses titres et de ses fonctions, il est assigné à
résidence à Gorki et surveillé par le KGB de
1980 à 1986. Une fois réhabilité, il est élu en
1988 au présidium de l’Académie des sciences
et en 1989 au Congrès des députés du peuple.
Il meurt le 14 décembre 1989 à Moscou... un
peu plus d’un mois après la chute du mur de
Berlin.
© ITER organization
Réactions de l’hydrogène et du deutérium
page 82
Le premier Tokamak soviétique.
La réaction proton-proton (qui a lieu au cœur du Soleil et des autres étoiles) :
H + H → D + e + + νe
produit un noyau de deutérium (D = 1 proton + 1 neutron). Celui-ci est une curiosité
naturelle : stable mais peu lié, il entre dans des processus dont les sections efficaces sont les
plus grandes des réactions de fusion. Le deutérium agit d’abord sur lui-même selon deux
voies également probables :
D + D → T (1,0 MeV) + H (3,0 MeV)
D + D → 3He (0,8 MeV) + n (2,5 MeV)
produisant soit un tritium (T), hydrogène superlourd (un proton et deux neutrons), soit
un hélium 3 (3He, deux protons et un neutron). Ces noyaux peuvent à leur tour réagir avec
le deutérium pour fournir de l’hélium 4 et une grande quantité d’énergie :
D + T → 4He (3,5 MeV) + n (14,1 MeV)
D + 3He → 4He (3,7 MeV) + H (14,7 MeV)
La réaction DT est la plus intéressante. Elle est la seule envisagée dans les projets actuels.
Le deutérium existe en abondance dans les océans : un verre d’eau lourde (molécule de
D2O contrairement à l’eau normale composée de la molécule de H2O) par m3 d’eau de mer.
Le tritium, radioactif, doit être produit en bombardant du lithium avec des neutrons. C’est
pour cela que la couverture d’un réacteur thermonucléaire doit incorporer du lithium afin
de régénérer le tritium, combustible de la réaction.
ÉLÉMENTAÍRE
ITER vers une future source d’énergie?
Schéma de principe d’un tokamak :
a) le transformateur et sa cage ;
b) surfaces magnétiques
1973-75
1975-77
1983
1991
1997
2000
Élaboration du projet
Discussions pour le choix du site
Premier plasma
Première expérience DT
Pfusion : 16 MW (DT), Énergie : 13 MJ.
Rétrocession à la Grande Bretagne
Les grandes dates de la vie du JET, toujours
en service en 2008. Construire puis exploiter
un grand Tokamak est une entreprise
extrêmement lourde sur tous les plans :
scientifique, technique, administratif et bien
entendu financier.
© ITER
était de trouver les quantités qui régissent le temps de confinement de
l’énergie et leurs dépendances. Tous les résultats montrent un effet simple
de taille : la machine est d’autant plus performante qu’elle est plus grosse.
En trente ans, trois générations de tokamaks de taille croissante se sont
succédées. En raison du prix de construction et du coût d’exploitation,
la troisième génération n’a donné lieu qu’à trois machines : en Europe le
JET (Joint European Tokamak), aux États-Unis TFTR (Tokamak Fusion Test
Reactor, stoppé en 1997 une fois ses objectifs atteints) et enfin JT-60 au
Japon.
L’introduction du tritium dans le plasma s’accompagne de contraintes liées à
la radioactivité propre de cet isotope du noyau d’hydrogène et à l’activation
de certains matériaux devenant radioactifs après l’absorption des neutrons de
14 MeV produits lors des réactions de fusion. C’est pourquoi cette opération
est toujours envisagée avec circonspection et n’a été planifiée que vers la fin
des programmes expérimentaux de TFTR et de JET. TFTR a fourni 10 MW de
fusion DT en 1993. Cette performance fut dépassée en 1997 par le JET avec
un résultat de 16 MW de fusion DT pour 25 MW de chauffage auxiliaire,
c’est-à-dire dépensés pour faire fonctionner la machine.
Quel chemin parcouru depuis les débuts ! Deux ordres de grandeur gagnés
sur le produit densité-temps et deux autres sur la température. Cependant,
les tokamaks construits jusqu’à aujourd’hui consomment toujours plus
d’énergie qu’ils n’en produisent.
ÉLÉMENTAÍRE
page 83
Tokamak
La mise en œuvre du Tokamak commence par la réalisation d’un vide extrêmement poussé dans la chambre torique qui contiendra le plasma.
Puis on emplit la chambre du gaz désiré pour l’expérience (hydrogène, deutérium ou hélium) à la pression requise (quelques millitorrs, millièmes
de la pression atmosphérique). Les bobinages créant un champ magnétique de confinement et le champ de compensation sont alimentés en
courant quasi continu. On connecte alors le primaire du transformateur à un générateur d’impulsions. Le champ d’induction est suffisant pour
mettre en mouvement les quelques électrons libres toujours présents, les accélérer, puis par un processus d’avalanche provoquer l’ionisation du
gaz qui devient ainsi conducteur d’électricité, en obtenant une densité électronique de 1019 à 1020 m-3.
Pendant la montée du courant, le plasma s’échauffe progressivement par effet Joule. Il devient de plus en plus conducteur au point que dans
toutes les machines exploitées à ce jour, lorsque la température électronique atteint environ 2 107 K, la résistivité du plasma, excessivement faible,
se compare à celle des supraconducteurs. L’effet Joule est alors inopérant. Pour atteindre des températures plus élevées, il convient d’injecter de
l’énergie dans le plasma. Le tokamak est ainsi accompagné de systèmes de chauffage auxiliaires par arrosage avec des ondes électromagnétiques
de haute fréquence ou par injection de particules neutres que nous allons à présent expliquer.
Il a été relativement aisé de développer des générateurs de puissance adaptés aux fréquences en jeu. Il faut en effet que le plasma absorbe plusieurs
mégawatts de radiofréquences pour obtenir l’élévation de température désirée. Des antennes alimentées par des circuits haute fréquence ou des
guides d’ondes sont disposées à l’intérieur de l’enceinte à vide de façon à irradier le plasma selon les directions les plus favorables au chauffage. Un
autre usage des ondes est la génération non inductive de courant permettant de prendre le relais de l’impulsion envoyée dans le transformateur
et d’amorcer un régime quasi continu.
Autre procédé de chauffage du plasma : l’injection de particules neutres d’une énergie largement supérieure à l’énergie thermique du milieu dans
lequel elles pénètrent (en pratique 100 keV à 1 MeV) peut servir en plus à compenser les pertes de particules. Une bouteille magnétique étant
étanche dans les deux sens, il est nécessaire de rendre les ions électriquement neutres pour qu’ils puissent aller jusqu’au cœur du plasma, or on
ne sait accélérer que des objets chargés. Un dispositif de formation de faisceaux de particules neutres comporte donc successivement une source
d’ions dont le diamètre peut atteindre 1 m, un étage accélérateur, un étage de neutralisation et un dispositif pour l’élimination des ions résiduels.
En entrant dans le plasma, les neutres sont d’abord ionisés. Les ions ainsi formés vont céder leur énergie par collisions successives.
ITER vers une future source d’énergie?
Vers ITER
© JET
Rapport Q
La
performance
d’un
tokamak
fonctionnant avec le mélange deutériumtritium est donnée par le rapport Q de
la puissance de fusion à la puissance
de chauffage fournie de l’extérieur. Ce
rapport s’est rapproché de l’unité dans
le JET et devrait atteindre 10 dans
ITER pendant un temps court de 400
secondes.
Intérieur du JET.
Grand rayon du plasma (m)
Petit rayon du plasma (m)
Volume du plasma (m3)
Courant plasma (MA)
Champ magnétique (T)
Durée du plasma
Type de Plasma
Puissance thermonucléaire (Pth)
Q = Pth / puissance de chauffage
Puissance neutronique au bord
Tore Supra
2.25
0.7
25
1.7
4.5
180 s
D-D
~ kW
~0
20 W/m2
Tokamakologie comparée : les principaux
paramètres de Tore Supra, JET, ITER.
page 84
Paramètres
Mis en service dans les années 80, les Tokamaks de troisième génération ont
donné leur pleine mesure dans les années 90. Les résultats obtenus ont été
utilisés pour préparer l’étape suivante : ITER.
À de rares exceptions près, les recherches sur la fusion ont été menées par
de grands organismes nationaux ou au sein de la structure européenne
Euratom. L’augmentation de taille des machines entraînant celle de leur
coût, le niveau de décision s’est élevé à proportion. Aux U.S.A. les décisions
sur le choix de TFTR, sa construction puis sa fermeture ont été prises par le
gouvernement fédéral tandis que la communauté européenne prenait à son
compte le projet JET.
Plus spectaculaire encore de ce point de vue fut le lancement du projet
ITER après la rencontre au sommet, tenue en Islande en 1986, entre Ronald
Reagan et Mikhaïl Gorbatchev. Comment mieux marquer le début d’une
ère nouvelle des relations entre l’Est et l’Ouest sinon par une entreprise
commune de longue haleine sur un objectif ambitieux – sans être vital à
court terme – et impliquant une réelle et permanente coopération ? La fusion
magnétique offrait une opportunité idéale.
Mais lorsqu’en 1998, le devis lui a été présenté en même temps que les
plans de la machine, le Comité Directeur du projet ITER a reculé devant
l’ampleur de la dépense : environ 7 milliards de dollars de l’époque,
sans garantie de non-dépassement, pour un allumage incertain. Peut-être
l’aurait-il approuvé si la prise de conscience par l’opinion de la menace
du changement climatique avait été au niveau actuel. D’un autre coté il ne
pouvait être question d’abandonner la filière Tokamak. C’eût été un énorme
et immérité constat d’échec, condamnant pour des décennies la voie du
confinement magnétique. Les progrès accomplis en 30 ans n’avaient mis
à jour aucune raison sérieuse d’agir ainsi. En particulier rien n’était venu
contredire le bien fondé des lois d’échelle. Alors, les responsables se sont
ralliés à une demi-mesure. Les dimensions d’ITER ont été réduites par rapport
au projet initial de sorte que le volume du plasma n’est plus que 800 m3 au
lieu de 2 000. De même, la puissance de fusion attendue est abaissée à 500
MW contre 1-500 prévus
initialement.
L’allumage,
JET
ITER
DEMO
qui permet l’auto-entretien
de la réaction sans recours
3
6.21
6.5 < R < 8.5
à des chauffages auxiliaires,
1.25
2.0
2<à<3
est reporté à des temps
155
837
> 1 000
meilleurs.
5-7
15
> 20
On peut s’interroger sur
3.4
5.3
>5
la pertinence d’une telle
10 s
> 300 s
1h
démarche. Repartir pour un
D-D / D-T
D-T
D-T
tour dans ces conditions est50kW/ 16MW
500 MW
> 2 GW
~1
10
> 30
il de bonne politique ? Mais
60 kW/m2
0.6 MW/m2 > 5 MW/m2
selon Paul-Henri Rebut,
directeur du JET et ancien
chef de projet d’ITER, les
ÉLÉMENTAÍRE
ITER vers une future source d’énergie?
méthodes de travail et l’articulation des équipes étaient
mal adaptées à un projet aussi ambitieux. La machine
aux objectifs limités, aujourd’hui en construction, est
sans doute ce que l’on pouvait concevoir et réaliser
de mieux à l’époque.
ITER
© ITER
La décision de construire ITER a été prise en 2003.
Le site, choisi en 2005 après une recherche menée
au niveau mondial, est situé en France en lisière
du Centre CEA de Cadarache (dans la vallée de la
Durance) où est implanté depuis les années 1980 le tokamak Tore-Supra. Le
premier plasma est prévu vers 2016. Puis une dizaine d’années s’écoulera
avant d’atteindre le fonctionnement à plein régime sous tritium.
Le projet vise un rapport Q (qui mesure le rendement de la machine) de
l’ordre de 10 pour une puissance de fusion DT de 500 MW pendant 400
secondes. Ce sera donc un banc d’essai à objectifs multiples avant l’étape
décisive de la production d’électricité.
Le dessin d’ITER (voir ci-contre) adopte une section méridienne en forme
de D (comme le JET) et intègre trois éléments majeurs : un solénoïde
supraconducteur, un divertor destiné à éliminer les produits de réaction
ainsi que les impuretés du plasma et enfin un dispositif de récupération
de l’énergie de fusion, la couverture. Les deux premiers éléments ont déjà
été expérimentés. Les supraconducteurs ont fait leurs preuves sur le ToreSupra, les divertors sur le JET et JT-60, après des premiers essais sur de
petits tokamaks. La couverture sera mise en œuvre pour la première fois.
Modulaire, ses éléments sont traversés par un fluide de refroidissement
dont la température ne dépassera pas 100 à 150°C en service normal ce
qui est insuffisant pour faire tourner une turbine couplée à un générateur
© ITER
Vue éclatée d’ITER avec, en bleu, la
silhouette d’une personne donnant une
idée de l’énorme taille de l’ensemble.
ÉLÉMENTAÍRE
Le site d’ITER à Cadarache avec les projets
des bâtiments de ITER dessinés
page 85
© ITER
Disposition de la couverture et du
divertor dans ITER. Les ions indésirables
sont guidés jusqu’à des absorbeurs par les
lignes de champs des surfaces magnétiques
ouvertes.
ITER vers une future source d’énergie?
électrique. Certains de ces modules comporteront du lithium en vue de la
régénération du tritium par réaction des neutrons sur les parois.
Réactualisée, la note à payer par l’ensemble des nations partenaires s’élève
à cinq milliards d’euros d’investissements jusqu’à la mise en service. Cinq
autres milliards seront nécessaires pour 15 à 20 ans d’exploitation à partir de
2016, suivis du démantèlement de l’installation.
Du simple fait qu’il met en œuvre des
réactions nucléaires, ITER est source de
craintes. Au moindre incident, le plasma
très ténu se refroidit immédiatement et la
réaction est bloquée net. La crainte d’une
explosion est donc totalement infondée.
Quant au problème de la radioactivité, il
est sans commune mesure avec celui des
réacteurs à fission. Le tritium est bien
radioactif, mais les quantités manipulées
(avec des précautions renforcées par toute
l’expérience acquise au JET) se comptent
en grammes. Par contre les neutrons de 14
MeV activent les matériaux de structure
et cette radioactivité résiduelle perdure
après l’arrêt définitif de l’installation qui
ne sera donc démantelée qu’au bout de
quelques décennies. Le site reviendra
alors à son état d’avant le chantier.
© ITER
Après ITER ?
page 86
Des tokamaks actuels (Tore Supra et JET) à
DEMO, ou comment se dessine l’avenir de la
filière. Les encadrés recensent les principaux
objectifs de recherche relatifs à chaque étape.
La mise en service de DEMO pourrait être
contemporaine de la quatrième génération
des réacteurs à fission.
Dans ses ambitions premières, ITER visait, à échéance 2010-2020, la
démonstration de l’allumage de la réaction thermonucléaire confinée. Cela
aurait constitué l’équivalent de ce que fut pour la fission la divergence de la
réaction en chaîne obtenue le 2 décembre 1942 à Chicago par Enrico Fermi.
Dans le calendrier actuel, ce pas ne sera franchi qu’après 2030 avec un
réacteur de démonstration, DEMO, destiné à produire de l’électricité. Tous
les aspects scientifiques et techniques de la filière tokamak auront été mis
à l’épreuve sur ITER, sauf un : la tenue des matériaux (notamment ceux de
la première paroi) au flux de neutrons de 14 MeV émis par le plasma en
réaction. Dans ITER, celui-ci est comparable à celui
rencontré dans un réacteur à fission à haut flux. Il
sera 10 fois plus important dans DEMO. Pour cette
raison, une installation spécifique, IFMIF (pour
International Fusion Material Irradiation Facility),
doit être construite au Japon pour un coût de l’ordre
de 15% des investissements du programme ITER.
Le flux de neutrons y sera créé par l’impact de
deutérons accélérés jusqu’à une énergie de 40 MeV
sur des cibles de lithium ou de béryllium.
DEMO, contemporain des réacteurs à fission de
quatrième génération, devrait donc apporter la
preuve expérimentale qui manque toujours : allumer
de façon contrôlée les réactions thermonucléaires.
Le construire et le faire fonctionner prendra du
temps, en plus du délai nécessaire à la prise de
décision. Après seulement, il deviendra possible
d’envisager le passage au stade industriel, processus
qui, on le sait d’expérience, ne dure jamais moins d’une vingtaine d’années.
Encore faudra-t-il que loin dans la seconde moitié du XXIe siècle, le réacteur
à fusion soit compétitif par rapport aux autres sources d’énergie alimentant le
réseau électrique.
Sera-ce toujours un tokamak ? Peut-être. Mais si les efforts de recherche sur
la fusion ont été concentrés sur cette configuration, c’est parce qu’à la fin des
années 1960, elle était supérieure à toutes les autres. Rien ne dit qu’un siècle
plus tard il en sera toujours ainsi. D’autres configurations magnétiques, mais
aussi la voie inertielle (qui consiste à comprimer et à chauffer une très petite
masse de DT jusqu’à 10 000 fois la densité du liquide et à quelques keV de
température afin qu’elle explose) ou encore des réacteurs hybrides utilisant
la fusion et la fission pourraient représenter l’avenir de cette forme d’énergie
nucléaire.
ÉLÉMENTAÍRE
Échelle des distances
10-1 m = 0,1 m
Les puissances de dix
101m = 10 mètres
© CERN
102 m = 100 m
© CERN
104 m = 10 000 m
= 100 000 m
Une vue du CERN
à
l’altitude
d’un
oiseau
avec
au
centre le bâtiment du
Microcosm.
© CERN
106 m = 1000 000 m
© CERN
Quelques bâtiments
du CERN.
© CERN
105 m
103 m = 1000 m
© CERN
Dans le numéro 1 vous
avez «vu» une mouche de
1 à 10-15 mètre, regardons
aujourd’hui dans l’autre
sens.
Cette image recouvre
approximativement
la même surface que le
plus grand accélérateur
de particules du CERN,
le LHC, le grand
collisionneur de hadrons.
© CERN
107 m = 10 000 000 m
© CERN
1020 m = 100 000 000
000 000 000 000 m
1026 m = 100 000
000 000 000 000 000
000 000 m
page 87
ÉLÉMENTAÍRE
Notre galaxie apparaît
toute petite. Les Nuages
de Magellan sont les
deux galaxies voisines à
gauche de l’image.
© CERN
© CERN
© CERN
© CERN
1022 m = 100 00 000
000 000 000 000
000 m
Notre système solaire
apparaît faiblement sur
fond d’étoiles.
De 1014 m à 1019 m peu de
changements.
109 m = 1 000 000 000 m
© CERN
1015 m = 1000 000
000 000 000 m
108m = 1 00 000 000 m
© CERN
Le lac de Genève étale
clairement ses 1000
km2.
La Lune en orbite
autour de la Terre.
Jamais un humain n’a
voyagé plus loin.
C’est l’échelle de la plus grande
photo jamais prise, Chacun
des 9325 points est une galaxie
semblable à la nôtre. Elles se
rassemblent en paquets appelés
«superclusters» autour d’immenses espaces vides pouvant
atteindre une taille de 150
millions d’années lumière.
Téléchargement
Explore flashcards