Archeops et Planck à l`écoute du premier cri de l`univers

publicité
L
l'actu a lité
L
du
Bulletin d’information interne du Laboratoire de l’Accéléra
Comité de rédaction : M.-A. Bizouard, F. Berny, F. Couchot, F. Fulda-Quenz
er,
teu
r
S.
H en
Liné
ro t -
d – B.P. 34 – 91898 Orsay Cedex
-S u
s
i
r
a
. Tél. 8410 E-mail : [email protected]
a ir e –
té P
eau
UMR 8607, Universi
ud
. Ro
Vers
il l
é, H. K é
ur, P
e Me
rec, D. Lecomte, G. L
N °4 0
hiver
Archeops et Planck à l’écoute du premier cri de l’univers
Ce numéro de « L’actualité du LAL » est construit autour de la rencontre « Résonances…» intitulée « Archeops et Planck, à
l’écoute du premier cri de l’univers ».
Olivier Perdereau nous offre un article qui est, en fait, peut-être un peu plus qu’une transcription de l’intervention qu’il avait prononcée lors de la rencontre. Il effectue pour nous une remise en perspective
complète des deux expériences dans la théorie cosmologique contemporaine et dans la situation
expérimentale mondiale. Dans un second article Olivier dresse un panorama historique qui nous
rappelle à bon escient la dimension d’aventure humaine de toutes ces recherches.
C’est aussi d’aventure, mais peut-être d’un autre genre, ou plutôt d’un autre style, que nous
entretient Sophie Henrot-Versillé avec les « expéditions » de Kiruna. Mais avant
ces expéditions, il avait fallu mettre en œuvre des technologies avancées, entre
autres ces bolomètres refroidis à 100 mK, dont Sophie nous entretient
également.
La participation du LAL à ces expériences a de multiples
facettes. On s’en convaincra en lisant l’article sur l’analyse des
données, de François Couchot et l’entretien de membres du comité
de rédaction avec quelques participants aux expériences.
GUY LE MEUR
Cosmologie
3
À l’écoute du
premier cri
de l’univers
Archeops et Planck à
l’écoute du premier cri de
l’univers
par Olivier Perdereau
Bolomètres
Les bolomètres et la dilution
par Sophie Henrot-Versillé
15
Kiruna
18
Journal de mission à Kiruna
par Sophie Henrot-Versillé
A nalyse
Histoire
31
page 2
23
Analyse des données
de l’expérience Planck
par François Couchot
Entretien
Les très riches heures
du CMB
par Olivier Perdereau
27
La participation du
LAL à l’expérience
Planck
Cosmologie
ARCHEOPS
PLANCK À
D E L ’UNIVERS
ET
D U PREMIER CRI
L ’É C O U T E
La cosmologie peut être définie comme l'étude de «la structure et de l'évolution de l'univers considéré comme un tout». Dans la seconde moitié du XXe siècle, une description phénoménologique et théorique de l'histoire et de la géométrie de l'univers s'est peu à peu imposée, description fondée sur la théorie de la Relativité générale : c’est la théorie du Big-Bang. Dès les premiers balbutiements des théories
cosmologiques, G. Gamow en 1948 avait prédit l'existence d'un rayonnement primordial. Hélas, il
annonçait aussi son indétectabilité ! Cela n’a pas empêché A. Penzias et R. Wilson de découvrir son existence en 1965 de manière fortuite (voir dans ce numéro «les très riches heures du CMB»). L'étude expérimentale de ce rayonnement fossile constitue une source de contraintes sur le modèle du Big-Bang, en
particulier sur ses paramètres cosmologiques. Il est fondamentalement isotrope. Il présente cependant
des anisotropies résiduelles instructives quant aux modèles théoriques possibles. Leur étude est un des
objets majeurs des expériences Planck et Archeops auxquelles le LAL participe.
Introduction à la cosmologie
La cosmologie s’est édifiée progressivement, en s'appuyant sur trois observations fondamentales, appelées « les
trois piliers» : l’expansion de l’univers, sa composition chimique (grande proportion d’hélium), et le rayonnement
de fond cosmologique.
Les trois piliers
L'expansion de l'univers
Les mouvements des galaxies distantes ont été étudiés depuis le début du XXe siècle. E. Hubble et M. Humason
dès 1922 ont constaté que les galaxies distantes semblent s'éloigner de nous, et ce d'autant plus rapidement
qu'elles sont éloignées. Cette étude s'est affinée et complétée depuis, pour culminer avec les études menées par
un groupe d'astrophysiciens avec le télescope spatial de la NASA opportunément baptisé «Hubble Space
Telescope» (ou HST). Elle repose sur la comparaison de deux mesures : d'une part la mesure de la vitesse d'éloignement d'une galaxie (par effet Doppler), d'autre part la mesure de la distance qui nous sépare d'une galaxie. Ce
second aspect est bien souvent une mesure relative basée par exemple sur la luminosité d'objets particuliers : certains types d’objets semblent en effet être de nature à émettre toujours la même quantité de rayonnement (luminosité absolue). Leur luminosité apparente mesurera alors leur distance relative.
Les objets astrophysiques semblent s'éloigner de nous d'autant plus vite qu'ils sont distants. En vérité il s’agit
d’une dilatation d'échelle de l'univers. Considérons les raisins d'un cake, qui gonfle en cuisant lentement dans un
four. Pendant ce gonflement, les raisins s'éloignent les uns des autres. Les rapports entre les distances entre les
grains sont conservés.
Illustration imagée de l’expansion
de l’univers vue
comme le gonflement d’un cake.
Les
«raisins»
(structures compactes fortement
liées) s’éloignent
les uns des autres
du fait de la dilatation d’échelle.
page 3
Cosmologie
ARCHEOPS
PLANCK À
D E L ’UNIVERS
ET
D U PREMIER CRI
L ’É C O U T E
La composition chimique de l’univers
Même si on considère les objets les plus anciens, l'univers semble en gros composé d'un mélange d'hydrogène (environ 80 % en masse) et d'hélium (environ 20 % ), avec une proportion infime d'impuretés ... dont
nous sommes faits, soit dit en passant. L'origine des éléments chimiques a été l’un des points sensibles du
débat sur le Big-Bang (voir dans ce numéro «les très riches heures du CMB»). Une difficulté était de comprendre le mécanisme par lequel on pouvait expliquer l’abondance de l’hélium. On n’y parvint qu’en supposant qu’il a été fabriqué dans la phase primordiale de l'univers.
Le rayonnement de fond cosmologique
L'existence d'un rayonnement fossile est une preuve directe de l'existence d'un état dense et chaud au début
de l'histoire de l'univers. Ce rayonnement est le sujet central de cet article. Pour mieux comprendre son origine, nous allons commencer par un rapide survol de l'histoire de l'univers qui commence il y a 15 milliards
d'années…
Petite histoire de l’univers
1. On pense qu'au départ il y a une concentration colossale d'énergie. Dans ce milieu extrémement dense et
chaud, la densité et la température ont le comportement prédit par la mécanique quantique. En conséquence
elles présentent des fluctuations dans le temps et dans l'espace.
2. Sous l'effet d'un mécanisme dont on ne connaît pas
grand chose, appelé inflation, l'univers subit une
expansion extrêmement brutale. Ceci a pour effet de
«gommer» presque toute
trace de l'état précédent. En
10-30 secondes la taille de
l'univers augmente d'un facteur environ 1050 ! Cela
signifie le gel des fluctuations quantiques de sa densité. Ainsi, ces fluctuations
engendrent de petites anisotropies spatiales de densité.
L'univers après l'inflation
apparaît comme quasi uniforme et homogène, ce qu'il
est maintenant (à des
échelles suffisamment grandes).
3. L'univers va ensuite
suivre la dynamique décrite
par la Relativité générale : il
va se dilater lentement à la
manière d'un cake dans un
four, tout en se refroidissant.
À l'âge juvénile d'environ
10-30 seconde, l'univers est
composé d'une « soupe » où
nagent les particules élémentaires (quarks, antiquarks,
leptons,...). L'univers est tel-
page 4
Cosmologie
ARCHEOPS
PLANCK À
D E L ’UNIVERS
ET
D U PREMIER CRI
L ’É C O U T E
lement chaud que les particules plus complexes qui pourraient se former sont « cassées » dès leur apparition.
Au fur et à mesure de l'expansion et du refroidissement, cela va devenir de moins en moins vrai. En permanence, particules et antiparticules s'annihilent et se recréent. Mais avec le refroidissement général, les annihilations vont l'emporter. Cependant, le fait que seule la matière subsiste pourrait s’expliquer par un léger excès
de celle-ci sur l’antimatière dans la soupe initiale.
4. Au bout d'une seconde environ, une évolution considérable a lieu : des protons et des neutrons commencent à pouvoir se former. Ceci est suivi, à partir de la seconde minute, par l'association de certains de ces
nucléons dans des noyaux légers comme l'hélium ou le lithium. C'est la phase de nucléosynthèse primordiale. Au bout d'un certain temps, l'univers se trouve donc composé de noyaux légers, d'électrons et de photons.
Les photons empêchent la formation des atomes : tout atome formé est immédiatement cassé, comme l'étaient
précédemment les noyaux.
5. L'univers poursuit son expansion pendant un «petit» moment, pendant lequel les densités des différents
constituants, et la température, diminuent régulièrement. Au bout de 300 000 ans environ, un bouleversement
intervient : la densité des photons n'est plus suffisante pour empêcher la formation des atomes. Les photons
étaient jusqu'alors incapables de se propager car très sensibles à la présence des particules chargées. Ils sont
maintenant libres de se propager partout dans l'univers, qui leur est transparent. C'est l'époque du découplage. Et c’est la naissance du rayonnement cosmologique.
6. L'expansion se poursuit ensuite jusqu'à nos jours. L'univers est maintenant dominé par un mélange d'hydrogène et d'hélium qui évolue sous l'effet de la gravitation : s'il existe une région de plus forte densité, la
matière qui s'y trouve va se contracter. Ainsi vont apparaître, progressivement, des structures de plus en plus
complexes dans l'univers. Des nuages de gaz, qui en se contractant encore, vont donner naissance aux premières galaxies, environ un milliard d'années après le début de l'histoire de l’univers.
7. Quelques 10 milliards d'années après la «naissance» de l'univers, quelque part dans une galaxie bien normale, dans les mers d'une petite planète, la troisième d'« une petite étoile de proche banlieue », des choses
bien étranges commencent à se produire. Mais ceci est une autre histoire .
Les paramètres cosmologiques
● Le modèle cosmologique évoqué possède un certain nombre de paramètres, parmi lesquels on peut mentionner : la « constante » de Hubble (notée H0), qui est la valeur «actuelle» du taux d'expansion de l'univers. Ce taux peut varier pendant l'histoire de
l'univers.
● la densité totale d'énergie de l'univers ; elle s’exprime par le
rapport Ω0 de cette densité à une valeur critique qui (d’après la
Relativité générale) conférerait à l’univers une géométrie euclidienne (ordinaire, plate), ce qui serait le cas si Ω0 = 1.
Ω0 > 1 conduirait à une géométrie « fermée » (analogue à la géométrie à deux dimension d’une surface sphérique, sur laquelle une
mouche marchant «droit» devant elle reviendrait à son point de
départ). Enfin Ω0 <1 indiquerait une géométrie «ouverte» (illustrée par une surface en «selle de cheval»). Cette énergie présente
dans l’univers peut se décomposer en plusieurs parties :
❍ la densité de matière dans l'univers, Ωm qui se décompose encore :
- la densité de matière «ordinaire», dite baryonique, Ωb
- la densité de matière «noire» (ou «cachée»), ΩCDM (invisible directement mais déduite de l'observation de ses effets
gravitationnels)
❍ la constante «cosmologique», notée Λ ; Einstein l’avait
ajoutée en écrivant les équations d'évolution de la géométrie de
l'univers. Sans elle l’univers aurait été soit en expansion soit en contraction, ce qu’Einstein ne pouvait imaginer.
Aujourd’hui cette constante est conservée pour des besoins théoriques : Λ s'apparente à une «densité d'énergie du vide».
Enfin certaines caractéristiques des fluctuations de densité issues de l'inflation (voir ci-après) sont aussi des paramètres
que l'on va chercher à mesurer en cosmologie, particulièrement avec le CMB.
page 5
Cosmologie
ARCHEOPS
PLANCK À
D E L ’UNIVERS
ET
D U PREMIER CRI
L ’É C O U T E
Le rayonnement de fond diffus cosmologique
Ainsi donc, le rayonnement fossile a été émis environ 300 000 ans après le Big-Bang.
Jusqu'alors l’univers était dominé par un gaz de photons à une température de l'ordre de 3000 K. Le
«spectre» de ce rayonnement était celui d’un corps noir, caractéristique de son origine thermique, avec des
longueurs d’ondes proches du visible, correspondant à sa température (voir encadré «corps noir»). Par suite
de l’expansion de l'univers, les longueurs d’onde augmentent, ce qui entraîne la diminution de la température associée au CMB. Ce rayonnement subsiste donc aujourd’hui, toujours avec un spectre de corps noir, mais
à une température de 2,7 K environ (- 270 degrés Celsius) ce
Corps noir
qui correspond à des longueurs d’onde de l’ordre du millimètre. Il forme dans le ciel un «fond diffus cosmologique»
Un «corps noir» est un corps idéal qui absor(communément appelé CMB, Cosmic Microwave be tous les rayonnements (toutes les fréquences)
Background). G. Gamow croyait un tel rayonnement indé- qu’il reçoit et les ré-émet de manière aléatoire,
tectable compte tenu des techniques expérimentales de dans un équilibre qui ne dépend que de la teml’époque, et aussi parce qu’il surestimait les effets d’avant- pérature et non de la nature du corps. Une réalisation approximative serait un four (par
plan.
Il fut mesuré par de nombreuses méthodes, dans les années
70 et 80, jusqu'à l'expérience COBE (Cosmic Background
Explorer). La température d'émission du CMB correspond à
une gamme de fréquences située entre un et quelques centaines de GHz. C'est la gamme où travaillent télévisions par
satellite, ou téléphones portables par exemple. On peut
d'ailleurs «détecter» chez soi le CMB : si on règle sa télévision sur une fréquence où n'émet aucune chaîne, quelques
centièmes de la «neige» qui apparaît alors à l'écran provient
du CMB. Il est certes observable au sol, mais l’étudier dans
la gamme de fréquence où il est le plus intense, il faut aller
dans l'espace ou, à défaut, dans la haute atmosphère (la stratosphère) dans laquelle les photons du CMB pénètrent encore. En effet, pour des rayonnements de longueurs d'onde inférieures à 1 cm l'atmosphère est pratiquement opaque. Le
spectre du CMB a été (et reste) un sujet d'étude important. En
effet, la présence de distorsions par rapport au spectre du
corps noir serait le signe d'une incohérence dans le modèle
du Big-Bang. Mais ce sont surtout ses «anisotropies angulaires de température», discutées ci-après, qui ont pris place
sur le devant de la scène. Ce qu'on appelle «anisotropie» du
CMB désigne le fait qu'en fonction de la direction où on l'observe, les caractéristiques de ce rayonnement ne sont pas
exactement identiques. La mesure de ces anisotropies va
nous renseigner sur l’anisotropie de température dans l'univers au moment de l'émission du CMB et ainsi nous donner
accès à la mesure de beaucoup des paramètres physiques de
l'univers1 .
1La température n’est pas la seule
source de renseignements : comme tout
rayonnement électromagnétique, le
CMB peut être polarisé et une mesure
de polarisation (réalisée dans l’expérience Planck) nous informera également sur l’univers primordial. Mais
dans cet article nous nous limiterons à
la température.
page 6
exemple sphérique) dont les parois parfaitement absorbantes sont maintenues à une température donnée. Leur rayonnement, piégé dans le
four, est caractéristique du corps noir.
Comme pour tout rayonnement, on peut
déterminer le spectre de rayonnement de ce
corps noir. Planck en a déterminé la forme
mathématique dans les années 1900. Comme on
le voit sur la figure, ce spectre a une forme
caractéristique invariable ; seul son positionnement et son intensité varient en fonction de la
seule température.
Cosmologie
ARCHEOPS
PLANCK À
D E L ’UNIVERS
ET
D U PREMIER CRI
L ’É C O U T E
Les anisotropies du CMB, pierres angulaires de la
cosmologie moderne
Une anisotropie bien particulière : le dipôle
La première caractéristique qui ressort d'une comparaison de l'intensité du CMB dans différentes directions
est, nous l'avons déjà noté, son uniformité. À un pour mille près, l'intensité est identique quelle que soit la
direction. Le phénomène qui vient briser cette monotonie est dû à un effet déjà mentionné, l'effet Doppler. En
effet, dans l'univers, la Terre n'est pas immobile. Elle est en rotation autour du Soleil, lequel est en rotation
autour du centre de notre galaxie. Celle-ci
fait aussi partie d'un système gravitationnellement lié, « l'amas local », et donc elle
est en mouvement par rapport au centre de
ce système. Par rapport au CMB, c'est la
résultante de tous ces mouvements qui
joue. Ainsi certains des photons du CMB
arrivent dans la direction du mouvement
du dispositif d’observation, d’autres dans
la direction opposée. En conséquence, les
premiers sont un peu plus énergétiques que
les seconds, dans une proportion de un
pour mille environ. La carte de température va donc se «polariser» : il fera plus
chaud dans une direction, et plus froid
dans la direction opposée (d’où le nom de
«dipôle»).
Carte du CMB mesurée par COBE. En haut est représentée la température
absolue du CMB. Au milieu la moyenne de cette température a été soustraite.
On voit apparaître le dipôle : une moitié du ciel est plus «chaude», l’autre
plus «froide». Si on soustrait cet effet dipolaire, comme dans la carte du bas,
la plan de la galaxie est visible (par sa tranche) ainsi que les fluctuations primordiales loin de celui-ci.
Longtemps suspecté, cet effet a été vu
pour la première fois par COBE. De
découverte, il est maintenant ramené au
rang d'outil. En effet, étant «toujours là», il
est utile pour étalonner la sensibilité d'une
expérience. En outre, une des composantes
du mouvement global de la Terre est
connue avec une grande précision : c'est
son mouvement orbital autour du Soleil.
Une expérience qui dure un an (ou plus),
pourvu qu'elle soit assez sensible, pourrait
donc mesurer des variations annuelles de
l'anisotropie dipolaire du CMB. Comme
ces dernières sont calculables dans l'absolu, il y a la une manière, ô combien élégante, d'étalonner cette expérience de
manière absolue. Cette méthode est utilisée par l'expérience WMAP (voir article
«les très riches heures du CMB») et sera
aussi utilisée par Planck.
S'il est donc un outil utile, le dipôle n'a
pas de caractère très fondamental. Une fois
qu'on l'a mesuré, en général, on le modélise et on le soustrait des données.
page 7
Cosmologie
ARCHEOPS
PLANCK À
D E L ’UNIVERS
ET
D U PREMIER CRI
L ’É C O U T E
Au delà du dipôle
Une fois le dipôle ainsi évacué, que reste-t-il ? De toutes petites variations, de un pour cent mille, 10-5 .
Cependant ces anisotropies sont pour la plupart de nature fondamentale. Elles reflètent l'état du milieu qui a
émis le CMB, il y a quelques 15 milliards d'années, juste après le Big-Bang. Il s'agit là d'une sorte de photographie de l'univers primordial !
Bien sûr, quelques effets parasites viennent «polluer» cette vue. Le
plus notable est très proche de nous : notre galaxie émet en effet des
rayonnements1 dans la même gamme de fréquences que le CMB. Si les
composantes galactiques sont des sujets d'étude en elles-mêmes, ce sont
pour la cosmologie des parasites qui nous masque une partie du ciel (voir
figure p.7).
Pour comprendre l'aspect fondamental des anisotropies qui nous passionnent, il faut maintenant nous pencher sur ce qui se passait dans l'univers primordial.
1 Ces rayonnements proviennent
soit de poussières interstellaires,
chauffées par des étoiles voisines et
qui rayonnent en retour (partie haute
fréquence) soit d’électrons de basse
énergie, piégés par le champ magnétique de la galaxie et qui rayonnent
comme ceux qui circulent dans les
antennes (partie basse fréquence). Le
plan de la galaxie est clairement apparent sur les cartes des expériences qui
couvrent une grande partie du ciel
(COBE, Archeops, WMAP,...).
Dans le plasma primordial
Fluctuations de densité
Lors de l'émission du CMB, l'univers était un mélange de protons, de quelques noyaux légers (deutérium,
hélium, lithium...), d'électrons et de photons. Un tel milieu est appelé un plasma. À la suite de la phase d'inflation, ce mélange était d'une densité extrêmement homogène, mais pas totalement. En effet, avant l'inflation,
en raison de la formidable densité d'énergie et des fluctuations quantiques des particules apparaissaient et disparaissaient en permanence çà et là, d’où des fluctuations de densité. La phase d'inflation a « figé» ces fluctuations en conservant à la densité de l’univers de légères inhomogénéités. On parle d'anisotropies spatiales
de densité. L'existence de ces anisotropies de densité a une traduction immédiate dans l'existence d'anisotropies spatiales de température : là où la densité est plus élevée, la température sera aussi la plus élevée. Ces
anisotropies spatiales vont avoir une traduction dans les observations du CMB.
Après l'émission des photons du CMB, c'est la force de gravitation (attractive) qui dominera l'évolution ultérieure de l'univers. Soumise à cette seule influence, la matière va donc «tomber» vers les endroits où la densité est la plus grande. Le contraste des anisotropies de densité va augmenter. Ainsi vont se former progressivement des accumulations de matière de plus en plus denses qui finiront par devenir des amas de galaxies, ou
des galaxies...
Ondes acoustiques
Mais revenons à l'univers primordial. Avant l'émission du CMB, la densité d'énergie du mélange est dominée par les photons, qui s'opposent à l'apparition d'atomes. Ces mêmes photons exercent une pression (qui
résulte de leur énergie, un peu comme avec les molécules dans le cas d’un gaz), c'est-à-dire une force qui s'opSchéma illustrant la génération
des ondes acoustiques dans le plasma primordial. La sinusoïde bleue
(vague bleue) symbolise les anisotropies de densités. La matière
(boules jaunes) «tombe» vers les
surdensités (creux). Les photons
(ressorts roses) s’opposent à cette
compression en repoussant les
boules jaunes vers les sommets
d’où une alternance de zones
chaudes et froides (fond rouge puis
bleu).
page 8
Cosmologie
ARCHEOPS
PLANCK À
D E L ’UNIVERS
ET
D U PREMIER CRI
L ’É C O U T E
pose à la compression. Par le mécanisme précédemment évoqué, du fait des anisotropies, le fluide primordial
tend à «tomber» vers les endroits les plus denses sous l’effet de la gravité, provoquant une augmentation de
densité ; mais alors les photons sont «comprimés» et leur pression augmente et tend à repousser le fluide excédentaire ; la pression va alors diminuer et le fluide «retomber», etc... On voit ainsi apparaître des oscillations,
donc des ondes, ondes de nature semblable aux ondes sonores dans ce milieu primordial. On parle donc
d'ondes acoustiques.
L'existence de ces ondes a des conséquences sur la température locale. En effet là où la densité est la plus
élevée, la compression maximale, la température est aussi plus élevée. Comme dans le piston d'une pompe à
vélo ! La présence d’oscillations a donc pour effet, dans la situation où la compression est maximale, d’accentuer les écarts de température. Ces oscillations acoustiques ne peuvent exister qu'avant l'émission du CMB,
car elles n'existent que grâce au couplage entre les photons (qui constitueront le CMB) et la matière, par le
biais de la pression de photons. La libération des photons lors du découplage photographie en quelque sorte
l’état de ces ondes. Toutes les longueurs d’onde existent, mais certaines ont une traduction amplifiée dans les
anisotropies de température. Imaginons que notre appareil photographique fictif ne soit sensible qu’à une longueur d’onde réglable. Les photos ciblées sur les ondes ayant fait un nombre entier d’allers et retours entre
compression et dilatation auront plus de contraste que les autres : ces ondes laissent donc une signature caractéristique dans les anisotropies du CMB.
Le premier cri de l'univers
En résumé, si ce qui précède est correct, le CMB présente des anisotropies de température qui reflètent la
phase quantique de l'histoire de l'univers. Ces anisotropies suscitent l'apparition d'ondes acoustiques dans le
plasma qui compose l'univers jusqu'à l'émission du CMB. Ces ondes produisent à leur tour une amplification
des anisotropies pour des échelles de distances discrètes, régulièrement espacées, déterminées par la vitesse
du son et la taille de l'univers au moment de l'émission du CMB. L'échelle de ces déplacements dépend de
paramètres cosmologiques fondamentaux, comme les densités des différentes composantes de l'univers.
Les photons du CMB ont été émis pendant un intervalle de temps très court : on a presque affaire à une photographie instantanée de l'univers à cet instant. Puisque cette photographie matérialise la présence d'ondes de
type sonore dans l'univers primordial, peut-être est-il permis de parler d'un enregistrement des premiers cris
de l'univers.
L'observation des anisotropies
Les observations spatiales se font en pointant des appareillages dans toutes les directions possibles. Ainsi,
les anisotropies spatiales de température sont observées comme des anisotropies angulaires c’est-à-dire
comme des différences de température d'une direction à l'autre. La dépendance par rapport aux paramètres
cosmologiques est compliquée par l'effet
de la structure géométrique de l'univers :
une même longueur n'est pas vue sous le
même angle dans un univers ouvert, plat
ou fermé (voir encadré «escargot» de la
page 5). La figure ci-dessous, basée sur
des calculs et des simulations, illustre
cette dépendance par rapport aux paramètres cosmologiques.
Les trois cartes du bas représentent de
gauche à droite, les cartes de la température du CMB, attendues sur une surface donnée du ciel, si l’univers était fermé, plat ou
ouvert. La taille des taches n’est pas la
même dans les trois cas. En comparaison
on a représenté au-dessus une carte observée par l’expérience BOOMERANG qui
s’apparenterait plutôt au cas du milieu.
page 9
Cosmologie
ARCHEOPS
PLANCK À
D E L ’UNIVERS
ET
D U PREMIER CRI
spectre et transformée de Fourier
On sait que la lumière que l’on perçoit peut être envisagée
comme un phénomène ondulatoire. On sait aussi qu’un prisme
décompose une lumière blanche selon les couleurs de l’arc-enciel. Si on sélectionne une raie extrêmement étroite de cet arc-enciel on obtient une couleur pure, en fait une lumière, une onde
lumineuse, d’une certaine fréquence bien définie. La lumière
blanche est la superposition des différentes ondes lumineuses,
mises en évidence par le prisme, de couleurs et donc de fréquences différentes. De même un son est une superposition
d’ondes sonores « pures » et ce qu’on appelle « le timbre » d’un
instrument de musique traduit le fait que notre oreille perçoit que
d’un instrument à l’autre, ce ne sont pas les mêmes assemblages
de fréquences qui interviennent : la flûte émet des fréquences
pratiquement pures, la clarinette est riche en «harmoniques»
(fréquences multiples d’une même fréquence fondamentale), une
cloche émet des fréquences très mélangées. Fourier (1768–1830)
a fabriqué un instrument mathématique qui permet d’analyser
tout phénomène de ce type ; cette transformation produit une
courbe qui donne l’intensité, c'est-à-dire l’importance relative,
de chaque fréquence qui compose un signal. Cette courbe est
appelée le spectre de ce signal.
L ’É C O U T E
Pour analyser ce type de données, on a
recours à une technique classique d'analyse de signal. Ici on part d'un ensemble de
mesures de température du CMB sur la
surface du ciel. Cette carte est décomposée mathématiquement selon une procédure analogue à la transformation de
Fourier (encadré «spectre et transformée
de Fourier») ; les coefficients de cette
décomposition sont notés Cl.
La valeur d'un Cl donné est plus ou
moins importante suivant qu'il y a plus ou
moins de fluctuations de température à
une échelle proportionnelle à l.
L'indice l de cette décomposition est relié
à l’inverse de la taille angulaire des anisotropies. l = 2 correspond à une anisotropie
dipolaire, l = 100 à des anisotropies de
taille apparente sur le ciel proches de un
degré.
Nous pouvons tirer du paragraphe précédent quelques prédictions sur les
valeurs de Cl. Juste après la phase inflationnaire, il existe des anisotropies à toutes les échelles ; on montre que
ceci correspond à une courbe de Cl plate. Le développement d'ondes sonores dans le plasma jusqu'à l'émission du
CMB va se traduire par le renforcement des anisotropies pour un ensemble de valeurs discrètes. Ceci devrait se
traduire par l'existence de pics dans la courbe des Cl, régulièrement espacés en l. Cette vision n'est pas si éloignée des prédictions, présentées sur
la figure 3.
Etat actuel des mesures
À la fin des années 1990 les premières mesures suffisamment précises
des anisotropies du CMB ont été publiées. Un effort expérimental considérable et international est en cours pour améliorer ces mesures.
Actuellement, seuls les deux premiers pics ont été mesurés avec précision. Des mesures à des échelles plus petites (des Cl plus élevés) semblent
indiquer l'existence des pics suivants. Ces mesures ne permettent de
Exemple de prédiction du spectre
contraindre fortement que des combinaisons de paramètres. Ainsi, on
des anisotropies du CMB.
mesure la densité totale de l'univers sans contraindre aussi précisément
celles de ses composantes. Ces contraintes ont cependant été considérablement affinées à la suite de la publication des données de la première année de fonctionnement par WMAP (voir « Les très riches heures du CMB » ).
Depuis quelques années, le laboratoire participe à ce programme, dans le cadre de l'Instrument Haute Fréquence
(HFI) de la mission spatiale Planck. En marge de cet effort de longue haleine (Planck devrait décoller en février
2007), nous avons aussi participé à une expérience qui s'est déroulée dans la haute atmosphère, Archeops.
Archeops a publié fin 2002 ses premiers résultats. Cette expérience fut aussi l'occasion de tester des concepts et
des éléments de Planck HFI : elle est à ce titre doublement importante.
page 10
ARCHEOPS
PLANCK À
D E L ’UNIVERS
ET
D U PREMIER CRI
L ’É C O U T E
L'Instrument Haute Fréquence
de la mission Planck
La mission Planck
Planck est une mission spatiale de l'Agence spatiale européenne
(ESA), dont l'objectif principal est de mesurer les anisotropies de
température et de polarisation du CMB à une précision inégalée,
jusqu’à l de l’ordre de 3000. Elle tire son nom du physicien allemand Max Planck, qui formula en 1900 l’équation du spectre du
corps noir, première pierre de la construction de la mécanique
quantique. L'instrumentation est composée de trois éléments :
Vue d’artiste de la sonde spatiale Planck. On
distingue en haut le miroir primaire (de1,50m de
diamètre) du téléscope entouré d’un écran
opaque. L’ensemble est fixé sur un empilement
d’écrans thermiques derriére lesquels sont placés les panneaux solaires. Pendant les observations la sonde sera mise en route autour de son
axe pour balayer tout le ciel en décrivant des
cercles.
❏ un télescope de 1,5m de diamètre, avec une configuration dite
«hors d'axe» : ses miroirs sont décalés l'un par rapport à l'autre.
Ceci évite des phénomènes de diffraction, gênants aux longueurs
d'onde où on veut détecter le CMB. Deux instruments cohabitent
au foyer du télescope, couvrant des gammes complémentaires de
longueurs d'onde. Ces instruments sont refroidis par un système
cryogénique complexe.
❏ l'Instrument Basse Fréquence (LFI) couvrira les fréquences
comprises entre 20 et 100 GHz. Il est composé de 56 récepteurs de
type radio, répartis dans 4 bandes de fréquences. N'étant refroidi «qu'à» 20K, il entoure l'instrument haute fréquence et partage le premier étage du refroidissement de ce dernier.
❏ l'Instrument Haute Fréquence (HFI), enfin, comportera 52 canaux répartis dans 6 bandes entre 100 et
900 GHz environ. Ses détecteurs sont des bolomètres (voir «bolomètres et dilution», dans ce numéro) ; certains sont spécialement conçus pour mesurer la polarisation. Pour leur assurer une sensibilité optimale, ils
seront refroidis à 100 mK par un cryostat utilisant un mélange 3He/4He.
Grâce à ses nombreux canaux l’ensemble permettra
d’étudier le CMB sur plusieurs fréquences. De plus, les
canaux «extrêmes» donneront accès à l’intensité des émissions d’avant-plan galactique. La précision et la résolution
angulaire des données de Planck devrait permettre de mesurer la plupart des paramètres cosmologiques avec des incertitudes de l'ordre du pour cent (contre 10 pour cent actuellement), faisant entrer la cosmologie dans un nouveau régime où on pourra chercher les «failles» du modèle ou les
signaux de ses extensions.
Planck sera lancée au printemps 2007 par une fusée
Ariane 5, qui emmènera aussi une autre mission scientifique, Herschel. Ces deux missions seront acheminées jusqu'à un point particulier du système solaire, dit «point de
Lagrange n°2» du système Terre-Soleil. Louis de Lagrange
Figure illustrant les positions des points de Lagrange (1736-1813) a mis en évidence qu’en quelques points du
(voir texte) du système terre-soleil. Placé près du point système solaire, dits «points de Lagrange», les attractions
L2, Planck aura toujours Soleil, Terre et Lune dans le de la Terre et du Soleil annulent la force centrifuge et
même hémisphère.
qu’ainsi les corps qui y sont placés sont en équilibre. La stabilisation d'un engin spatial y est donc économique. D'autre part, placé là, Planck aura en permanence dans le
même hémisphère le Soleil, la Terre et la Lune. Ces trois astres sont en effet les principales sources de rayonnements parasites. L'arrière de la sonde est ainsi un bouclier, tapissé de panneaux solaires assurant l'alimen-
page 11
Cosmologie
ARCHEOPS
PLANCK À
D E L ’UNIVERS
ET
D U PREMIER CRI
L ’É C O U T E
tation en énergie des instruments. De l'autre côté, le télescope observe le ciel en suivant une direction à 5
degrés du plan de ce bouclier. En faisant tourner la sonde sur son axe, on observe ainsi des cercles sur le
ciel. Du fait de la rotation de la sonde autour du Soleil, tout le ciel sera couvert, en revenant plusieurs fois
au même endroit. Ce dernier point, en assurant la redondance des mesures, permettra le contrôle d'effet systématiques comme les dérives lentes des détecteurs. La durée prévue de l’expérience est d’au moins un an ;
elle est déterminée par la quantité d’hélium disponible pour la cryogénie.
Les bolomètres de Planck-HFI seront refroidis à 0,1 K par un système innovant dont le Centre de recherches sur les très basses températures (CRTBT) de Grenoble est responsable. Ils seront illuminés à travers une optique spécialement conçue pour fonctionner à
très basse température et sélectionner une gamme de longueurs
d'onde bien définie dans un cône étroit (de 10 minutes d'arc environ
d'ouverture). Cette optique se présente comme un doublet de cornets
mis dos-à-dos suivi par un filtre et par un autre cornet qui est refroidi à la température des bolomètres. L'électronique de lecture des
bolomètres est conçue et réalisée sous la responsabilité du CESR
(Centre d’étude spatiale des rayonnements, CNRS/INSU,
Représentation de la structure méca- Toulouse). L'électronique de contrôle et de commande de l'instrunique de l’instrument haute fréquence de ment (appelée DPU) est placée sous la responsabilité des équipes du
Planck (HFI). Les cornets jaunes guident
la lumière vers les bolomètres qui sont LAL. Etant donnée la position du «point de Lagrange n°2», le débit
insérés dans le système de refroidissement des échanges entre la Terre et la sonde sera limité : il faudra comen grisé.
presser les données avant de les transmettre. C'est l'une des fonctions du processeur de bord, l'élément central de cette électronique.
Sa programmation est aussi du ressort du LAL, tout comme le logiciel de contrôle depuis le sol.
Une première version de l'instrument est actuellement en construction. Il s'agit, dans le jargon des expériences spatiales, du « modèle de qualification ». Il doit permettre de valider les concepts de l'instrument
avant de construire un « modèle de vol ». Ce modèle de qualification sera étalonné chez nos voisins de
l'Institut d'astrophysique spatiale cet automne et cet hiver (2003). Schématiquement, un corps noir artificiel
sera utilisé pour éclairer Planck HFI, dont on étudiera la réponse. L'équipe du LAL participe à cette étape,
en particulier sur l'étude des fuites optiques d'un canal vers les autres avec un dispositif de sources original
développé et réalisé au LAL. Les différents éléments du modèle de qualification doivent être soumis à des
tests pour vérifier qu'ils sont aptes à être envoyés et utilisés dans l'espace. Dans cet objectif, une station d'essais est en cours de construction au bâtiment 208 pour permettre les tests thermiques sous vide des cartes
du DPU.
Un des volets importants de l'activité de préparation de Planck concerne l'analyse des données. En effet,
comme toute expérience spatiale, Planck a vocation à mettre l'ensemble de ses données à la disposition de
la communauté scientifique, au plus tard un an après le début des opérations. Ceci impose à la collaboration d'être capable d'analyser ses données pendant ce (court) délai, ou au minimum de les rendre exploitables. Le traitement des données de Planck n'est pas une mince affaire (voir
dans ce numéro « Analyse des données de l’expérience Planck »). Sur tous ces
aspects, matériel comme logiciel, nous avons pu nous « faire la main » grâce à
l'expérience Archeops.
Décollage de la nacelle
d’Archeops depuis la base
de Kiruna (Suède) lors d’un
des vols.
page 12
Un exemple des minutieuses
opérations nécessaires lors de la
préparation d’un vol.
Vue des détecteurs
de l’expérience Archeops. Chaque
« bouchon » constitue
la voie d’entrée d’un
bolomètre. Certains
sont aveuglés à dessein pour enregistrer
le bruit de fond électronique.
ARCHEOPS
PLANCK À
D E L ’UNIVERS
ET
D U PREMIER CRI
L ’É C O U T E
Archeops
Archeops est une expérience destinée à la mesure des anisotropies du CMB à grande échelle angulaire qui
est emportée par un ballon stratosphérique. C'est le fruit de la collaboration d'une quinzaine d'instituts français, anglais, américains, russes et italiens qui a démarré en 1998.
Sur le plan technique, Archeops présente beaucoup de similarités avec Planck (surtout pour la partie HFI) :
le même type de télescope, une stratégie d'observation et des détecteurs similaires, le même type de cryostat
et enfin une électronique identique de lecture des bolomètres. Ce n'est pas un hasard. Outre l’intérêt de son
programme scientifique propre, Archeops était pour une part vue comme un banc d'essai « grandeur nature »
pour le maximum d'éléments de Planck.
Pour ce qui concerne les détecteurs, Archeops utilisait les mêmes types de bolomètres que Planck, les bolomètres en toile d'araignée, refroidis à 0,1 K comme pour Planck, également par un cryostat à dilution 3He/4He.
L'éclairement des bolomètres était défini par des paires de cornets similaires à celles de Planck. Les bolomètres étaient répartis dans quatre bandes de fréquence, centrées respectivement sur 143, 217, 353 et 545
GHz. Les deux premières sont les bandes utiles pour la mesure du CMB, les deux suivantes étant dominées
respectivement par l'émission galactique et atmosphérique et donc utilisées pour maîtriser les avant-plans et
les effets systématiques.
Les détecteurs étaient placés au foyer d'un télescope hors d'axe, comme Planck. L'ensemble était emporté
par un ballon stratosphérique jusqu'à une altitude de l'ordre de 35 à 40 km. La nacelle portant Archeops tournait, à environ deux tours par minute, autour de l'axe de suspension au ballon. Le ciel était ainsi observé en y
décrivant des cercles ; la dérive du ballon et la rotation terrestre assurant la couverture de l'expérience.
Comme pour Planck, des opérations d'alignement et de calibration au sol ont eu lieu, en particulier des
recherches de fuites optiques avec un dispositif précurseur de celui qui sera prochainement utilisé pour calibrer HFI.
L'expérience a connu plusieurs campagnes : en 1999 une campagne technique entre la Sicile et l'Espagne
puis, en 2000-2001 et 2001-2002, trois vols partis de la base arctique de Kiruna, dans le nord de la Suède.
Dans des conditions pas toujours faciles, comme l'explique un des articles de ce numéro («Le journal de mission à Kiruna»), l'expérience a ainsi été à chaque fois améliorée.
Finalement, après un long suspens météorologique, la campagne 2001-2002 fut la bonne.
Après un an de travail acharné pour arriver
avant la publication des données de WMAP, les
premiers résultats ont été publiés à l'automne
2002. L’expérience Archeops a étudié pour la
première fois le CMB avec des bolomètres à
100mK, et sur une grande fraction du ciel (environ 15 %). La partie totale du ciel observée par
Archeops est en fait deux fois plus grande ; mais
on retire de l'analyse les zones pouvant être
contaminées par l'émission galactique. Les
Illustration des résultats obtenus par l’expérience Archeops. À gauche une
comparaison de la courbe de COBE avec celles d’autres expériences (avant
WMAP) montre qu’Archeops a obtenu la mesure (points rouges) la mieux
échantillonnée au voisinage du premier pic. On peut extraire de ces mesures des
contraintes sur les paramètres cosmologiques. Par exemple à droite Archeops
permet de contraindre la densité totale de l’univers. La valeur trouvée, compatible avec 1.0, semble indiquer que la géométrie de l’univers est euclidienne
(l’univers est plat).
page 13
Cosmologie
ARCHEOPS
PLANCK À
D E L ’UNIVERS
ET
D U PREMIER CRI
L ’É C O U T E
mesures d'Archeops ont constitué, jusqu'à WMAP, la meilleure mesure des paramètres du premier pic et par
là même donnent accès à des contraintes sur les paramètres fondamentaux inaccessibles jusqu'alors.
Conclusion(s)
Archeops a été un double succès, en produisant une (première) mesure compétitive des anisotropies du
CMB mais aussi en validant bon nombre d'éléments de l'instrument HFI de Planck. Ces campagnes ont aussi
permis de développer des ébauches des outils d'analyse des données futures de Planck. L'exploitation des données d'Archeops n'est pourtant pas finie. En effet, les résultats obtenus ne concernent que les deux meilleurs
bolomètres. Une demi douzaine d'autres canaux sont en cours d'analyse ce qui devrait permettre un gain substantiel en précision et de mettre au point les algorithmes d'analyse de Planck HFI. D'autre part, seul un tiers
de la surface du ciel observée par Archeops a été utilisé, là où l'émission galactique est négligeable. Une analyse sur une surface plus étendue est en cours ; elle nécessitera de localiser précisément les avant-plans galactiques et de les soustraire. Pour ce faire, on utilisera les fréquences les plus élevées.
Planck est encore loin d'être achevé et d'ici là, encore bien des avatars comme ceux relatés par ailleurs nous
attendent sûrement. La construction du modèle de qualification devrait s'achever très bientôt. Tout le monde
attend avec impatience (et un peu d'appréhension) les manips d'étalonnage qui pointent à l’horizon…
OLIVIER PERDEREAU
page 14
BOLOMÈTRES
Bolomètres
E T DILUTION
Dans Archeops et Planck-HFI nous utilisons des bolomètres pour mesurer les anisotropies de température
du fond diffus cosmologique. Dans les quelques lignes qui suivent, nous allons tenter d'expliquer le principe
de fonctionnement de tels détecteurs et la manière d’obtenir la température nécessaire de 100mK (0,1 degré
au-dessus du zéro absolu !). Mais commençons par le bolomètre.
Le bolomètre
Un bolomètre est un instrument servant à mesurer de faibles variations de température.
Il est composé d’un absorbeur et d’un thermomètre, fixés sur un substrat. Ce dernier est relié à un bain isotherme via un lien thermique comme le montre la figure 1 à droite. L’absorbeur transforme la puissance incidente en chaleur. Le thermomètre permet de mesurer cet échauffement (on tire parti pour ce faire de la diminution de sa résistance quand la température augmente). De son côté la fuite thermique sert à évacuer la chaleur, due à l’absorption de la puissance incidente, ainsi que la puissance électrique nécessaire à la mesure des
Figure 1: à gauche: photographie des bolomètres en forme de toile d'araignée utilisés dans Archeops et dans Planck-HFI et à droite : principe de
fonctionnement d'un bolomètre. Le thermomètre est placé au centre de la
grille de l'absorbeur.
variations de résistance du thermomètre. Si on mesure la tension aux bornes du bolomètre, quand on envoie
un courant donné, le système est auto-stabilisé : toute élévation notable de la température (due à la puissance thermique incidente) se traduit par une diminution de la résistance du thermomètre, et donc par une diminution de la puissance dissipée par effet Joule dans la résistance (lors de la mesure de température).
Dans le cadre d’Archeops et de Planck-HFI, nous utilisons des bolomètres réalisés à Caltech/JPL
(Californian Institute of Technology, Jet Propulsion Laboratory) (cf. photo à gauche de la figure 1). Leur
absorbeur est constitué d'une grille en forme de toile d'araignée en nitrure de silicium (Si3N4) d'un micron
d’épaisseur, recouverte d'une couche d'or. Au centre de la grille est placé un thermomètre semi-conducteur
NTD en Germanium (25x100x100 µm). Le diamètre de la toile est de l'ordre de 5mm, elle est supportée par
8 ou 16 bras qui assurent la fuite thermique.
Les avantages d'une telle structure sont les suivants :
❏ filtrage en fréquence : si la longueur d'onde du rayonnement incident est inférieure à la dimension moyenne de la maille de la toile (de 100 à 300 µm), ce rayonnement n’interagit pas avec le réseau de la toile qui lui
est ainsi transparente. La micro-grille de l'absorbeur joue donc le rôle d'un filtre passe-bas. On peut donc optimiser les dimensions de la toile en fonction de la longueur d'onde du rayonnement auquel on s'intéresse.
❏ faible sensibilité aux vibrations : du fait de la faible masse du système, la fréquence de résonance mécanique globale est très élevée : le bolomètre est donc peu sensible aux vibrations (du satellite, des frigos...)
page 15
Bolomètres
BOLOMÈTRES
E T DILUTION
❏ faible facteur de remplissage : du fait de sa structure en toile d’araignée, la probabilité d'interaction des
particules de haute énergie (rayons cosmiques...) avec le bolomètre est très faible.
Reste à limiter le bruit de tels détecteurs... Pour ce faire nous utilisons le fait que plus la température du
bolomètre est basse plus le bruit est faible. Dans le cadre de Planck et d'Archeops nous refroidissons donc les
bolomètres à 100mK. En effet, il n’est pas utile de refroidir d’avantage puisqu'à plus basse température le bruit
du bolomètre serait nettement inférieur au bruit de photon intrinsèque au signal recherché. La sensibilité de
tels bolomètres à ces températures est de l'ordre de 10-17 W.Hz-1/2 pour une constante de temps (c’est-à-dire
approximativement le temps nécessaire à l’appareil pour être disponible pour une nouvelle mesure) de l'ordre
de 5 ms.
La cryogénie à dilution
Pompe
Gaz
Gaz
Bouilleur
évaporation de l'3He
3He
Liquide
Chauffage
3He
Boite de mélange
séparation de phase
concentré
dilué
Figure 2: schéma d'une dilution classique.
Comment faire pour descendre si bas en température ? Nous utilisons les propriétés du mélange d’3He et
Au-dessous d’une température de l’ordre de 0.87K (qui est obtenue dans Planck par plusieurs étages
de refroidissement), le mélange se sépare en deux phases :
d’4He.
❏ une phase riche en 3He appelée la phase concentrée,
❏ une phase riche en 4He appelée la phase diluée.
C’est un peu comme un mélange d’eau et d’huile. À très haute température, les deux «phases» se mélangent intimement, mais si on baisse la température jusqu’à la température ambiante, les deux phases se séparent.
La phase concentrée, plus légère, se place au-dessus de la phase diluée. Par ailleurs le passage d’un atome
d ‘3He de la phase concentrée à la phase diluée exige un apport d’énergie, par un effet de chaleur latente, tout
comme le passage d’une molécule d’eau de la phase liquide à la phase vapeur. C’est ce que nous expérimentons tous les jours en transpirant : nous avons une impression de froid car notre corps cède de l’énergie
pour permettre l’évaporation. Si, par un moyen quelconque (pompage par exemple) on extrait de l’3He de la
phase concentrée pour l’injecter dans la phase diluée, le mélange se refroidit.
page 16
BOLOMÈTRES
Bolomètres
E T DILUTION
De cette façon nous arrivons à obtenir les 100 mK nécessaires au fonctionnement des bolomètres
d’Archeops et de Planck. Voyons d’abord comment exploiter ce comportement dans le cas d’une expérience
au sol.
La dilution classique (on dit aussi en cycle fermé) est couramment utilisée en laboratoire pour produire des
températures entre 300 mK et 2 mK. Elle est décrite par la figure 2.
Dans ce système on remarque deux « boîtes » : une « boîte de mélange » et un « bouilleur ». Le refroidissement se fait au niveau de la boîte de mélange. Or il s’avère que la phase diluée ne peut pas contenir plus de
6 % d’3He : pour que le processus ne s'arrête pas dès que la phase diluée est saturée en 3He, il faut entretenir
le phénomène abaissant la concentration d'3He dans le dilué pour toujours appeler de l’3He nouveau. Nous
utilisons pour ce faire le fait que la pression de vapeur de l'3He est beaucoup plus grande que celle de l'4He.
L’3He s’évapore dans le bouilleur et lorsque l’on pompe, on récupère essentiellement de l'3He qu’on peut réinjecter dans la boîte de mélange ; la boucle est bouclée et le système fonctionne en circuit fermé.
La réfrigération par dilution en apesanteur
Malheureusement le bouilleur utilise la pesanteur pour séparer l'3He de l'4He ! Un tel système n'est donc
pas utilisable pour une mission satellite. Il fallait donc concevoir un autre système... Cela a été réalisé par
Alain Benoît et Serge Pujol en 1988. En voici le principe de fonctionnement : tout d'abord nous n'utilisons
plus un système en cycle fermé mais ouvert (c'est-à-dire qu'on ne recyle plus l'3He comme précédemment :
c’est le dégazage dans le vide qui remplace le pompage sur le bouilleur). Ensuite le mélange se fait à l’aide
d’un jeu de trois capillaires : deux capillaires d'injection 3He et 4He et un capillaire de mélange. À la rencontre
des deux premiers capillaires, l'3He se dissout dans l'4He comme le montre la figure 3. Puis comme dans le
cas précédent, le mélange se sépare en deux phases, et des bulles provenant de la phase diluée apparaissent
dans la phase concentrée. La dilution se produit à l'interface (comme pour une dilution «classique») entre la
phase diluée et la phase concentrée au niveau de la bulle. Pour que ces bulles restent à l'état de bulles, il faut
qu'elles soient maintenues par la tension superficielle dans un capillaire suffisamment petit (environ 300 µm
de diamètre).
3He
concentré
4He
mélange
dilué
Figure 3: schéma de principe de la dilution en cycle ouvert (la boite de mélange). L’absorption de chaleur se fait à la séparation de phase entre la bulle de concentré et le milieu dilué.
Nous avons, pour la première fois, installé et fait fonctionner à bord d’un ballon un cryostat à dilution grâce
à l’expérience Archeops. Tout a fonctionné parfaitement : le prochain vol d’un tel cryostat sera effectué sur
Planck !
SOPHIE HENROT-VERSILLÉ
Pour plus d'information sur le sujet voir la thèse de K. Madet : «Mesure du rayonnement cosmologique : préparation et étalonnage des instruments Archeops et Planck» Thèse de l'Université Joseph Fourier, Grenoble 1, soutenue le 26 septembre 2002.
page 17
Kiruna
JO U R N A L
A U P A Y S D U PÈRE
NO Ë L
DE
MISSION
À
E T D E S H Ô T E L S D E G L A C E,
D E S R E N N E S E T D E S E L F E S.
..
EN
SU È D E .
.
.
Tome I : la Préparation
L'aventure commence à Roissy, direction Oslo. A travers les hublots un magnifique coucher de soleil… on
ne réalise pas vraiment mais c'est le dernier avant lonnnnnnnnngtemps ! A Oslo, il y a du monde déjà devant
la porte d'embarquement ; on ne les connaît pas encore... et pourtant : c'est avec eux qu'on va partager notre
vie dans les semaines qui viennent ; ici le responsable des lancements ballon, là c'est monsieur Météo ; l'équipe du CNES est là, au grand complet... On apprendra vite à les connaître une fois sur la base !
On remonte donc dans l'avion. Le dépaysement commence à se faire sentir, la neige est présente sur l'aéroport. Tout
est blanc, blanc et noir, car déjà c'est la nuit !... Une courte
escale à Umea, le temps de recouvrir la carlingue d'antigel
puis c'est la dernière ligne droite… une heure après on atterrit à Kiruna. Ca y est, on y est...enfin presque ! Encore une
heure de voiture, la nuit sur la glace, puis c'est le dernier
panneau. Une longue route étroite entre les sapins... et au
bout : une barrière, celle de la base du CNES, et un gardien :
on s'enregistre, on passe la barrière...et voilà, le terme du
voyage pour nous, le début de l'aventure pour Archeops...
C'est notre première nuit sur la base et très vite notre premier réveil ; l'équipe est divisée en deux : les filles sont dans
le bâtiment principal (on est trois). La vie en groupe s'organise vite, le p'tit déj' se déroule dans le « bâtiment des garçons »: au menu, outre les traditionnels petits pains suédoisconfiture, certains optent pour les roll-mops, ces harengs
Début de l’envol
marinés locaux, ce qui en fait pâlir d'autres... L'ambiance est
détendue, l'impatience d'aller retrouver la nacelle commence néanmoins à se faire sentir... et tout s'accélère,
en deux temps trois mouvements la vaisselle est faite, les bonnets sur les oreilles, les anoraks sur le dos, les
mains bien à l'abri dans les gants, on s'apprête à rejoindre le « hangar ». Une bonne bouffée d'air froid (entre
-10 et -20 degrés la plupart du temps) entre les sapins : partout autour de nous tout est blanc... Et ça y est ! On
ouvre le hangar, la nacelle est là, comme si elle nous attendait. Le cryostat est posé à côté, vide : les bolos sont
dans mon sac (arrivés des Etats-Unis la veille du départ). Le travail ne manque pas, on se met à l'œuvre...
Certains s'arment de tournevis, d'autres s'affairent autour des ordinateurs, d'autres encore vont à la rencontre
de monsieur Météo. Chacun a son rôle à jouer... il faut être efficace : commencer par tout remonter dans le
cryostat, puis le mettre en froid, faire la calibration absolue des bolos. Ce n'est qu'ensuite qu'on mettra le cryostat sur la nacelle, qu'on sortira, devant, sur le champ de tir, et qu'on mesurera la réponse spatiale des détecteurs : ensuite on sera prêt à voler ! Enfin, si le temps le permet...
Le déjeuner se déroule au resto de la base : le jeudi c'est pancakes et soupe de pois cassés ! On s'en rappellera longtemps ! De même qu'on se rappellera de cette impression bizarre qui nous enveloppa tous au moment
du dessert… proche de celle qui nous enveloppe lors d'une éclipse de soleil, quand la nuit noire est tombée...
pour le reste de la journée. Eh oui, il est à peine 13h00 et déjà c'est la nuit. On retourne au hangar.
Les heures tournent... le plan focal est monté, aligné, le cryostat fermé... c'est l'heure de la première mise en
froid... C'est crucial il faut que tout marche du premier coup... pas de fuite surtout... Il faut surveiller la descente en froid presque toute la nuit... tout s'enclenche correctement... on peut aller se reposer quelques
heures... Au réveil tout est parfait : les 100mK sont atteints... on n'a plus qu'à calibrer !
Puis le téléphone sonne. Les Russes ne veulent plus que l'on dépasse l'Oural. Nous qui voulions un vol long,
que faire ?? Les négociations sont en cours du côté du CNES nous dit-on. Il faut attendre pour être sûrs !
page 18
JO U R N A L
D E MISSION À
KIRUNA
Kiruna
De plus ils veulent faire un test de télémétrie sinon ils n'acceptent pas qu'Archeops vole au-dessus de la
Russie (ils n'avaient déjà accepté que sous condition qu'ils soient capables d'arrêter le vol à tout moment)...
Celà fait trois jours que nous sommes sur le site et c'est l'heure de notre premier point météo ce matin...la
question qui tourne dans toutes les têtes... Quand va-t-on pouvoir voler ?? Nous ne sommes pas les seuls sur
la base, d'autres expériences doivent être lancées cet hiver... Nous sommes a priori prioritaires…mais il faut
quand même voir avec les autres qui ont moins de contraintes que nous quant au lancement... suspens... monsieur Météo sort ses transparents... l'état des vents dans la stratosphère, la pression et la température mesurées
par leurs ballons sondes, et enfin, la trajectoire de vol simulée... Ce jour là si nous avions lancé Archeops nous
aurions pu la retrouver dans les mers gelées ! Mais les vents sont favorables... on devrait pouvoir voler dans
deux semaines...
On se remet au travail... deux semaines c'est en fait très peu pour tout recalibrer avec des bolomètres qu'on
ne connaît pas et que l'on vient juste de recevoir. Parallèlement il faut préparer le kit de récupération de la
nacelle pour les Russes... avec le mode d'emploi ! En effet une fois que la nacelle d'Archeops aura atterri tant
bien que mal dans les contrées russes il faudra aller la récupérer, et un certain nombre de précautions s'imposent !... Le principe de la récup est le suivant : du point d'atterissage jusqu'à la route la plus proche : transport
par hélicoptère, puis camion jusqu'à la base de Kiruna. On prépare donc une bâche pour la recouvrir afin d'éviter qu'il n'y ait trop de prises au vent sous l'hélicoptère. Il faudra aussi que les Russes récupèrent l'enregistreur
de bord contenant les données et nous l'envoient, donc leur fournir les clés qui vont bien... et une bonne bouteille de rouge pour finir le sac !
De toutes façons avant de récupérer la manip, il faut voler. Et pour voler, la condition sine qua non c'est que
les Russes aient fait un test de leur télémétrie... Mais ils prennent du retard... « Les aléas du direct »... Et un
beau matin alors qu'on commençait à sortir la nacelle pour viser la petite montagne en face et faire la calibration spatiale, on voit arriver une carriole : on ne trouve pas d'autres mots pour décrire ce que l'on voit ! Et
l'on nous annonce fièrement que c'est le camion de récupération... un camion qu'ils disaient (!)... Quand on
pense à la fragilité de l'intérieur du cryostat on ne se demande plus après, pourquoi on a trouvé tous les pieds
de soutien du plan focal complètement cassés quand on a ré-ouvert après le premier vol...
Les points météo s'enchaînent mais ne sont pas très optimistes.
Cela fait plus de deux semaines que nous sommes là, nuit et jour, à se relayer auprès d'Archeops... les
heures de lumière du matin se font de moins en moins nombreuses... la nuit tombe maintenant à 11h00 le
matin... ce n'est pas pour autant que le soleil se lève plus tôt... et quand on dit que le soleil se lève ce n'est pas
vraiment le terme adéquat... il est toujours en-dessous de l'horizon.....
Ce manque de lumière commence à se faire sentir. Le moral s'en ressent depuis quelques jours encore de
cela. Ajoutez à ça les mauvaises nouvelles de la météo, et la fatigue accumulée : on commence parfois à suffoquer... un besoin irrépressible de lumière...
Camion de télémétrie
page 19
Kiruna
JO U R N A L
D E MISSION À
KIRUNA
Mais certains soirs, elles sont là. En sortant du hangar, revêtus comme d'habitude de nos habits les plus
chauds, les cils gelés et les lèvres gercées, on se dirige dans la nuit vers d'autres bâtiments lorsque l'un de nous
lève les yeux au ciel... Quel spectacle !!!!! Les Aurores boréales nous ont donné rendez-vous : elles se promènent dans le ciel, des dégradés de vert qui nous illuminent tous... une récompense des cieux !
Malgré tout la vie continue à s'organiser sur la base. Au moins nous restons solidaires dans l'aventure !
Pendant les quelques heures de « répit » une partie de l'équipe sort en ville faire les courses. Le soir nous mangeons ce que nous avons cuisiné, la seule façon de ne pas dîner à 18h00. Parmi les plus mémorables figurent
la soirée crêpes et la soirée pâtes-des-Italiens !
Puis de nouveaux bolos arrivent, et là la question se pose : est-ce que l'on ré-ouvre tout pour les installer ??
A-t-on le temps avant que les vents ne deviennent favorables et avant que les vacances de Noël n'arrivent
(pendant lesquelles la base est fermée) ?? Encore une fois monsieur Météo est appelé à la rescousse et tout
semble aller dans le sens où nous ne pourrons pas voler tout de suite... a priori on peut ré-ouvrir. Et c'est reparti pour un tour...tout ce qui a été fait depuis que nous sommes arrivés est à refaire...On reprend tout à zéro et
pour se soutenir on se répète la maxime du jour : « faire et défaire c'est toujours travailler ».
L'équipe change un peu, certains arrivent d'autres repartent…puis reviennent...on a finalement ré-ouvert...on ne pourra pas voler avant le début de
l'année (sous deux semaines), mais on prépare tout pour être prêt à ce
moment là et pouvoir éventuellement voler dès les premiers jours...Donc
c'est reparti pour un tour : la calibration absolue, la calibration de la polarisation...et on sort la nacelle pour la calibration spatiale...MAIS pourquoi
faut-il toujours que le jour où on sort la nacelle soit le plus froid de la semaine ?? Faire cette calibration ça veut dire laisser les portes du hangar
ouvertes toute la journée car le système d'alimentation en hélium, quand la
nacelle est au sol, est dans le hangar, de même que toutes les liaisons pour
le logiciel de contrôle de l'instrument....Ce jour-là il faisait -20°C dehors !
Pour faire l'acquisition des données, on tapait sur les claviers des Mac avec
des gants en soie pour ne pas être gelé... enfin tant qu'on n'avait pas besoin
des touch-pads. Voilà comment les jours passent à Kiruna...parfois pour se
détendre on profite un peu du sauna de la base...ou encore on fait une partie
de billard avec les gens du CNES.
Puis les vacances de Noël arrivent : on n'a toujours pas volé, mais chacun
rentre chez soi...on se dit à l'année prochaine ! On va retrouver un peu le
soleil !
Et le ballon s’envole !
Tome II : le vol
Après une bonne dose de famille et de soleil nous revoilà
réunis à nouveau sur la base. On nous annonce un vol possible
la semaine suivante... On est regonflé à bloc... On se remet à la
tâche.
Le jour J arrive : lever 4h30 pour être prêt à temps. Le décollage est prévu pour 13h30. Point météo prévu à 6h30 : à ce
moment-là on saura définitivement si on vole ! Et puis ça y
est : on a le feu vert ! La course contre la montre commence...
On vérifie tout, le cryostat était à 98mK dans la nuit ! Tout
est parfait ! On a prévu une check-list : chacun a une tâche bien
définie à accomplir : il faut remplir une dernière fois le cryostat
d'hélium, le plus tard possible, puis débrancher tous les tuyaux
utiles à la cryogénie, faire les dernières vérification du soft de
contrôle de l'instrument avec l'antenne satellite, faire les tests
« Scotchage » de la nacelle
page 20
JO U R N A L
D E MISSION À
KIRUNA
Kiruna
de télémétrie avec les gens du CNES pour le cas où ce soft ne contrôlerait plus l'instrument et qu'il faille passer les commandes par un autre circuit... Le stress bat son plein... Le temps passe vite, très vite...
Pendant ce temps le CNES remplit les ballons secondaires qu'on va accrocher à la nacelle pour aider au
décollage.
Il fait très froid ce jour là...comme à chaque fois qu'on doit maniper dehors d'ailleurs. Tout a l'air prêt du
coté de la nacelle et du logiciel de calibration. Mais avant de l'emporter sur le pas de tir, il faut encore finir de
recouvrir le cryostat avec une plaque de polystyrène que l'on colle au scotch alu, pas si facile avec ces températures ! Le scotch alu ne se détache qu'avec les doigts, pas question de garder les gants : on met un bout
de scotch, on rentre dans le hangar se réchauffer les mains, on retourne mettre les bouts de scotch, on re-rentre
se réchauffer...tout ça en devant monter sur la nacelle très précautionneusement pour ne pas faire de vibration
et donc réchauffer le cryostat, et sans toucher à la structure de la nacelle à main nue, pour ne pas rester collé
Tout devient plus compliqué que d'habitude...
Et puis tout est prêt. On installe les ballons auxiliaires sur la nacelle...puis on l'emmène sur le pas de tir. On
reste tous, une main sur la nacelle, pour faire contrepoids aux ballons auxiliaires qui ont tendance à l'emporter au dessus de nos têtes. Pendant ce temps le CNES finit de gonfler le ballon principal : celui qui va emporter Archeops pour son long voyage au travers de l'histoire du temps...
Puis c'est l'heure H. Deux d'entre-nous courent à la cabane de télémétrie : dès que le ballon sera assez haut
il faudra lâcher du lest pour l'aider à monter encore plus vite. On correspond avec le CNES par talkie-walkie.
De loin on voit le ballon principal se soulever, puis les deux auxiliaires. L'équipe qui soutenait la nacelle
jusque-là ouvre la main.... Archeops est partie, son voyage a enfin commencé !
De notre côté rien n'est encore fini. Le lest doit être lâché... chose faite... puis on retourne devant nos écrans
de contrôle...comment ça se passe là-haut ??? La température semble bonne, les débits sont OK. On n'a pas
encore atteint les 30 km d'altitude, donc la fenêtre par laquelle les photons de l'univers primordial illumineront les bolomètres ne s'est pas encore ouverte. On suit la trajectoire grâce au GPS à bord, elle se dirige
comme prévu vers l'est...elle va bientôt atteindre la frontière finlandaise...On commence à souffler un peu.
Mais rien n'est encore fini...d'un coup, d'un seul, un point sur les débits semble bizarre...ils ne réagissent pas
normalement...les cœurs battent de plus en plus forts dans les poitrines...le stress monte...cela va-t-il s'arrêter ?? mais que se passe-t-il ?? non, non, ça ne marche plus...la température du plan focal monte à 100mK,
puis 130 : tout s'accélère...en quelques minutes
à peine on est à 700mK. Il faut abréger le vol....
ce ne sera pas cette fois là la bonne ! On en profite quand même pour prendre quelques données pour le senseur stellaire...
Mais déjà on s'organise pour aller récupérer
la nacelle le plus vite possible... On la récupèrera le lendemain : heureusement elle a atterri à
quelques mètres d'une forêt de sapins... dans un
champ de neige et n'est donc pas trop abîmée !
Et on se remet à la tâche, dans la joie et la bonne
humeur ! Il faut ré-ouvrir le cryostat, heureusement rien ne semble avoir été touché : reste à
faire des tests de fuite. Les débitmètres respon-
On reste tous, une main sur la nacelle, pour faire contrepoids.
page 21
Kiruna
JO U R N A L
D E MISSION À
KIRUNA
sables du problème sont démontés et en test... Il
faut aussi réparer la nacelle, faire de la soudure à
l'arc car elle n'a pas été très épargnée par la chute :
elle s'est couchée sur le côté et les crash-pads qui
sont censés la protéger n'ont guère été utiles (étant
installés au-dessous)...
Chaîne de vol
Puis c'est la longue attente d'un autre vol possible... les créneaux météo sont rares... les jours
passent...on refait des tests de calibration pour être
de plus en plus précis sur chacun des paramètres
qu'on mesure, on peaufine les programmes d'analyse qui vont tourner sur les données envoyées par
la télémétrie durant les quatre premières heures du
vol... L'ambiance du mois de janvier est moins
déprimante qu'en décembre : les jours rallongent,
la nuit est de moins en moins pesante. On revit à
revoir la lumière !
Puis revient le jour J : les vents sont à nouveau
favorables, le cryostat est prêt, les débitmètres devraient fonctionner normalement... Le compte à rebours est
lancé... La nacelle est à nouveau préparée… les ballons sont gonflés, et toujours ce pincement au cœur quand
Archeops s'éloigne de la Terre et va rejoindre un autre univers... Puis toujours la ruée vers les écrans de contrôle : tout semble fonctionner correctement, les débitmètres n'ont pas de comportements anormaux... la température est toujours en dessous de 100mK, les 30 km d'altitude sont atteints, la fenêtre s'ouvre sur le passé....les
données commencent à s'accumuler...
Champagne !!!
SOPHIE HENROT-VERSILLÉ
Chaîne de vol
page 22
Préparation de la nacelle
A NALYSE
Analyse
D E S D O N N É E S D E L ’EXPÉ-
Au-delà de la construction et de la mise en oeuvre de l’instrument, le traitement des données de
Planck constitue un enjeu majeur. D’une part en raison d’un calendrier serré et d’autre part en raison
de certaines spécificités du domaine spatial. Un exemple de telles spécificités est l’engagement à rendre
publiques ces données un an après la fin de la mission. Un autre, le temps réduit de possibilité de communication avec le satellite. La rigueur est de mise...
Pendant au moins 18 mois, les deux instruments embarqués à bord du satellite Planck collecteront en permanence des données sur le ciel. L’analyse de ces données impliquera à la fois de l’on-line et de l’off-line.
Elle nécessitera de comprendre finement les détecteurs, de construire une architecture logicielle efficace et
d’optimiser les algorithmes du traitement. Elle a pour but, dans un premier temps, de dresser les cartes de
brillance de tout le ciel dans les différentes bandes de fréquence observées, en corrigeant au mieux tous les
effets systématiques instrumentaux. Il faudra ensuite séparer les contributions des diverses sources astrophysiques et produire, pour chacune d’elles, une carte (carte d’anisotropie de la température du CMB, par
exemple), ou un catalogue (catalogue de sources « ponctuelles », par exemple), à partir desquels seront ensuite menées les analyses de physique proprement dites.
Les équipes qui construisent les instruments LFI et HFI de Planck se sont engagées vis-à-vis de l’Agence
spatiale européenne à produire ces cartes et à les rendre publiques un an après la fin nominale de la mission.
Cette date marque la fin de ce qui est appelé la « période propriétaire ». Après cette date, tous les laboratoires
extérieurs au consortium Planck auront la possibilité d’exploiter à leur tour les données pour en tirer des résultats scientifiques. Cette pratique, systématique dans le domaine spatial, permet de maximiser les retombées
scientifiques de projets très coûteux, dont les données peuvent servir à une large communauté. C’est le cas par
exemple des images du télescope Hubble, et aussi celui des données des précédents satellites COBE et
WMAP, consacrés comme Planck à l’étude du rayonnement fossile.
Bien sûr, l’intérêt des équipes travaillant sur Planck est de se préparer aussi à extraire le maximum de publications des cartes avant la fin de la période propriétaire. Et Planck a l’ambition d’apporter une avancée décisive à de nombreux domaines en astrophysique et en cosmologie :
❏ connaissance de l’univers primordial : contraintes très précises sur l’inflation et les paramètres cosmologiques (mesure de ces derniers au niveau du pour-cent),
❏ compréhension de la formation des étoiles (recherche d’objets froids),
❏ étude des propriétés des galaxies et des amas de galaxies, fondée sur un catalogue de plusieurs milliers
d’objets très lointains,
❏ connaissance de notre galaxie (matière interstellaire, champs magnétiques).
Le calendrier est très serré, car ce programme est ambitieux et délicat, et le succès de cette entreprise dépendra du soin que les équipes mettront à sa préparation. C’est pourquoi notre laboratoire, non content de participer à la construction de l’instrument et à la mise en oeuvre de son étalonnage, s’implique aussi fortement
dans la préparation de l’analyse des données.
La figure 1 montre le schéma général du traitement des données. Toute la partie du traitement lié au satellite est gérée par le Centre des opérations de l’Agence spatiale européenne (ESOC : European Space
Operation Center), à Darmstadt. Sur le campus d’Orsay, une équipe répondant au doux nom d’IOT
(Instrument Operation Team) suivra la prise des données en liaison avec l’ESOC.
Il y a aussi deux autres ensembles importants à bord qui communiquent avec le sol. Il s’agit du système de
contrôle de la cryogénie à 20K, placé sous la responsabilité du LPSC de Grenoble, et du dispositif de reconstruction de la direction d’observation (Attitude and Orbit Control System), sous la maîtrise d’œuvre de
page 23
A nalyse
A NALYSE DES DONNÉES
RIENCE PL A N C K
D E L ’EXPÉ-
l’ESOC. Leurs données font
bien sûr partie de l’ensemble à
traiter. En particulier, l’analyse
des données de l’AOCS revient
aux équipes de l’ESOC qui
nous donneront la direction du
pointage de l’axe optique du
télescope en fonction du temps.
Le traitement des données a
été
découpé
en
quatre
«niveaux», impliquant chacun
un centre de calcul spécifique :
❏ La récupération, la décompression, la mise en forme et le
stockage de ces données sont la
tâche du niveau 1, placé pour
HFI sous la responsabilité du
PCC au Collège de France.
Figure 1 : principe du traitement des données de Planck.
❏ Le niveau 2 représente le
plus gros morceau. Il est coordonné par l’IAP (Institut d’astrophysique de Paris). C’est à ce
niveau que les cartes de brillance seront produites à partir de la
séquence temporelle des données. Il implique une collaboration internationale dans laquelle
le LAL joue un rôle important,
et nous le détaillerons plus loin.
❏ C’est au niveau 3 que
seront séparés les différents processus physiques contribuant aux cartes de brillance. On y fabriquera, en particulier, les cartes d’anisotropies de température et de polarisation nettoyées au mieux des diverses contaminations d’origine astrophysique. C’est aussi sous la houlette du niveau 3 que seront calculés les fameux
spectres de puissance du CMB. Le pôle d’astrophysique de Cambridge, en Grande-Bretagne, coordonne cet
effort international.
❏ Il y a enfin un niveau 4 pour gérer la liasse d’informations mise à la disposition de la communauté à la
fin de la période propriétaire. Ce niveau est sous la responsabilité du Max-Planck-Institut für Astrophysik de
Munich.
La fenêtre de visibilité de Planck depuis la Terre, partagée avec son voisin de cabine Herschel (un autre
satellite d’observation du ciel dans l’infrarouge lointain, lancé lui aussi au point de Lagrange L2 par la même
Ariane 5), durera six heures chaque jour, dont la moitié sera consacrée à la récupération des données de
Planck. Les informations accumulées à bord du satellite pendant la journée précédente seront ainsi quotidiennement reçues sur une antenne à Perth, en Australie. De là, elles seront transférées au centre des opérations, à Darmstadt. En même temps, en sens inverse, le programme des commandes au satellite pour la suite
des opérations sera transmis à bord. Le reste du temps, le satellite ne sera pas en contact avec la Terre.
HFI, comme la plupart des expériences classiques, produit deux types de données :
❑ Les données à faible débit (4000 bits/s), dites HSK (pour Housekeeping), contiennent le suivi lent des
variables contextuelles (paramètres d’environnement physique, statuts des divers dispositifs et des tâches logi-
page 24
A NALYSE DES DONNÉES
RIENCE PL A N C K
D E L ’EXPÉ-
Analyse
cielles, et jeu réduit de paramètres permettant de diagnostiquer les problèmes instrumentaux), et l’historique
des dialogues à bord. Elles sont transférées au sol prioritairement, au début de la fenêtre de communication.
❑ Les données scientifiques des 72 détecteurs, qui doivent être comprimées pour entrer dans la bande passante de communication, représentent un flux moyen de l’ordre de 40000 bits/s.
Une difficulté, par rapport aux expériences classiques au sol, est qu’il faut arriver à détecter un éventuel
défaut sur l’instrument, diagnostiquer son origine et préparer l’envoi d’une commande corrective adaptée
avant la fin de la fenêtre de communication, et ce en analysant uniquement les données HSK. Si on échoue,
on continue à perdre les données des voies défectueuses pendant un jour supplémentaire. L’usage dans le
domaine spatial (justifié par des expériences malheureuses) pousse à concevoir les logiciels embarqués les
plus simples possible et à laisser le moins d’autonomie possible au satellite dans les prises de décision. En
contrepartie, la réactivité de l’équipe instrumentale au sol doit être élevée. Si on ajoute que la stratégie de
balayage du ciel actuellement prévue pour Planck revient rarement sur les mêmes zones, et que donc l’obtention d’une couverture homogène du ciel nécessitera une très bonne efficacité du système, on mesure la
pression qui s’exercera sur les équipes qui surveilleront le bon fonctionnement des détecteurs.
Cette surveillance sera assurée par le « RTA» (pour Real Time Assessment), développé sous la responsabilité du LAL. Une implémentation du programme de RTA tournera automatiquement à Darmstadt, où il vérifiera la qualité des données et enverra des alarmes en cas de problème. En parallèle, à Orsay, en léger différé, l’équipe locale de surveillance des opérations utilisera le même logiciel de RTA pour suivre « en ligne »
la qualité de la prise des données, et préparer, si besoin est, les commandes correctives à l’instrument. Ce suivi
quotidien sera la première étape du traitement des données nécessitant une intervention humaine. Une répétition générale aura lieu pendant les périodes d’étalonnage de HFI qui auront lieu à partir du printemps 2004 à
l’IAS (notre voisin, l’Institut d’Astrophysique Spatiale).
La figure 2 montre le schéma actuel de l’organisation du traitement de niveau 2 de HFI (L2, pour Level 2).
Figure 2 : architecture du traitement de niveau 2
page 25
A nalyse
A NALYSE DES
RIENCE PL A N C K
DONNÉES
DE
L ’EXPÉ-
Il est découpé en trois grandes zones, et comporte un certain nombre de cases reliées par des flèches.
Quelques explications s’imposent :
❏ C’est une vision itérative du traitement des données, et il faudra faire «un certain nombre» de tours dans
la boucle avant convergence,
❏ la partie gauche concerne la connaissance de l’instrument. Elle s’incarne dans un modèle nourri par l’ensemble des mesures antérieures au vol et par la connaissance acquise au cours des itérations précédentes,
❏ la partie droite concerne les échanges de données avec l’extérieur : les lots de données venant d’autres
expériences antérieures ou contemporaines (en particulier celles de l’instrument SPIRE embarqué sur
Herschel), et les produits de Planck,
❏ la partie centrale concerne le cœur du traitement. La construction des cartes nécessite une connaissance
précise de tous les paramètres instrumentaux (géométriques, optiques, électriques, thermiques…). Certains,
comme la forme des bandes passantes ou les propriétés des détecteurs mesurant la polarisation, ne pourront
être déterminés qu’au sol pendant les phases d’étalonnage, mais la plupart des caractéristiques instrumentales
seront affinées et suivies pendant tout le vol, en tirant profit du caractère auto-calibrant des données. Par
exemple les propriétés optiques pourront être remesurées chaque fois qu’une planète brillante passera dans le
champ de vision des détecteurs. Les propriétés électriques quant à elles pourront être suivies automatiquement
grâce aux particules du rayonnement cosmique qui déposent leur énergie instantanément dans les bolomètres
et donnent ainsi accès à la réponse impulsionnelle de la chaîne de détection.
La construction des logiciels de niveau 2 est un vaste chantier qui bénéficie de l’expérience acquise sur
Archeops. Un premier brouillon sera « livré » fin 2003. Notre équipe y aura apporté entre autres contributions
l’outil de gestion de code CMT développé au laboratoire dans le cadre de l’expérience Virgo, et des logiciels
de soustraction des bruits à basse fréquence. Les prochaines années s’annoncent chargées avec des tests poussés de divers effets systématiques, et l’implémentation de logiciels devant résoudre des problèmes encore peu
explorés jusqu’ici, comme par exemple la correction des aberrations de l’optique. De quoi s’occuper activement en attendant les «vraies données» !
FRANÇOIS COUCHOT
page 26
Entretien
E NTRETIEN : L A PARTICIPATION T E C HNIQUE D U LAL À L ’EXPÉRIENCE PL A N C K
Trois membres du comité de rédaction ont rencontré trois participants de l’expérience Planck, engagés
dans des tâches de mécanique, d’électronique et d’informatique. La conversation fut d’emblée très animée, et les réponses aux questions des interviewers fusaient en un flot continu… C’est ce flot que nous
avons tenté de structurer ci-dessous sous une forme qui, sans reprendre les termes exacts de la conversation, oublie les noms des intervenants traduisant par là l’enthousiasme indifférencié des prises de parole
qui se chevauchaient sans vergogne.
En quoi consiste la participation technique du LAL à l’expérience Planck ?
Le satellite Planck emportera deux instruments : HFI (haute fréquence) et LFI (basse fréquence). L’équipe
du LAL participe à l’instrument HFI. Au cœur de HFI se trouve un ensemble de capteurs, en l’espèce des bolomètres fonctionnant à une température de 100 mK, dont le fonctionnement est assuré par un complexe technique impliquant de l’optique, de la cryogénie et de l’électronique de proximité.
La responsabilité technique du LAL concerne essentiellement la réalisation du système informatique de
bord qui assure l’acquisition des données scientifiques ainsi que la gestion de l’instrument à bord du satellite
(acquisition des données d’environnement, et pilotage de HFI).
Cette responsabilité comprend : les cartes électroniques (service Électronique), les boîtiers qui contiennent
les cartes d’électronique (SECAP), les logiciels (développés conjointement par le service Électronique et le
service Informatique), ainsi qu’une contribution à la réalisation de tests de l’instrument au sol (SECAP et service Électronique).
Vue du calculateur de bord
La carte électronique PDP intègre un convertisseur continu-continu qui fournit les tensions secondaires à
la carte DP. La carte DP, ou carte processeur, permet de commander toutes les autres cartes de l’expérience.
Elle communique aussi avec le calculateur central du satellite. Elle collecte et contrôle les signaux d’environnement de l’instrument tels que la température, les tensions, les pressions. Elle récupère les résultats des
mesures de physique afin de les transmettre à la Terre.
Ces cartes PDP et DP seront placées dans un boîtier spécial nommé DPU qui a pour rôle de les maintenir
mécaniquement et d’évacuer le plus possible d’énergie dissipée par les composants électroniques. Ce boîtier
est en aluminium traité en surface pour le rendre apte à supporter les contraintes électriques et thermiques.
Les parois ont une épaisseur de 3mm réalisant ainsi un blindage contre les particules et les ions lourds susceptibles de perturber les circuits. Le DPU dialogue avec le satellite d’une part, et d’autre part avec l’électronique de lecture ainsi qu’avec des électroniques de commande de la cryogénie.
Les logiciels de bord concernent le contrôle de l’instrument, le contrôle de l’environnement…
page 27
Entretien
E NTRETIEN : L A PARTICIPATION T E C HNIQUE D U LAL À L ’EXPÉRIENCE PL A N C K
Qu’est-ce que le contrôle de l’instrument ?
Le contrôle du satellite concerne le pilotage de l’instrument en fonction des commandes envoyées depuis le
sol. Il se fera depuis Darmstadt, en Allemagne. L’Agence spatiale européenne (ESA), est maître d’œuvre dans
ce projet. L’ESA s’occupe de la retransmission des données scientifiques vers le « data processing center »
puis vers les physiciens. Elle a développé un logiciel qui pilote les satellites depuis le sol et qui peut aussi
contrôler un instrument. On utilise ce logiciel pour tester notre instrument. Il nous faut donc apprendre à nous
en servir. Il permet de recevoir des données de télémétrie et d’envoyer des ordres. Nous avons aussi dû développer des simulateurs des autres modules électroniques avec lesquels le DPU est interfacé.
En quoi consiste alors le contrôle de l’environnement ?
L’ordinateur embarqué (DPU) collecte en permanence les données environnementales qui sont : températures, tensions, pressions, … et il peut déclencher des alarmes si ces données sortent des limites définies. Il y
a environ 1000 paramètres différents à acquérir pour s’assurer que l’instrument est en bonne santé mais on ne
doit mettre des contraintes que sur les grandeurs les plus importantes. Les valeurs de référence de ces grandeurs sont stockées dans une base de données. Actuellement on teste les deux sens de cette communication :
réception des données (télémétrie) et envoi des commandes (télécommande).
Des tests au sol ont été évoqués…
Le laboratoire est aussi en charge de la mesure de la diaphonie optique entre les bolomètres, dans le cadre
de leur étalonnage au sol.
Pour ce faire, on a développé des sources de lumière qu’on installe devant ceux-ci pendant la période de
test. Il faut un éclairage de faible puissance similaire à ce qu’on cherche à mesurer : on utilise de petites fibres
de carbone de 5 microns de diamètre et 1 mm de long montées dans les
cornets réflecteurs qui sont placés devant l’optique des bolomètres
pendant les tests au sol. Ces fibres de carbone génèrent une puissance
de quelques picowatts avec un temps de montée et de descente de la
température très rapide (une dizaine de millisecondes), de l’ordre de
grandeur de la constante de temps des bolomètres eux-mêmes, ce qui
permet de simuler au sol le passage d’une source ponctuelle devant les
détecteurs. Le choix du carbone tient au fait qu’il faut un matériau qui
a une bonne résistivité à basse température (2K) tout en ayant une
capacité calorifique faible (faible inertie thermique).
Quel genre de contraintes techniques impose une mission spatiale telle que Planck ?
Les modalités d’une mission spatiale imposent beaucoup de
contraintes par comparaison avec une expérience au sol. On choisit
d’installer ou non certains éléments à bord en fonction de différents
critères ; en particulier la durée de la visibilité depuis la Terre. Planck
pourra échanger des informations avec le sol seulement pendant trois
heures sur vingt-quatre car le temps de communication avec le satelliVue éclatée du calculateur de bord
te par des antennes au sol coûte très cher. En dehors de cette période,
on ne peut évidemment pas intervenir. Il faut se protéger de certaines
pannes, identifier les situations critiques et développer des procédures pour que le système puisse porter remède aux pannes de manière autonome. Le partage entre les choses réalisées au sol ou sur le satellite doit être
mûrement réfléchi en fonction de cette contrainte.
page 28
Entretien
E NTRETIEN : L A PARTICIPATION T E C HNIQUE D U LAL À L ’EXPÉRIENCE PL A N C K
Quelles sont les méthodes pour se protéger contre les pannes ?
Bien souvent, il y a un module nominal et un autre redondant. Les modules de gestion avec processeur sont
dupliqués. En revanche l’électronique de lecture ne l’est pas.
Les instruments HFI et LFI sont sur le même satellite. N’y a-t-il pas des risques de
perturbation mutuelle ?
Les tests de qualification, codifiés, au niveau des sous-systèmes permettent de s’assurer que l’ensemble des
boîtiers électroniques ne perturbe pas leur environnement au dessus d’un seuil raisonnable et ne sont pas perturbés par ce même environnement. Un ensemble de tests d’interface permet de vérifier au niveau de l’instrument (à l’IAS, Institut d’astrophysique spatiale, Orsay) le bon fonctionnement des diverses électroniques.
Cependant, seuls les tests d’interface et de compatibilité électromagnétique au niveau du satellite (chez
Alcatel) permettent de vérifier le fonctionnement d’un, puis des deux instruments dans les conditions d’étalonnage finales.
Quel est le calendrier de Planck ?
Tous les éléments de HFI doivent être rassemblés à l’IAS en 2004. Le montage du satellite se fera chez
Alcatel-Espace au début 2005. La phase de tests intégrés de l’instrument sur le satellite pourra alors débuter
et se déroulera jusqu’au lancement en 2007.
Pour ce qui concerne nos engagements, les cartes d’électronique sont en phase de test juste avant leur envoi
en qualification (vérification de la conformité aux normes thermiques, mécaniques et électromagnétiques).
Nous allons tester les caractéristiques mécaniques (résistance aux vibrations), thermiques et électriques du
DPU. Les contraintes du spatial sont fortes, tout
spécialement au décollage : une bonne tenue
mécanique est exigée ainsi qu’une résistance aux
écarts de température sous vide (-40° C à +80° C).
On craint particulièrement les phénomènes de
vibrations que l’on élimine en multipliant les boulons pour les assemblages de pièces massives.
Pour des raisons analogues, le métal du boîtier est
de l’aluminium léger. Les vis sont en titane.
Polariseur et sources pour
la mesure de la diaphonie
optique.
Par ailleurs, nous avons réalisé un banc de test
thermique sous vide pour prouver le bon fonctionnement de l’ensemble du DPU dans les conditions
thermiques extrêmes du vol. Les tests se font dans
un caisson (récupéré de l’expérience FFTB, voir
L’AL n° 30) et on réalise des cycles de mise en
marche tout en faisant varier la température. Il faut
savoir qu’en dessous de 10-2, 10-3 mbar il n’y a
plus de mouvements convectifs pour évacuer la
chaleur.
page 29
Entretien
E NTRETIEN : L A PARTICIPATION T E C HNIQUE D U LAL À L ’EXPÉRIENCE PL A N C K
Quelles sont, par rapport à d’autres programmes, les différences de style de travail ?
Ce sont les contraintes imposées par le spatial. L’ESA donne de très fortes contraintes pour les logiciels
embarqués. Il y a des tonnes de documents à lire. On nous demande beaucoup de documents formels : document d’architecture, description détaillée de tout ce qui est embarqué, manuel utilisateur, documentation des
tests réalisés, documents de gestion de configuration,...
Tout le logiciel doit avoir été testé dans le moindre détail. Chaque fonction doit être testée indépendamment
puis on doit faire une intégration de toutes ces fonctions, et vérifier qu’elles répondent aux critères de communication et de robustesse nécessaires.
Tout cela coûte très cher, le coût de développement est important. L’ESA demande un maximum de garanties pour le succès de la mission.
L’électronique d’acquisition des signaux de physique gère seulement 72 canaux, ce qui est peu comparé aux
centaines de milliers de voies d’électronique d’une expérience au LHC. Le coût des composants est énorme,
le DSP21020 (qui a déjà servi dans Aleph) coûte 10 000 euros pièce par exemple. Cela est dû au processus de
fabrication avec des normes de qualité élevées.
C’est la première fois que vous travaillez sur un projet spatial, qu’en retirez-vous ?
On travaille sur des composants qui doivent avoir été agréés par l’ESA, dont la technologie peut avoir 15
ans d’âge, ce qui n’est pas le «top» de la technologie. On est obligé de modifier nos pratiques habituelles, de
mieux définir le cadre de ce que l’on fait. On pense au test à effectuer obligatoirement avant d’ajouter une
ligne de code ! Mais on gagne du temps en respectant ces nouvelles règles. Il faut être capable de décrire sa
façon de travailler et donc de suivre une méthode car l’ESA veut avoir la traçabilité pour savoir qui a fait quoi.
Après ce projet on essaiera de continuer à appliquer cette rigueur dans les projets à venir. Il faudra trouver un
juste milieu avec ce que l’on faisait auparavant.
Hormis l’environnement du projet, le plus intéressant dans cette expérience c’est le fait de développer une
carte en même temps que le logiciel. On travaille sur l’interface, il y a une collaboration de beaucoup de personnes, et beaucoup d’échanges. Développer une carte processeur est assez nouveau pour le labo.
PROPOS RECUEILLIS :
AUPRÈS DE JEAN-LUC BENEY, RICHARD CIZERON, BRUNO MANSOUX
PAR MARIE-ANNE BIZOUARD, HÉLÈNE KÉREC , FRÉDÉRIC MACHEFERT
page 30
LE S
CMB
Histoire
TRÈS
RICHES
HEURES
D U
Abécédaire
Le premier personnage de notre histoire est un physicien d'origine russe, émigré aux USA, George Gamow.
G. Gamow est non seulement connu pour ses travaux en cosmologie et en physique nucléaire mais aussi pour
les ouvrages de vulgarisation qu'il a écrits, devenus depuis des classiques, de même que leur héros, Mr
Tomkins. Son sens de l’humour est aussi célèbre. Par exemple, il a proposé au physicien H. Bethe de co-signer
un article avec lui et un de ses collaborateurs, R. Alpher, ce qui constitue la liste suivante : Alpher, Bethe,
Gamow (α,β,γ)...
Nous sommes en 1948. Sous l'impulsion des observations de E. Hubble et M. Humason, les idées de G.
Lemaître et A. Friedman selon lesquels un état infiniment dense serait à l'origine de l'histoire de l'Univers,
avaient commencé à faire leur chemin dans les laboratoires depuis les années 1930. Paradoxalement, c'est toutefois d'un état primordial «froid» qu'il s'agissait alors, composé de neutrons. Cependant la physique nucléaire, balbutiante à l'époque, semblait indiquer un scénario
impossible : les neutrons se désintègrent rapidement en
protons et électrons ; les protons ainsi formés fusionnant
alors entre eux et avec les neutrons. On aboutissait ainsi
après un temps assez bref, à un univers composé presque
uniquement d'hélium.
Le physicien d’origine russe G. Gamow (1904-1968) pendant un cours. Outre la cosmologie, on peut mentionner ses
contributions fondamentales à la physique nucléaire et … à la
biologie (l’idée d’un «code génétique» !). Ce fut également un
excellent vulgarisateur, créateur du fameux Mr Tomkins.
Edward Teller (un de ses collaborateurs, en physique nucléaire) le décrivait comme suit : «Gamow was fantastic in his
ideas. He was right, he was wrong. More often wrong than
right. Always interesting […] and when his idea was not
wrong it was not only right, it was new» («Gamow était fantasque dans ses idées. Il avait raison, il avait tort. Plus souvent tort que raison. Toujours intéressant […] et quand son
idée n’était pas fausse, elle était non seulement juste, mais
encore nouvelle»)
G. Gamow, lui, défendait l'idée d'un univers primordial
chaud. Très chaud. Cette température élevée se traduirait
par l'existence de photons suffisamment énergiques pour
casser les noyaux « lourds » (deutérium, hélium,...). Et
donc préserver un univers composé principalement d'hydrogène. Gamow pensait aussi pouvoir expliquer toute la
composition de l'Univers en la faisant résulter d'une série
de fusions thermonucléaires. La fusion de l'hydrogène
aurait alors créé l'hélium, qui a son tour aurait créé du
carbone et de l'oxygène. Par des suites de réactions de
fusion, les éléments de plus en plus lourds auraient ensuite été formés. Les estimations de l'âge de l'univers coïncidaient à l'époque avec celles de l'âge de la Terre. Il fallait donc expliquer la formation des éléments formant
notre planète dans l'univers primordial. Avec ses collaborateurs R. Hermann et R. Alpher, G. Gamow essaya de
vérifier la correction de son hypothèse. Ils ont pour cela
calculé, compte tenu des taux des réactions de fusion et
de la durée de « l'explosion », les quantités d'éléments
formés. Déception ! Pas moyen de faire en sorte que les
équations permettent la fabrication d'éléments plus
lourds que l'hélium.
G. Gamow fut donc amené, progressivement, à abandonner sa théorie. Non sans avoir noté que parmi les
produits de cette explosion figurent, en nombre, ... des photons. Des photons qui auraient, ensuite, baigné l'ensemble de l'univers tout en se refroidissant, se présentant comme la signature d'un corps noir d'environ 10K à
notre époque. Mais Gamow notait aussi qu'un tel rayonnement était ... indétectable ! Il surestimait d’une part
les émissions astrophysiques dans la même gamme de fréquence, et d’autre part, connaissait mal le potentiel
des techniques de détection de l’époque comme bon nombre de ses collègues théoriciens d’alors.
page 31
Histoire
LE S
TRÈS
RICHES
HEURES
D U
Ironie du sort, ce sont les adversaires de ces idées, conduits entre autres par Sir Fred Hoyle, qui ont baptisé, avec mépris, l'explosion initiale : le « Big-Bang ». F. Hoyle est aussi un des pionniers de la «nucléosynthèse stellaire», théorie expliquant la formation des éléments lourds par les réactions de fusion qui ont lieu
dans les étoiles et leurs explosions (novæ et supernovæ). Des estimations corrigées de l'âge de l'univers ont
été établies après 1955, bien supérieures à celui des planètes : il y avait le temps pour fabriquer la matière des
planètes telluriques. Ce modèle de formation s'est imposé pour tous les éléments ... sauf les plus légers, l'hélium et quelques autres, qui furent bel et bien formés ... par le Big-Bang ! Ces mêmes adversaires ne se privaient pas de noter qu'un des points faibles de la théorie du Big-Bang était l'absence de manifestation expérimentale directe ...
La théorie de Gamow, et l'idée d'un rayonnement fossile, tombent alors, pendant une vingtaine d'années,
dans un relatif oubli. Pourquoi ? D'une part, l'objectif principal de son modèle, la formation des éléments,
n'était pas atteint. D'autre part, Gamow lui-même avait émis l'idée que le rayonnement de fond était indétectable. Cela n'empêchait pas certains d'y réfléchir. En 1964, deux physiciens russes, A.G. Doroshchkevitch et
I. Novikov, dans un article qui a échappé à presque tous les physiciens du domaine, remarquent que le rayonnement de fond est concentré dans un intervalle relativement étroit de fréquence, et peut-être, finalement,
détectable. D'ailleurs, ils indiquent le meilleur site possible à l'époque : une antenne construite à Holmdel
(New Jersey) par les Bell Laboratories. Ils ne croyaient pas si bien dire ...
Pigeons et télécommunications
Le début des années 1960 voit l'apparition des premières tentatives de télécommunications spatiales. Parmi
d'autres, la compagnie Bell s'y emploie. Un des systèmes développés, appelé Echo, utilisait un ballon recouvert d'aluminium qui réfléchissait les ondes (dans la gamme de 1 à 2 GHz) envoyées depuis le sol. Pour les
recevoir, une antenne géante avait été construite à
Découverte du CMB
Holmdel (New Jersey). Elle ressemblait beaucoup
aux cornets acoustiques du professeur Tournesol...
Très vite, ce système est dépassé, du fait notamment
de l'utilisation de satellites. L'antenne de Holmdel se
retrouve alors inutilisée. Deux ingénieurs des Bell
Labs, Arno Penzias et Robert Wilson envisagent de
l'utiliser pour observer l'émission de la Voie lactée, à
la longueur d'onde de 21cm caractéristique de l'hydrogène. Au préalable, ils se placent à une longueur
d'onde de 7,35 cm pour étudier les bruits instrumentaux. Après remise à niveau du système de détection,
Penzias et Wilson trouvent que leur bruit expérimental est plus important que prévu. Ils cherchent alors
quelle pourrait être l'origine de ce parasite. Ils sont
persuadés que cette source est interne à leur appareillage car le parasite est le même quelle que soit
l'orientation de l'antenne. Ils vérifient plusieurs fois
R. Wilson (à gauche) et A. Penzias etl’antenne de Holmdel
leur chaîne d'électronique, chassent des oiseaux qui
qui leur permit de découvrir le CMB en 1968.
nichaient sur l'antenne, et nettoient cette dernière de
leurs déjections. Peine perdue : le parasite fait de la
résistance...
Mentionnant leur problème par hasard, au téléphone, à un de leur collègue radio-astronome, B.Burke,
A. Penzias se voit invité à contacter P.J.E. Peebles. B. Burke se souvenait en effet avoir entendu un de ses collègues, K. Turner, parler d'un séminaire donné par P.J.E. Peebles où il était question d'une émission de fond
radio cosmologique. Avec un groupe de chercheurs de Princeton, P.J.E. Peebles, R. Dicke et quelques collègues (dont fait partie un certain D. Wilkinson, que nous retrouverons plus tard) préparaient en effet une
expérience utilisant une antenne, dans la même gamme de fréquence que Penzias et Wilson (à une longueur
page 32
LE S
CMB
Histoire
TRÈS
RICHES
HEURES
D U
d'onde de 3 cm), pour rechercher un rayonnement électromagnétique fossile du Big-Bang, extrêmement uniforme. Imaginons la consternation à Princeton, quand Penzias et Wilson y annoncent que l'expérience en préparation depuis de longs mois est ... déjà faite ! Sportivement, ils laissent Penzias et Wilson signer seuls l'article annonçant leur découverte, une des plus importantes du XXe siècle, co-signant l'article d'interprétation
qui le suit immédiatement. Mais le prix Nobel ira aux seuls Penzias et Wilson, en 1978 ...
Notons au passage que le fond cosmologique s'était peut-être refusé à quelques autres. En 1941, un certain
McKellar note que des raies d'absorption dans le spectre d'une étoile semblent indiquer qu'il existe des molécules de cyanure (HCN) dans le milieu interstellaire. Mais, détail supplémentaire, ce cyanure semble « excité », chauffé, par un rayonnement mystérieux à la température de quelque 2,3 K. « Guess who ? ». Le rayonnement de fond cosmologique a été depuis fort courtisé
par les observateurs, avec des moyens très divers, placés
au sol ou «en l'air» (emportés par des ballons et des
fusées).
COBE
COBE, (pour COsmic Background Explorer) est un
satellite de la NASA, conçu par un groupe de physiciens
américains (dont faisait aussi partie D. Wilkinson, que
nous retrouverons encore plus tard), fut lancé à la fin des
années 1980. Il emportait plusieurs appareillages, destinés
à l'étude du CMB. Ses résultats publiés au début des
années 1990 constituent un tournant dans la discipline,
autant du point de vue de leur précision que des perspectives qu'ils ouvraient. COBE tirait alors partie de progrès
dans la conception et la réalisation de composants électroniques permettant de mesurer des rayonnements dans la
gamme de fréquence 10-100 GHz, les HEMT (High
Electron Mobility Transistors). Des composants de ce type
sont aussi utilisés dans les expériences MAP et Planck
(pour son instrument basse fréquence LFI).
Un des instruments de COBE, FIRAS (Far InfraRed
Absolute Spectrometer) a mesuré à un degré de précision
Une vue d’artiste du satellite COBE. Les antennes
des trois instruments embarqués (DIRBE, FIRAS et impressionnant le spectre du CMB, c'est-à-dire la répartition des photons du CMB en fonction de leur longueur d'onDMR) sont indiquées.
de. Ce spectre s'est révélé être parfaitement compatible avec
le spectre du rayonnement émis par un objet idéal appelé « corps noir ». Cette prédiction importante du modèle du Big-Bang était ainsi vérifiée. Ceci prouve, définitivement, que le rayonnement observé par Penzias et
Wilson, et d'autres après eux, est sans ambiguïté celui qui est libéré lors de la
formation des premiers atomes après le Big-Bang.
Une autre des expériences de COBE, appelée DMR (Differential
Microwave Radiometers) eut, elle, vocation à étudier les variations dans la
température apparente du CMB d'une direction à l'autre. De telles variations,
appelées anisotropies angulaires de température, avaient été auparavant soupçonnées par quelques expériences, mais surtout les modèles de l'univers primordial (en particulier ceux incorporant l'inflation) en prédisaient l'existence.
Les limitations de l'appareillage imposaient de recueillir les photons du CMB
dans des cônes de plusieurs degrés d'ouverture. Les résultats de l'expérience
DMR, présentés au début des années 1990 ont constitué une éclatante confirmation de prédictions des modèles.
David Wilkinson (1935-2002), un des
pionniers du CMB (voir le texte)
page 33
Histoire
LE S
TRÈS
RICHES
HEURES
D U
Les résultats de COBE ont ainsi identifié indiscutablement le rayonnement de fond micro-onde détecté par
Penzias et Wilson en 1968 à un « fossile » du Big-Bang. Par conséquent, ils montrent avec beaucoup de force
que l'univers a été dans un lointain passé chaud, dense et dominé par un gaz de photons. Par la suite, de nombreuses autres expériences ont continué à étudier le CMB. Leur objectif n'était plus de prouver le modèle du
Big-Bang mais d'étudier les propriétés du CMB pour en extraire des informations sur les paramètres de ce
modèle. Ainsi s'est ouvert un domaine nouveau : la cosmologie observationnelle quantitative de précision.
Domaine où le CMB est l'un des outils majeurs.
Ballons et bolos
Dans les années 1990, un nouveau type de détecteur s'est ajouté à la panoplie des observateurs assidus du
rayonnement de fond cosmologique. Le spectre du CMB « pique » au voisinage de 100 GHz. Au-dessous de
cette fréquence, la technique de détection est, dans le principe, similaire à celle de la réception de signaux
radio (utilisée dans les téléphones portables ou les récepteurs de TV). Sous l'effet des variations du champ
électromagnétique, des électrons de l'antenne sont mis en mouvement. Un courant est ainsi induit. Il présente la même fréquence que celle du rayonnement incident. Il est très difficile de « traiter » électroniquement
des courants de fréquence supérieure à 100 GHz. Les techniques de détection des rayonnements infrarouges
sont heureusement arrivées à la rescousse. Mais tout d'abord, un petit « flash-back » s'impose.
La scène se passe en 1800. Depuis plus d'un siècle, après Newton, on savait que la lumière solaire est
décomposée « en arc-en-ciel » par un prisme. En 1800, William Herschel observe ce phénomène. Et il a l'idée
de regarder ce qui se passe ... au-dehors des bandes colorées projetées par son prisme sur l'écran. En mettant
un thermomètre « après » le rouge, il observe une élévation de température ! Il y a donc « quelque chose »
au-delà du rouge : il s'agit, des rayonnements dits infrarouge.
Les rayons infrarouges, du point de vue des fréquences, s'étendent jusqu'à ces fameux 100 GHz. Et pour les
étudier, on fait appel à la bonne vielle méthode de W. Herschel, un peu perfectionnée ... On utilise en effet des
détecteurs appelés « bolomètres » dont la fonction est précisément de mesurer une élévation de température.
Un bolomètre est en général constitué d'un cristal qui absorbe l'énergie du rayonnement incident, et dont la
température varie. Cette variation de température est convertie en signal électrique par un thermomètre.
Pour pouvoir mesurer le rayonnement de fond cosmologique (dont la température est 2,7 K), ces détecteurs
doivent être placés à des températures aussi proches que possible du zéro absolu. On abaisse ainsi considérablement leur niveau de bruit. Ceci peut être obtenu grâce à des systèmes cryogéniques de pointe. Des détecteurs de ce type n'ont encore jamais été placés dans l'espace où ils donneront leur pleine mesure avec Planck
à partir de 2007. En attendant, on a pu les utiliser dans des expériences emportées par des ballons stratosphériques, à des altitudes de 20-30km. Aussi haut, l'atmosphère est suffisamment raréfiée pour ne plus perturber
l'expérience. Ce fut le cas de l'expérience BoomERang, qui a survolé le continent Antartique, en tournant
autour du pôle Sud et en revenant à son point de départ (d'où son nom), poussée par les vents. Presque aussitôt confirmée par les résultats d'une expérience concurrente, Maxima, BoomERang a produit des mesures des
anisotropies de températures du CMB avec une résolution angulaire bien meilleure que celle de COBE. Pour
la première fois une taille préférentielle des fluctuations était mise en évidence.
Archeops, après moult aventures dont il est question ailleurs, est venue couronner cette série de résultats en
mesurant les paramètres de l'univers à partir des fluctuations du CMB : grâce à la grande surface de ciel couverte, le lien avec les résultats de COBE était enfin possible. D'autre part, Archeops présente la meilleure
page 34
LE S
Histoire
TRÈS
RICHES
HEURES
D U
Vue d’artiste de la sonde WMAP en route vers le point Lagrange L2
mesure des paramètres du premier pic dans le spectre des anisotropies de température du CMB. À ses yeux,
un peu spéciaux pour « voir » le CMB, l'univers semble ... plat !
Le futur appartient à ces différents courants : des expériences « ballon » ou au sol, toujours plus précises,
sont en préparation. Les expériences spatiales avancent aussi, à pas plus espacés. Une expérience américaine,
WMAP, a présenté ses premiers résultats en février 2003. À l'origine appelée MAP (Microwave Anisotopy
Probe), WMAP est sur le plan conceptuel une sorte de « super DMR ». D. Wilkinson a participé à sa construction, et a laissé son initiale dans l'acronyme définitif WMAP. WMAP devant être exploitée encore 3 ans, la
moisson de mesures ne fait que commencer mais déjà efface presque tous les résultats précédents.
Le dernier (?) mot reviendra probablement à Planck, dont il est question par ailleurs, et qu'Archeops a
brillamment préparé. La mission Planck sera lancée en février 2007 : patience, patience...
OLIVIER PERDEREAU
page 35
Le prochain numéro de
Un duo sur la beauté
Aleph et Delphi : la beauté à
LEP
page 36
Téléchargement