La dictature du modèle

publicité
les dérives de la cosmologie moderne
en est de même pour l’estimation du taux d’expansion de l’Univers. Alors
que nous ne savons pas ce qui est réellement en expansion dans l’Univers,
par rapport aux structures qui ne la subissent pas, alors que nous ne savons
pas si cette expansion est isotrope, les cosmologistes ont le toupet de prétendre pouvoir la donner au dixième près. Cela n’a pas plus de sens que
de donner le rayon d’une pomme de terre à la précision du millimètre. La
faute dans l’utilisation du modèle homogène et isotrope consiste à vouloir
tirer du modèle des informations qu’il ne contient pas. La pomme de terre
n’est pas une sphère parfaite ; l’Univers n’est pas homogène et isotrope.
La dictature du modèle
Nous touchons là au cœur du mal qui mine l’astrophysique moderne.
Comme le sculpteur légendaire Pygmalion était tombé amoureux de
Galatée, la statue qu’il avait ciselée, priant la déesse Aphrodite de lui
donner vie, les astrophysiciens en sont venus à idolâtrer leurs modèles
numériques et à les prendre pour la réalité. Le mot « idolâtrie » est formé
de « idole », du grec eidôlon (« image »), et du suffixe « – lâtrie », de
latreuein (« servir, adorer »). Idolâtrer le modèle est lui vouer un véritable culte en oubliant la réalité. La maladie est grave. Elle se traduit par
une quasi-sacralisation de schémas numériques pourtant incapables de
décrire la complexité des objets réels et auxquels les chercheurs ajoutent
arbitrairement le nombre voulu de paramètres pour tenter néanmoins de
faire coller les prévisions théoriques aux observations (et, comme ils y
parviennent, leur numéro d’illusionniste est réussi et ils arrivent à tromper les esprits). Les astrophysiciens n’étudient plus les étoiles, ils étudient des modèles d’étoiles. Lorsque dans un séminaire le conférencier
vous parle de l’évolution d’une étoile de 5 masses solaires, il faut entendre l’évolution d’un modèle d’étoile dont la masse est de 5 fois la masse
solaire. Il ne s’agit pas de l’évolution d’étoiles réelles. C’est l’occasion
de rappeler gentiment aux théoriciens de l’espace-temps mathématique
que jusqu’à nouvel ordre le monde connaissable est fait d’étoiles et que
par conséquent toute la cosmologie (y compris les divagations sur la
matière noire) repose sur la connaissance des étoiles : c’est pourquoi je
m’attache à leur étude dans ce qui suit.
249
le théorème du jardin
Un modèle d’étoile est déterminé par les trois paramètres fondamentaux que sont la masse, la température et le rayon, auxquels on doit
adjoindre des paramètres supplémentaires comme la vitesse de turbulence, la vitesse de rotation de l’objet, la composition chimique (notamment l’abondance en éléments plus lourds que l’hydrogène et l’hélium,
désignés brièvement en astronomie sous le nom de métaux), etc.
L’importance de ces autres paramètres est d’ailleurs déterminante pour
la structure de l’étoile. Pour l’astrophysique, analyser une étoile revient
à déterminer ses paramètres fondamentaux. Un article parmi des milliers
d’autres semblables s’intitulera par exemple : « Détermination précise
des paramètres fondamentaux de vingt-trois étoiles brillantes de type
solaire ». Mais il y a un souci : s’ils ont un sens bien défini dans le cadre
du modèle, ces paramètres fondamentaux perdent leur signification dans
la réalité des choses.
Le premier point litigieux concerne la notion de rayon et donc de surface : une vraie étoile n’a pas de vraie surface. Une étoile ne s’arrête pas
brusquement sur l’espace interstellaire. La zone de transition entre les
deux milieux en contact, l’étoile et le milieu interstellaire, plus ou moins
étendue selon les cas, est toujours d’une complexité désespérante pour
l’astrophysicien (la nature, elle, maîtrise magistralement la question). En
effet, une étoile réelle est un objet ouvert sur l’extérieur, non un système clos et isolé comme l’aime la physique. Ainsi que l’attestent sans
ambiguïté les observations, elle entretient avec son environnement des
échanges dynamiques accompagnés de mouvements de matière à toutes
les échelles (turbulence, pulsations, perte de masse, éruptions, etc.). Le
caractère non statique d’une atmosphère stellaire résulte en partie de ce
que la gravité dans les régions externes est insuffisante pour retenir efficacement la matière. L’effet est particulièrement marqué pour les étoiles
de grande taille, géantes ou supergéantes, dont les couches extérieures
ne ressentent qu’une faible gravité par suite de leur grande distance au
centre, une situation favorisant la fuite des particules.
L’état dynamique des étoiles n’est d’ailleurs pas réservé à leur surface.
Les mouvements de matière sont également présents à l’intérieur, de
250
les dérives de la cosmologie moderne
nouveau à toutes les échelles. Aléatoires, ils constituent la turbulence ;
plus organisés, ils manifestent l’existence de courants de matière. Or
aucun modèle ne sait inclure ces mouvements de façon correcte, même
approchée. Pour les simuler dans l’apparence des spectres (car au final
on compare un spectre observé à un spectre calculé), on se contente d’introduire deux paramètres : la vitesse de microturbulence et la vitesse
de macroturbulence. La microturbulence est censée représenter les mouvements aléatoires à toute petite échelle (ce qui revient grosso modo
à augmenter la température du gaz, mais pas tout à fait). La macroturbulence vise à reproduire les mouvements d’ensemble à grande échelle.
L’ajustement empirique des calculs à la forme des raies spectrales observées fournit la valeur de ces paramètres de turbulence. Je ne rejette pas
catégoriquement cette façon de faire : après tout, elle peut donner une
certaine idée de l’importance des mouvements de matière. Mais l’erreur
est de prendre ces paramètres pour argent comptant, comme s’ils avaient
une signification physique réelle, et de chercher à les déterminer avec
exactitude, comme si l’accroissement fallacieux de précision était gage
d’amélioration qualitative. L’illusion est de penser que grâce à l’utilisation des paramètres de microturbulence et de macroturbulence on a
traité, comme adorent le dire les astrophysiciens, les champs de vitesse.
Maltraité serait plus juste.
Autre exemple éloquent de l’inadéquation des modèles : la variation
réelle de la température du plasma stellaire en fonction de la distance au
centre de l’étoile n’est pas conforme à la prévision théorique. Tandis que
les modèles prédisent que la température décroît du centre vers l’extérieur, la nature agit autrement. Dans le Soleil, elle diminue bien, comme
l’annonce la théorie, depuis les quelque 15 millions de degrés du centre
jusqu’aux quelque 5 000 degrés de sa surface visible, nommée photosphère, mais se met à croître au-delà pour atteindre les dizaines de milliers
de degrés de la chromosphère et les millions de degrés de la couronne,
cette couche extérieure dont la magnificence nous éblouit lors des éclipses
totales de Soleil. Or – cela pourra légitimement en étonner certains –
aucun modèle d’étoile ne prévoit l’existence de chromosphères et de
couronnes. Selon les besoins, on les accolera aux modèles d’étoiles en
251
le théorème du jardin
les paramétrant de façon ad hoc, mais sans y inclure la physique convenable, pour la bonne raison que nous sommes incapables de comprendre
vraiment de quoi il s’agit. Paradoxalement, la précision extraordinaire
de la vision du Soleil que les instruments modernes nous offrent est d’un
certain côté plutôt un handicap qu’une aide car on a accès à tellement de
détails que toute modélisation semble miséreuse. Sur la structure de la
chromosphère et de la couronne, s’il est bien une chose que les observations nous apprennent du Soleil (et par extension des étoiles), c’est l’importance du champ magnétique. Les taches solaires et les protubérances
sont des manifestations directes de l’activité magnétique du Soleil. Les
jets de matière sont provoqués et canalisés par le champ magnétique. Or
aucun modèle d’étoile ne sait inclure ce champ magnétique, l’une des
bêtes noires les plus redoutées des astrophysiciens. La discipline de la
magnétohydrodynamique (MHD en jargon astrophysique) est consacrée
à l’étude du comportement d’un plasma en présence d’un champ magnétique, mais elle n’a pas atteint ce niveau de résultats capable de conduire
à une modélisation (ce qui d’ailleurs n’est pas forcément possible ou
même souhaitable).
Avec la remontée de température dans la chromosphère et les manifestations faramineuses de l’énergie magnétique, nous retrouvons le fait
que la surface d’une vraie étoile est le siège d’une physique complexe
et violente. C’est l’endroit où se déchaînent à plein régime les effets
hors équilibre. Bon nombre d’astres subissent des pulsations, la plupart
voient leur éclat varier, tous perdent une partie plus ou moins importante de leur masse en éjectant leur matière dans le milieu environnant.
Comme les modèles sont fondés sur des hypothèses d’équilibre, aucun
d’entre eux n’est capable d’expliquer ces phénomènes et on a recours
à la paramétrisation pour en reproduire vaguement quelques caractéristiques observées, mais sans introduire de théorie physique sérieuse. Parmi
les approximations faites, les représentations de perte de masse supposent que l’éjection de matière possède une symétrie sphérique autour
de l’étoile alors que les observations prouvent que ce n’est pas le cas.
Il faut noter à ce propos que cette même symétrie sphérique est également l’hypothèse sur laquelle se fondent les modèles pour l’ensemble de
252
les dérives de la cosmologie moderne
l’étoile. Elle postule que l’astre est formé d’une série de couches sphériques superposées, chacune étant supposée homogène dans sa constitution. Or les astronomes savent pertinemment que les vraies étoiles ne
possèdent pas cette symétrie sphérique. Déjà elles tournent toutes sur
elles-mêmes, de sorte que les propriétés de la matière à l’équateur ne
sont pas les mêmes qu’aux pôles. Ensuite les mouvements de matière
n’épargnent aucun point et contribuent à développer les dissymétries.
L’hypothèse de la symétrie sphérique est certes commode, mais elle est
impropre à représenter la réalité. Plus on découvre les étoiles, plus on
s’aperçoit qu’elles se distinguent des modèles. Ainsi la brillante étoile
Véga, l’un des sommets du fameux triangle d’été, a longtemps été considérée comme une étoile de référence permettant de calibrer les luminosités stellaires. Or les astronomes se sont aperçus vers les années 2005 que
l’astre tournait très rapidement sur lui-même, avec un renflement équatorial prononcé. Cette circonstance infirme l’hypothèse de la symétrie
sphérique et rend difficile la détermination de sa luminosité totale vraie
(comme nous allons l’expliquer maintenant), invalidant du même coup le
choix de Véga comme étoile standard.
La température des étoiles
Si le rayon d’une étoile, paramètre fondamental du modèle, devient dans
la réalité une notion floue, le concept de température présente aussi de
sérieuses difficultés à se transposer au réel. Le spectre d’une étoile n’a
pas la forme de celui d’un corps noir, sinon la question serait vite résolue : à tel corps noir correspondrait telle température. De façon profonde,
la notion de température suppose que le système à qui on l’applique soit
à l’équilibre ; or une étoile n’est pas à l’équilibre. Nous avons vu que
peu après le Big Bang, avant l’époque du découplage, le rayonnement
cosmique était à l’équilibre avec les particules matérielles du plasma
remplissant l’Univers, de sorte que la répartition des photons de lumière
suivait la loi d’un corps noir (celui même qui est devenu de nos jours,
par suite de l’étirement de l’espace, le fameux corps noir cosmologique
à 3 degrés Kelvin découvert par Penzias et Wilson). Pourquoi cet équilibre prévalait-il à l’époque ? Parce que, dans ces tout premiers instants
253
le théorème du jardin
de l’Univers, la lumière était emprisonnée par la matière et avait de ce
fait le temps de se mettre en équilibre avec elle : la forte densité de particules empêchait les photons de parcourir une distance suffisante entre
deux collisions. Dans les couches des étoiles, il n’en est pas ainsi car, le
milieu étant beaucoup plus dilué, l’hypothèse d’équilibre devient discutable. Pour traiter néanmoins les problèmes, les astrophysiciens adoptent
souvent la convention que cet équilibre entre matière et rayonnement
est établi localement. Chez les spécialistes des atmosphères stellaires,
l’hypothèse est connue sous le nom d’hypothèse de l’équilibre thermodynamique local (ou ETL, LTE en anglais). Elle permet d’assigner en
chaque point une température à la matière et s’avère raisonnable si la
densité de matière est assez forte, ce qui est vrai dans les régions centrales
de l’étoile. Remarquons en passant que, si le rayonnement ne se met
pas partout en équilibre avec la matière dans une étoile (surtout dans les
couches extérieures) et que ce fait crée un souci pour l’astrophysicien,
c’est en même temps une situation à l’évidence incontournable. Si nous
voyons le rayonnement des étoiles, c’est bien le signe qu’il s’échappe de
la surface et n’est donc pas enfermé dans l’astre. Ce que nous disions de
la matière est vrai aussi pour le rayonnement : une étoile est un système
ouvert sur l’extérieur. Avec les dangers de déséquilibre que cette situation
comporte, et la présence inévitable d’écarts aux modèles en équilibre.
La présence d’une surface par laquelle le rayonnement s’échappe est
la raison pour laquelle la température du milieu décroît depuis le centre
de l’étoile jusqu’à l’extérieur (quitte à remonter dans une chromosphère,
pour d’autres causes). Physiquement, cela se comprend : c’est par sa
surface que la soupe chaude va se refroidir. Cette décroissance de la température fournit l’explication de la présence dans un spectre stellaire de
raies d’absorption plus sombres que le haut du spectre libre de raies (que
l’on appelle en termes techniques le continu). En effet, une raie spectrale
correspond à une longueur d’onde pour laquelle la matière est plus
opaque. Cela signifie que, quand on regarde une étoile (ou le Soleil) dans
une raie, on voit moins loin dans cette étoile qu’en dehors de la raie.
Autrement dit, on n’atteint que des couches plus superficielles de l’astre :
le regard porte moins profond. Au final, par rapport aux longueurs d’onde
254
les dérives de la cosmologie moderne
adjacentes, dans une raie on voit des couches plus externes, donc plus
froides, donc plus sombres. Plus la raie est forte, plus extérieures donc
plus froides seront les couches d’où provient le rayonnement, donc plus
la raie apparaîtra profonde. Tout marche bien, semble-t-il : le modèle
explique la réalité. Sauf que, puisque selon les modèles la température ne
peut que décroître vers l’extérieur, on ne devrait observer que des raies
d’absorption. Or il se trouve que, dans le spectre de certaines étoiles, on
observe aussi des raies d’émission, c’est-à-dire des raies dont l’intensité est plus forte que le continu adjacent. Leur interprétation physique
est toujours difficile : la présence de raies d’émission dans un spectre
stellaire constitue un voyant rouge signalant un dysfonctionnement du
modèle. Dans plusieurs cas, cette présence prouve que notre modélisation est à revoir entièrement, de simples « bricolages » ne suffisant pas à
remédier aux défauts constatés. L’un des exemples les plus significatifs
concerne de nouveau les étoiles de grande taille, dont l’interprétation
semble exiger une remise à plat totale des modèles. On peut qualifier ces
astres géants d’étoiles à enveloppe, voulant dire par là que leurs couches
extérieures sont si démesurées qu’elles constituent comme une enveloppe
autour de l’étoile, peut-être même située à une certaine distance et non
directement collée aux couches plus intérieures. Pour ces astres au rayon
gigantesque (pouvant facilement atteindre la distance du Soleil à la Terre),
les hypothèses d’équilibre volent en éclats : celle de l’équilibre hydrostatique pour les parties internes de l’astre et même celle de l’équilibre
thermodynamique local pour les couches extérieures dont la densité est
faible. Appliquer aux étoiles géantes ou supergéantes les modèles disons
classiques d’étoile est absurde. Il faut savoir encore que les raies d’émission indésirables pour la théorie (!) ne sont pas d’importance secondaire :
elles ont parfois une intensité considérable. Un astronome amateur de
mes amis prend couramment des spectres d’étoiles et s’extasie avec moi
devant la forte intensité des raies d’émission de l’hydrogène (notamment
les raies de Balmer, du nom du physicien suisse Johann Jakob Balmer,
1825-1898) qu’il détecte dans Mira Ceti (la merveilleuse de la Baleine),
la fameuse étoile géante variable à longue période mentionnée dans un
chapitre antérieur. Mais alors, devant un fait observationnel indiquant
de façon si manifeste un vice de modélisation, comment les astronomes
255
le théorème du jardin
en arrivent-ils à persister dans leurs choix pourtant insatisfaisants, en
continuant à se servir de modèles classiques ? Dans un séminaire où je
m’étonnais que l’on n’attachât pas plus d’importance à ces puissantes
raies d’émission H alpha de l’hydrogène, je me suis attiré cette réponse,
tout aussi puissante : « H alpha, on s’en fout. » Rideau.
Le calcul du rayonnement émergeant d’un modèle d’étoile se fonde
sur des théories permettant de décrire l’interaction du rayonnement et
de la matière. Un atome peut passer dans un niveau supérieur d’énergie
en absorbant un photon ou en subissant le choc d’un électron, puis c’est
en cascadant vers des niveaux inférieurs que des photons peuvent être
émis, en accord avec les probabilités de transition calculées par Einstein
(encore lui !). L’étude des échanges entre lumière et matière constitue
la discipline du transfert du rayonnement (justement la spécialité de
l’auteur). Les techniques qu’elle met en œuvre permettent au final de
faire la somme des contributions au rayonnement de toutes les couches
de l’atmosphère de l’étoile pour en déduire le spectre sortant. Disons que
les astrophysiciens s’en sortent plus ou moins bien. Mais ils s’en sortent
pour un modèle. Les précisions que j’ai apportées ici voulaient montrer
que la formation d’un spectre stellaire est loin d’être simple et que le
passage à la réalité se révèle plein d’embûches. Le rayonnement que l’on
reçoit sur Terre n’est pas le reflet direct d’une seule température. Chaque
région de l’atmosphère de l’étoile émet un rayonnement dépendant de
la température du point d’émission, mais ce rayonnement devra encore
traverser d’autres couches avant de parvenir sur Terre. Certes le modèle
tient compte de ces effets, mais la structure de l’étoile a une importance
essentielle dans le calcul et les hypothèses simplificatrices de départ ne
conviennent pas forcément à la réalité. Un point crucial concerne de
nouveau les mouvements de matière dont l’influence sur le rayonnement
est forte, la dynamique à la fois modifiant le milieu lui-même et agissant directement sur la qualité de la lumière. Si les modèles d’étoile sont
en équilibre hydrostatique, les vraies étoiles ne sont pas celles que ces
schémas statiques essayent de nous faire croire. Et la seule introduction
des paramètres phénoménologiques de microturbulence et de macroturbulence ne règle pas la question, loin s’en faut.
256
les dérives de la cosmologie moderne
La luminosité absolue des étoiles
L’étude de la constitution physique des étoiles est relativement récente.
Elle date de la fin du xixe siècle, alors qu’auparavant une étoile se résumait à un point lumineux dont on exigeait seulement de connaître l’éclat
et la position sur la voûte céleste. Elle a été rendue possible par la découverte des raies spectrales et l’avènement de la spectroscopie, l’analyse
complète des raies par la théorie des atmosphères stellaires permettant
d’accéder à la composition chimique, à la température et à la densité
du gaz stellaire. Mais pourquoi vouloir obtenir toutes ces précisions sur
la physique des étoiles ? L’un des enjeux de la connaissance des paramètres fondamentaux des étoiles réside dans la détermination de leur
distance. Nous l’avons expliqué : pour mesurer cette distance, il faut
pouvoir comparer la luminosité apparente de l’objet céleste à sa luminosité intrinsèque (désignée par absolue par les astronomes). Plus l’objet
est éloigné, plus son éclat apparent est faible : il décroît comme le carré
de la distance. Rappelons que l’on a pu mesurer la distance des étoiles
des galaxies proches (Nuages de Magellan et galaxie d’Andromède)
grâce à la relation de Leavitt. Celle-ci établissait un lien entre la luminosité vraie d’une céphéide et sa période de variation (plus l’étoile pulsait
rapidement, plus sa luminosité était faible), et par conséquent il suffisait
de mesurer la période de pulsation – observation facile – pour en déduire
la luminosité intrinsèque. Connaissant l’énergie totale émise par l’étoile,
ce n’était plus qu’un jeu d’inférer de la mesure de l’énergie reçue sur
Terre la distance de l’objet. Encore aujourd’hui, passer par sa luminosité
intrinsèque est le seul moyen de déterminer la distance d’une étoile. Mais
comment procéder dans le cas général, si on peut dire, pour les étoiles
qui ne sont pas des céphéides ? On doit passer par les modèles. Et c’est
là que les choses se gâtent.
J’appellerai « méthode R2T4 » la façon dont le modèle calcule la
luminosité totale de son étoile numérique. R2T4 : que signifie cette formule ? Elle se présente comme le produit de deux symboles, R2 et T4.
T4 d’abord : le symbole rappelle que l’énergie émise par unité de surface
de l’étoile numérique est en T4, c’est-à-dire en T puissance 4, ou T4. Plus
exactement, cette énergie totale surfacique est donnée par la formule σT4
257
le théorème du jardin
(lire « sigma T4 ») en fonction du paramètre T appelé température effective
et de la constante physique de Stefan-Boltzmann σ. Indiquons déjà que
cette température effective n’est pas une vraie température : en toute rigueur, elle n’est qu’un paramètre servant à mesurer (par la formule indiquée
en T4) ce fameux flux par unité de surface. La température effective est
la température du corps noir en quelque sorte équivalent qui émettrait par
unité de surface la même quantité d’énergie que l’étoile. Mais attention,
on a déjà dit que le spectre de l’étoile n’est pas celui d’un corps noir. R2,
ensuite : pour obtenir la luminosité totale de l’étoile, on multiplie cette
énergie surfacique en T4 par la surface totale du modèle, qui, elle, est en
R2 (depuis Euclide, la surface de l’étoile est proportionnelle au carré R2
de son rayon). R2T4, donc : tout est clair et simple pour le modèle. La
luminosité totale est le produit de la luminosité par unité de surface par
la surface totale. Trop simple, plutôt, car dans la réalité, si la luminosité
totale de l’étoile possède un sens physique bien défini (c’est l’énergie
totale émise dans l’espace par l’étoile sous forme de rayonnement), le
passage à une température exige que l’on choisisse un rayon. Et c’est à
cette phase que la transposition de la réalité à la modélisation pose un
sérieux problème. En effet, le rayonnement des vraies étoiles est issu de
diverses couches, selon la région du spectre considéré, et par conséquent
le rayon en quelque sorte équivalent dépend de la longueur d’onde observée, comme d’ailleurs en dépend la température équivalente. La définition de la luminosité totale R2T4 comme le produit d’une surface en R2
par une luminosité surfacique en T4 est valable pour le modèle d’étoile,
mais c’est le tort d’astrophysiciens trop confiants dans leur modélisation
de croire qu’il s’appliquerait tout de go à la réalité.
En somme, en se servant de la luminosité R2T4, le modèle accorde
à la température T et au rayon R un rôle de premier plan qui n’a pas sa
correspondance dans les étoiles réelles. Il est vrai que, pour certaines
étoiles presque sages (comme le Soleil, pense-t-on), à la surface assez
bien définie, le processus peut fournir de bons résultats, mais d’une part
rien ne permet de savoir a priori si telle étoile observée entre dans cette
catégorie et, d’autre part, les étoiles les plus intéressantes sont les géantes
et supergéantes car on les voit de plus loin, de sorte qu’on peut les utiliser
258
les dérives de la cosmologie moderne
pour sonder de plus grandes distances. Malheureusement (loi de l’enquiquinement maximum oblige), nous avons vu que pour ce type d’astres
les modèles sont grossièrement inadaptés : au final, ce sont les étoiles les
plus utiles qui sont le plus mal modélisées (les mieux modélisées, on ne
les voit pas car elles sont trop faibles). Ainsi, une erreur sur le rayon d’un
facteur 10 (tout à fait envisageable) conduit à une erreur d’un facteur
100 sur la luminosité R2T4 de l’étoile et par conséquent à une erreur
également d’un facteur 10 sur la distance (puisqu’une étoile 10 fois plus
lointaine brille 100 fois moins). Pour l’étoile Véga, dont nous avons parlé
plus haut, il semble que l’indétermination sur la luminosité calculée soit
de l’ordre d’un facteur 2 ; plus précisément, cette étoile semble vue par
son pôle de rotation, mais si elle était vue par l’équateur sa luminosité
pourrait se révéler deux fois plus faible. Pour une étoile supposée servir de standard, la situation est décevante. C’est dire les chausse-trappes
dans lesquelles la méthode R2T4 peut faire tomber les astronomes.
On peut arrêter à ce point la discussion sur les pièges de l’utilisation
simplette des modèles car, en ce qui concerne le but poursuivi, le
verdict de l’expérience est sans appel : la détermination des distances
dans l’Univers est d’une imprécision extrême, incroyable même pour
ceux qui imagineraient que les astronomes manipulent des chiffres
précis (autant le terme courant de précision astronomique convient
aux calculs de mécanique céleste dans le système solaire, autant
l’expression est déplacée dans le cadre de la détermination de tel
paramètre physique d’un astre).
La distance de l’amas des Pléiades, à quelque 440 années de lumière,
n’est pas connue à mieux que 10 % près. Hélas, elle sert de premier étalon pour calibrer l’échelle entière de l’Univers, et on imagine sans peine
que les distances plus lointaines seront encore plus incertaines. La distance de la galaxie d’Andromède, pourtant la plus proche des galaxies,
n’est pas connue à mieux que 20 % près ; on l’estime comprise entre 2,5
et 3 millions d’années de lumière. Enfin, jetons un voile pudique sur la
détermination des distances plus lointaines jusqu’aux milliards d’années
de lumière. En se plaçant dans l’hypothèse la plus favorable, on peut
259
le théorème du jardin
estimer (et retenir) que la barre d’erreur sur la mesure des distances dans
l’Univers est de l’ordre de 25 %. Devant ces incertitudes ahurissantes, on
comprendra les doutes que j’ai exprimés envers les mesures de densité et
de distance dans l’Univers et les critiques que j’ai formulées à l’encontre
des élucubrations sur la matière noire, car ces dernières reposent sur des
mesures de densité de matière (donc de volume, donc de distance). Il
n’y a aucune honte à avouer que nous connaissons très mal les distances
dans l’Univers, mais il faudrait accepter la situation et ne pas tirer des
conclusions hâtives et fausses de mesures approchées. Je considère
en particulier que la méconnaissance de l’échelle des distances dans
l’Univers est une autre « réponse courte » à la question de savoir pourquoi
l’invention de la matière noire est une belle escroquerie. Nous verrons
plus loin que cette même réponse courte s’applique aussi, encore plus
directement d’ailleurs, à la nouvelle arnaque – perseverare diabolicum –
de l’énergie noire.
Le rôle aggravant de l’informatique
Le pire est que l’on ne voit pas de solution : puisque nous n’avons pas
les moyens de déterminer leur luminosité absolue, la détermination de
la distance des étoiles semble hors de portée. Tout en reconnaissant que
la confiance absolue accordée aux modèles d’étoiles à trois paramètres
conduit les astronomes à une impasse, il faut reconnaître que l’astrophysique n’a pas d’autres pistes à proposer. Malheureusement, à ce stade,
un élément empêche les chercheurs de chercher (et donc de trouver),
nourrit l’idolâtrie des modèles et accélère la décadence de la science des
astres : c’est l’outil informatique. Par le productivisme débridé et aveugle
qu’elle permet, l’informatique favorise la fuite en avant d’une astrophysique ignorant la nécessité de vérifier et de valider les résultats par
des tests consciencieux et honnêtes. Pour donner un exemple, il faut
savoir que tout un chacun peut aller faire son marché sur la Toile pour
se procurer des modèles d’étoiles. Sur votre ordinateur, il suffit de choisir la température de l’étoile, sa gravité de surface, la vitesse de microturbulence, quelques autres paramètres – et hop, le modèle est à vous.
Comment imaginer qu’un chercheur qui doit terminer son article dans les
260
les dérives de la cosmologie moderne
mois à venir puisse prendre le temps de critiquer les modèles qui lui sont
fournis par l’intermédiaire de sa souris ? Comment juger de leur qualité ?
Le principal est de publier. Les problèmes de conscience devront être mis
en veilleuse et la science officielle sera bien gardée à l’abri des vagues.
L’informatique entretient l’illusion que les modèles décrivent la réalité grâce à une pléthore de publications dont l’apport à la connaissance du
monde est inexistant. Un bon exemple de ces dérives numériques est donné
par la multiplication des grands projets ou relevés (en anglais surveys)
en général spatiaux (mais pas toujours : il existe aussi des programmes
supergéants d’observation au sol) dans lesquels on procède à l’enregistrement d’un nombre inimaginable de données destinées à être analysées
par la suite à l’aide de boîtes noires dont le contenu physique, quoique
insuffisant, n’est pas remis en question. Le projet de satellite GAIA de
l’Agence spatiale européenne (en anglais European Space Agency, ESA)
a pour mission de réaliser l’arpentage précis de notre Galaxie en mesurant la distance de milliards d’étoiles. Il fait suite au projet Hipparcos et
est censé améliorer la qualité des résultats obtenus par ce dernier (il faut
toutefois avouer que les résultats d’Hipparcos sont peu explicites et, pour
certains, fort discutables). Le traitement de la quantité énorme de données
fournies par les instruments à bord de GAIA représente un défi informatique de taille, qui a été relevé par un consortium d’experts scientifiques
et de développeurs de logiciels. Gageons que les données vont tomber
dru, mais on ne voit pas comment leur interprétation pourrait fournir les
mesures de distance attendues. Que la mission GAIA fournisse la distance des étoiles proches à partir de la mesure de leur parallaxe est une
chose, qu’elle nous livre celle des étoiles lointaines en est une autre. Nous
venons de voir que l’obtention de la distance d’une étoile repose sur la
détermination de sa luminosité intrinsèque et que cette quantité précieuse
est hors d’atteinte de notre astrophysique pour la raison que les modèles
d’étoiles sont physiquement irréalistes et que chaque étoile est unique.
Même si nous arrivons à mesurer la distance de Procyon (l’étoile principale de la constellation du Petit Chien), nous serons incapables de mesurer celle d’autres Procyon, car il n’y a pas d’autres Procyon (la nature ne
se répète jamais : deux étoiles ne seront jamais pareilles). C’est à ce stade
261
le théorème du jardin
que l’informatique joue un rôle pervers car elle fait entrer la science dans
un cycle infernal de production en laissant croire que plus une opération
est grosse, plus elle est efficace et rentable. Or l’expérience est en train de
prouver le contraire : le rouleau compresseur de la quantité tue la recherche
consciencieuse de la qualité. La numérisation à grande échelle va permettre de sortir des distances, beaucoup de distances, et en même temps
des listes impressionnantes de ces fameux paramètres fondamentaux
(température effective, masse, rayon, âge, etc.) décrits plus haut, même si
ces paramètres ont un sens limité. Et, face à cette avalanche de résultats,
il serait mal vu de faire la fine bouche. En imposant sa force brutale, la
production démesurée de données fait oublier l’absence de valeur de leur
interprétation. Corrélativement, cette informatique favorise l’augmentation outrancière du nombre de publications scientifiques. Car de nos jours
les chercheurs ne sont plus tenus de chercher : ils sont tenus de publier. Et
chercher les éloignerait du quota annuel à atteindre. Dans ces conditions,
les grands projets, les grands relevés sont une mine inépuisable d’articles.
Il suffit de laisser les programmes mouliner les données sans se poser de
questions sur la pertinence ultime des résultats.
La récidive de l’énergie noire
Dans la pièce de théâtre L’Honneur et l’Argent du poète et auteur dramatique François Ponsard (1814-1867), Laure exprime à sa sœur Lucile
son regret d’avoir laissé parler son cœur, craignant que cette imprudence
l’entraîne à désobéir à son père, lequel lui enjoint d’épouser un homme
de mœurs douteuses mais riche plutôt qu’un homme d’honneur mais
ruiné :
« Quand la borne est franchie, il n’est plus de limite,
Et la première faute aux fautes nous invite. »
La formule de Laure est pertinente : la première faute professionnelle des cosmologistes a ouvert la voie à une deuxième. Une fois levées
les barrières de la vigilance critique avec l’invention de l’insaisissable
matière noire, rien ne les empêchait plus de persévérer dans leurs
262
Téléchargement