La Dérive des Continents - École des Mines de Saint

publicité
ENSM-SE, 2° A : axe transverse P N
- 1 -
16/10/12
ENSM-SE, 2° A : axe transverse P N
- 2 -
16/10/12
ENSM-SE, 2° A : axe transverse P N
16/10/12
AVERTISSEMENT AU LECTEUR
Malgré 10 années d’existence, des modifications et
ajouts variés, ce poly n’est toujours pas un cours complet. Ce
n’est d’ailleurs pas son objectif, même si sans doute
trouverez-vous ici ou là au long de ces cent quarante pages,
un fourmillement rebutant de connaissances trop (?) pointues
typiques d’un cours. Son propos est de venir en aide au
lecteur dans sa compréhension des processus naturels en le
baladant dans des échelles de temps ou d’espace très varié et
en tirant ici ou là sur la pelote par de multiples brins.
En effet, une approche globale (voire systémique) des
processus est indispensable à la compréhension des
phénomènes naturels et cette culture devient d’autant plus
nécessaire qu’avec les temps modernes, l’homme est bien
devenu la 1ere espèce dont l’activité influencera le futur de
notre planète. Il ne faut ni s’en enorgueillir ni en avoir peur,
mais garder à l’esprit que les générations que nous formons
aujourd’hui auront à agir demain en étant capable de
considérer leur action en termes de problèmes globaux, dans
leur complexité et dans le respect de ce qui l’entoure,
animal, végétal, minéral. Pour ces générations, de plus en
plus peuplées et actives, le caractère holistique des processus
naturels — au sens où ceux-ci ont tendance au travers de leur
La dilapidation des ressources naturelles est, pour les
combustibles fossiles, irréversible pour la fraction déjà
consommée. Elle est même semble-t-il impossible à réduire
pour les sociétés les moins industrialisées2. Face à cette
situation, le plus dérangeant n’est pas tant la disparition
d’une énergie quand d’autres sont renouvelables et
seront largement à la disposition de l’homme dans le
futur, que l’épuisement d’un gisement source d’une foule
d’applications autres qu’énergétiques. Nous, « HomoIndustrialicus » aurons à porter la culpabilité de la
disparition de cette richesse aux yeux de ceux qui suivront.
Oui, sur ce plan là, l’irréversibilité de nos actes est lourde de
conséquences. L’Homme, face au mur, réagira, mais sera-ce
en regard de cette responsabilité ? Il faudra pour cela qu’elle
soit comprise.
S’agissant d’éléments utiles à la fabrication de nos
objets et outils manufacturés, l’épuisement de la ressource
est virtuel. Le recyclage devient la norme constituera le
nouveau gisement, délocalisé et permanent, dont la
raréfaction sera en quelque sorte presque seulement
dépendante de la taille de la population mondiale3.
fonctionnement à créer des ensembles structurés qui présentent des
dimensions supérieures à la somme de leurs parties — imposera
de les aborder avec une pensée complexe en vue d’une
politique de développement soutenable. Le mot anglais
« soutenable » est peut-être préférable à « durable », dont la
connotation temporelle entrave la compréhension du concept
en laissant penser qu’il s’agit de faire durer l’état actuel
quant il s’agit au contraire de le faire évoluer. Le
développement soutenable implique une politique de
croissance responsable et respectueuse, fondée sur la
mitigation1 et non sur un retour supposé vertueux (et
complètement irrationnel) aux temps d’avant, Eden
écologique pour une pensée unique. Viser à limiter l'intensité
de certains aléas tels que ceux liés à des phénomènes
climatiques et géologiques impose d’en saisir les processus
et les interactions. Et même si nous devions en venir à
considérer toute politique de mitigation comme inaccessible,
en terme de coût aussi bien que de technique, il resterait à
fournir l’indispensable effort d’adaptation aux changements
d’environnement qui, de toute manière, attendent notre
espèce et auxquels, de toutes façons, nous n’échapperons
pas !
1
Mitigation : du latin mitigare), signifie atténuation. Dans
le cadre de la prévention de risques majeurs naturels,
l’objectif de la mitigation est d'atténuer les dommages sur les
enjeux, afin de les rendre plus supportables par la société.
2
L’absolue nécessité de rattraper leur retard économique, ou
simplement de cuire, de se chauffer, de se déplacer implique,
pour les sociétés les plus pauvres, l’utilisation des ressources
les moins chères, pour l’heure les combustibles fossiles, quel
qu’en soit le prix à payer à long terme. On voit combien il y
a loin des intentions aux accords (Kyöto, Montréal ou
Copenhague) et des accords aux réalités qui les suivent… La
mitigation passe ici très certainement par notre capacité à
proposer des techniques de substitution au moins aussi
rentables en terme de coût/performance. Une stratégie
adaptative s’impose à nous qui ne relève pas des éco-taxes
ou autres incitations à consommer moins, quand le rêve du
modèle développé pilleur des ressources qui est le nôtre
multiplie les besoins d’une population en pleine croissance,
tant démographique qu’industrielle. C’est une Grameen
green mitigation participative qu’il nous faudra inventer.
3
On voit bien ici comment la mondialisation des échanges
s’accompagne d’une prise de conscience que le jardin
planétaire est borné. L’idée qu’un jour le nombre des
individus devra l’être aussi est déjà perceptible à travers
l’émergence de notions telles que le nombre d’individus que
la Terre est capable de nourrir. Là encore une stratégie
d’adaptation prévaudra sur un « croissez et multipliez »
ancestral, nécessaire au salut d’un groupe initial faible vivant
dans un espace infini pour lui, mais devenu destructeur pour
un groupe nombreux exerçant une prédation forte sur un
- 1 -
ENSM-SE, 2° A : axe transverse P N
L’utilisation des deux ressources vitales, l’air dont
nous commençons à peine à saisir l’importance d’une
gestion, et l’eau, tombée du ciel et donc toujours considérées
comme bénédiction des dieux — utilisez à votre convenance le
singulier ou le pluriel — seront demain au cœur des
préoccupations humaines. Protéger et gérer nécessite une
compréhension claire du cycle de l’eau, du carbone, des
substances contaminantes etc., ainsi que des interactions
entre tous les réservoirs. Passant par nos besoins, cette eau
merveilleuse rejoint un cours d’eau, « diluteur » muet des
rejets dont nous le chargeons, dont nous ne connaissons que
la surface. Parfois seulement (hélas), la vie de ce fleuve vient
nous rappeler au détour d’une angoisse médiatisée que nous
nous sommes forgé un vrai souci (e.g. les PCB). Certes, les
pays industrialisés ont pris conscience qu’ils ont les moyens
de s’éviter des problèmes à venir et l’eau de nos rivières
devient chaque jour moins sale. Pour le reste, l’immensité
océanique si mal connue4 sert encore trop souvent de boîte
de Pandore à nos déchets, on la considère à tord comme un
garde-manger inépuisable, le moyen idéal de circulation sans
entretien pour nos marchandises5, sur des bateaux pollueurs
(fortunes de mer, dégazages, conteneurs etc.), voire parfois
des quasi-épaves flottantes6… Tous ces problèmes ne sont
pas récents. Le Nouvel Obs. écrivait en 2000, N°1879, « 40
000 navires de plus de 300 tonneaux sillonnent en
permanence les océans et un bateau rejoint tous les trois
jours le fond des mers » et de rajouter, presque en
commentaire par anticipation à notre propos, « Mais plus
que naufrages et dégazages sauvages, c’est la terre et ses
fleuves poubelles qui polluent massivement la mer »
Bref,
inconsciemment
ou
pas,
l’homme
d’aujourd’hui a largement mutualisé ses déchets, mais
choisi une démarche conflictuelle (y compris en U.E.7)
pour gérer la ressource. Il eut mieux valu une approche
systémique à l’échelle de la ressource et des déchets générés,
espace fini.
4
La première carte des fonds océaniques, celle de
l’atlantique Nord, publiée par B. Heezen et M. Tharp, date
de 1957, et la publication de l’ensemble des fonds
océaniques mondiaux (par les mêmes auteurs) à attendu
1977. En outre, nous sommes encore très loin d’avoir
identifié toutes les espèces vivantes, leurs cycles de vie, leurs
interdépendances.
5 En 2005, 50.000 navires sillonnaient les mers du globe,
Plus de 6 milliards de tonnes ont transité par mer cette année
là, soit 80% du trafic commercial mondial.
6 Les pavillons de complaisance sont nombreux, les sociétés
de classification des navires ne sont pas toujours
transparentes, 12 seulement des 50 sociétés existantes dans
le monde sont agrées par l’Europe.
pour une gestion commune… Dans « la voie pour l’avenir
de l’humanité » 2011, Edgard Morin explore des possibles
réformes, rêves peut-être, utopies sans doute, mais la route
que l’humanité s’est tracée devra changer ; la réussite de
notre espèce a résidé dans sa capacité à coévoluer avec notre
monde, pas sûr que nous gagnions à refuser plus longtemps
d’en faire partie.
Notre regard est en train de changer. La perception de
la finitude du milieu qui nous accueille (espace et temps),
dont la mondialisation n’est qu’une des manifestations, se
fait jour. Elle vient s’ajouter à celle de la diversité croissante
et non finie des connaissances indispensables à la prise en
compte de la complexité des processus mis en jeux.
L’approche systémique de l’interface
géosphère ∩ Atmo-hydro-sphère ∩ biosphère
est une absolue nécessité pour mieux aider à comprendre et à
réduire la vulnérabilité des enjeux qui nous attendent… Ce
dernier point n’est déjà plus notre propos, et nous limiterons
les objectifs de ce poly à fournir quelques
unes
des
clefs indispensables pour
appréhender les processus naturels
de manière globale.
Il s’agit là d’une obligation particulière, qui impose
une remobilisation très forte de nos modes de
fonctionnement. J’emprunterai aussi à Edgar Morin la prise
de conscience qu’il nous faut faire, que la cause profonde du
danger qui nous guette « est d'abord dans l'organisation de
notre savoir en systèmes d'idées, de théories, d'idéologies »,
que la science peut, par spécialisation excessive, conduire
vers « une nouvelle ignorance liée au développement de la
science elle-même, à l'usage dégradé de la raison. Tant que
nous ne relions pas les connaissances selon les principes de
la connaissance complexe, nous restons incapables de
connaître le tissu commun des choses… …les erreurs
progressent en même temps que nos connaissances. N'est-il
pas urgent de réinterroger une raison qui a produit en son
sein son pire ennemi, la rationalisation?
Utiliser ce poly dans le but d’assembler vos savoirs
en une trame vous donnant à lire la complexité du monde est
beaucoup plus important à mes yeux que d’apprendre par
cœur tel ou tel nom de roche ou de minéral. C’est en le lisant
que vous distinguerez quels sont les bagages nécessaires,
quels viatiques il vous faudra porter pour connaître le tissu
commun des choses sur 5.6 milliard d’années d’une histoire
toujours renouvelée (à différentes échelles), de l’inerte au
vivant, ou comme l’aurait dit C. Allègre, « de la pierre à
l’étoile ».
De la sorte, j’espère que le promeneur trouvera dans
cette lecture un tremplin vers de nombreux sites web ou
bouquins et une aide pour relier entre eux les multiples
savoirs qu’il aura ainsi acquis ou replacés.
Bonne lecture…
7
Est-il besoin d’évoquer ici la nécessité d’une gestion
européenne du Rhin et du Danube ? Faut-il citer le partage
des eaux du Colorado entre USA et Mexique ? Rappeler le
partage du Tigre et de l’Euphrate entre Turquie, Syrie et
Irak ? Rechercher ailleurs que dans l’eau des sources de
l’annexion du Golan Syrien par Israël ? Evoquer la mort des
fleuves Amou Daria et Syr Daria et le sort lié des pêcheurs
de la mer d’Aral, etc.
16/10/12
J.L.B.
Site WEB consulté
http://www.grameen-
- 2 -
ENSM-SE, 2° A : axe transverse P N
info.org/index.php?option=com_content&task=view&id=465&Itemid=
16/10/12
547
Prologue
Un trop bref historique
Aristarque de Samos
Une remarque s’impose : la géologie et sa sœur
jumelle au combien plus âgée, l’astronomie, se distinguent
considérablement des autres sciences car l’expérience
qu’elles étudient est unique, et contient ses
expérimentateurs. Ni l’astronome ni le géologue ne peuvent
agir sur le milieu qu’ils étudient, pour des raisons d’échelle
de temps ou d’espace, et ils doivent donc se contenter de
l’observer ponctuellement de l’intérieur, à la rigueur le tester
en petit, au mieux le modéliser, à partir de données éparses ;
le risque de se tromper est donc grand ! Aussi, la collection
des informations sur des temps qui dépassent souvent la
durée de vie des observateurs a-t-elle joué et joue-t-elle
encore un rôle essentiel dans le progrès de ces sciences. La
bibliothèque d’Assurbanipal contenait au ∼VII° siècle des
tablettes astronomiques dont les plus anciennes remontent
sans doute au ∼8XX° siècle. Ces tablettes évoquent la marche
en zigzag des planètes par rapport aux constellations, et
contiennent des tables des éclipses passées, qui servaient à
prédire celles à venir. On comprend bien ici comment le
développement de ces sciences passe largement par le
stockage et l’analyse d’observations fiables, et donc
parallèlement par l’accroissement des performances des
instruments de l’observation. Toutefois, nous en arrivons
vite à un tel degré d’accumulation de résultats, de
multiplicité des méthodes d’études, que le nombre des
paramètres mesurés devient trop important pour que nous
puissions les appréhender dans leur ensemble. Cela nous
force souvent à recourir à l’image (e.g. les cartes), dont
« l’immanence » parle mieux à notre cerveau que de longues
colonnes de nombres. Néanmoins, pour bien comprendre les
systèmes naturels complexes, il devient urgent d’apprendre
à combiner l’ensemble des informations, en se dépouillant
de l’inutile par la sélection des observations, et en
confrontant l’information à la théorie éphémère, dans un
aller-retour ouvert et fécond sans hiérarchie de valeurs.
Porte ouverte ? Il n’est que de regarder par exemple nos
débats modernes qui rassemblent souvent Grands
Scientifiques et Politiques pour constater que l’argumentaire
idéologique est encore largement présent, et pas toujours
seulement chez le Politique !…
La représentation du monde dans nos civilisations
ouest-européennes est marquée très tôt par une double
démarche. D’un côté, comme l’écrit J.C. Ameisen en 2008 à
propos du vivant dans « Dans la lumière et les ombres »,
« la Genèse fige, une fois pour toute la diversité des espèces
vivantes. Et sépare radicalement la création de l’être
humain de la création de toutes les autres espèces… Tels
qu’ils sont, et demeureront, depuis l’origine ». Ainsi, le récit
8
~ = avant Jésus Christ ; AD = Anno Domini pour après
Jésus Christ.
fondamental des 3 grandes religions monothéistes, très
largement répandu maintenant, interprète-t-il notre univers à
partir d’une intention divine unique et définitive. Le
2°courant de pensée, hérité des Perses, développe, chez les
Grecs, la vision d’un monde habité par les hommes mais
aussi par les dieux et qui ne doit rien à ces derniers. Au ~V°
siècle, pour Anaxagore de Clazomènes, « rien ne se perd,
rien ne se crée, tout se transforme (maxime célèbre que lui
empruntera Lavoisier). Les êtres et la matière ne se
produisent ni ne se créent, mais se transforment. Pour lui,
tout est matière et chaque chose se compose des mêmes
éléments, qu’il aurait nommés atomes, mais en des
proportions différentes. Cette idée préfigure celles de
Démocrite, père de la théorie atomiste. Et le philosophe
généralise sa pensée, écartant un éventuel « intelligent
design » dans la nature : « ce n’est certes pas par réflexion
ni sous l’emprise d’une pensée intelligente que les atomes
ont su occuper leur place ; ils n’ont pas concerté entre eux
leurs mouvements. Mais comme ils sont innombrables […]
et qu’ils s’abordent et s’unissent de toutes les manières
possibles […] il est arrivé qu’après avoir tenté unions et
mouvements à l’infini, ils ont abouti enfin aux soudaines
formations massives d’où tirèrent leur origine ces grands
aspects de la vie : la Terre, le ciel, les espèces vivantes »
Ibid. Dès cette époque, entre ~VII° et ~IV° siècle, pendant
que la bible hébraïque prend la forme que nous lui
connaissons, se met en place en Grèce chez les
présocratiques une démarche scientifique pour laquelle tout
est toujours en train de naître = nature. Les philosophes
mettent l’observation au premier plan de leurs disciplines.
Elle conduira à des déductions très précoces qui auraient pu
nous protéger du géocentrisme…
La question de la forme de la Terre apparaît très tôt
dans l’esprit humain. A l’articulation des ~VII° et ~VI°
siècles avant JC, Thalès de Milet (vers ~625-547) se
préoccupait déjà d’une représentation de l’univers. Dans
celle-ci, la Terre était un disque flottant comme du bois sur
l’eau, dans un espace rempli d’eau, la « matière
primordiale ». On reconnaît souvent dans cette façon de
voir de Thalès l’influence des mythologies anciennes pour
lesquelles l’eau est un élément essentiel, tel le Nil des
égyptiens ou les deux océans inférieur et supérieur à
Babylone. C’est avec l’école de Milet que naît la rationalité ;
elle est la première à distinguer le naturel du surnaturel, et
pour Thalès, la description du monde n’est plus seulement
métaphysique (l’histoire d’une création) mais aussi une
connaissance physique. La recherche de causes naturelles
pour expliquer les phénomènes commence. Parallèlement, la
discussion logique des arguments devient une nécessité.
Anaximandre de Milet (~610-546), élève de Thalès,
est considéré comme le père de l’idée de « nature », c'est-àdire de naissance perpétuelle du monde. Pour lui l’origine
- 3 -
ENSM-SE, 2° A : axe transverse P N
Fig. 1 : le monde et la Terre selon Anaximandre
le jour en été
16/10/12
et vitesses de rotation bien choisis, pour rendre compte du
mouvement des astres autour de la Terre. Le système de
Ptolémée ne sera qu’une variante bien plus tardive, mais
plus efficace, de ces tentatives géocentriques de représenter
notre univers.
Par contre, encore au ~V° siècle, avec Anaxagore de
Clazomène (~500-428), dont nous avons déjà rappelé la
vision atomiste (avant la lettre) d’un monde qui se
réorganise perpétuellement sous la direction d’une forme
d’intelligence organisatrice, le « noûs » (prononcer nousse),
l’observation du cosmos fait sortir les astres du panthéon.
Pour lui, ils ne sont pas des dieux mais des masses
incandescentes. Il a eu l’intuition que les planètes et la Lune
étaient des corps solides analogues à la Terre, lancés dans
l’espace. Il en avait déduit que les éclipses de Lune résultent
de l'immersion de celle-ci dans l’ombre de la Terre, et que la
lumière qu’elle émet n’est que le reflet de celle du Soleil…
Il en mourra, car pas plus dans le monde grec de l’époque
qu’après ou ailleurs, il ne fut et n’est partout possible
d’irriter sans risque les croyances ou les tenants du
blasphème facile.
la nuit en hiver
http://fr.wikipedia.org/wiki/Anaximandre
La Terre… sans l’océan
du monde n’est plus un point singulier dans le temps, mais
une perpétuelle naissance dont découle ce qui est ou sera. Il
vise à sortir les 4 éléments, l’air, la terre, l’eau et le feu de
leur conception mythologique pour en donner une
explication physique et expliquer comment se sont formés la
Terre et les êtres vivants à partir des interactions entre les 4
éléments. Sa conception de l’univers est cylindrique (Fig. 1).
Celui-ci est infini et la Terre en occupe le centre, où elle
flotte en équilibre ; elle est un cylindre de hauteur égale à
1/3 de son diamètre, entouré d’une masse océanique
circulaire. Un tel modèle cylindrique autour de la Terre rend
compte (Fig. 1) de la disparition des astres sous l’océan
(jour-nuit) et de la hauteur variable des astres dans le ciel
(saisons), questions sur lesquelles la représentation de
Thalès venait buter. Pour plus de détails, lire l’article
aisément accessible de Wikipedia.
Avec Pythagore, (vers ~580 – vers ~490), bien
connu pour son fameux théorème, apparaît au ~VI° siècle la
sphéricité de l’univers (qu’il nomme cosmos). Mais il ne la
démontre pas, elle est nécessaire ; L’empreinte
mythologique est forte encore, la sphéricité du monde,
comme le caractère circulaire des orbites se doivent d’être
parfaits. Il a été fortement marqué par la science des
nombres, le calcul arithmétique, la géométrie et
l’astronomie, et en fait les principes fondamentaux de sa
vision du monde et de la cité. Pour lui les lois naturelles
reposent sur des lois mathématiques. Les élèves de l’école
pythagoricienne seront à l’origine d’idées très fécondes :
pour Philolaos de Crotone, vers ~470, la Terre sera mobile
dans le cosmos ; plus tard, pour Hecitas de Syracuse, au
~IV° siècle, la Terre tournera sur elle-même… C’est à
Parménide, (vers ~510 – vers ~450) que l’on attribuera le
plus souvent la rotondité de la Terre, même s’il est probable
qu’il faille l’attribuer à Pythagore. La même philosophie de
perfection des cercles ou sphère portant les divinités est
encore présente au ∼V° siècle quand Eudoxe, élève de
Platon, propose une représentation du mouvement des
planètes par des mouvements circulaires uniformes, «seuls
dignes de la perfection des corps célestes». Il faudra à
Eudoxe un total de 27 sphères emboîtées (Fig. 2a), aux axes
Ainsi, si Socrate (~470-399) est souvent considéré
comme le père de la philosophie occidentale, c’est d’abord
parce qu’il compte parmi les inventeurs de la morale. Sa
vision du monde est essentiellement spirituelle. Son monde
était divisé en deux domaines, celui des hommes et celui des
dieux ; Ce faisant, il remplace par des causes finales les
causes physiques des phénomènes naturels mises en avant
par les présocratiques, dont nous venons de parler.
Expliquer le comportement des astres (réputés du domaine
des dieux) par le raisonnement (pertinent dans le seul
domaine des hommes) est donc synonyme d’impiété. Ainsi
Socrate est en parfait accord avec l’idée de causalité
ordonnatrice des choses chez Anaxagore, mais il rejette
toute causalité mécanique du même auteur…
Avec Démocrite, (vers ~460 – vers ~370), on
retrouve l’idée de nature, et celle-ci est composée pour
l’auteur du ~IV° siècle de 2 principes : ce qui est plein, qu’il
nomme atomes et entre les atomes, le vide (ou néant). Les
atomes sont solides et indivisibles, leur taille les rend
inobservables. Ils constituent tous les composés, donc les 4
éléments, l’air, la terre, l’eau et le feu. Ils se déplacent
éternellement, dans le vide infini, ils génèrent toute chose en
se réunissant, et se maintiennent ensemble jusqu’à leur
dispersion, destruction de toute chose… Belle intuition…
A la même époque, ~V°- ~IV° siècle, Platon (~427348) creuse le sillon tracé par Socrate avant lui, en
particulier dans son approche de l’éthique et dans le principe
de causalité. Ainsi lit-on dans http://fr.wikipedia.org/wiki/Platon.
« Pour connaître le monde, il faut se rapporter à sa
cause… » et « …pour que le monde sensible existe il faut
qu’un démiurge le crée ». L’empreinte mythologique se
traduit dans la conception de
l’univers de Platon : La terre est Fig. 2a : sphères d’Eudoxe
au centre et immobile ; le
mouvement des planètes est
expliqué par un système de
sphères emboitées.
Eudoxe
de
Cnide,
(~408-355) fut l’élève de
Platon ; Il est connu pour sa
- 4 -
ENSM-SE, 2° A : axe transverse P N
Fig. 2b : déplacement rétrograde
de Mars sur la voûte étoilée,
explication héliocentrée
16/10/12
Fig. 3 : la Terre tourne sur elle-même
théorie
des
sphères
homocentriques (Fig. 2a)
qui sont venues parfaire le
modèle de Platon. Pour
rendre
compte
du
déplacement
rétrograde
apparent des planètes
externes sur la sphère
étoilée (Fig. 2b), le
mouvement de chaque
astre est construit par la
combinaison des mouvements de plusieurs sphères. Le
système géocentré des sphères homocentriques est faux,
mais il est néanmoins d’une précision remarquable
puisqu’Eudoxe calcule une durée de l’année égale à 365
jours ¼ ! Toutefois, ce système complexe présente un défaut
majeur dont il semblerait qu’il fut décelé très vite, à
l’époque d’Eudoxe : chacune des planètes reste à une
distance fixe de la Terre. Or, elles offrent une luminosité
variable, qui ne s’explique qu’en faisant varier leur distance
à la Terre. Ce défaut ne sera gommé que plus tard, au II°
siècle AD, par Ptolémée. Nous y reviendrons.
Au ~IV° siècle, Aristote (~384-322) est le fondateur
du Lycée, aussi nommé école péripathétique puisque l’on y
enseignait en marchant. Les idées d’Anaxagore lui
permettront l’observation de la rotondité de la Terre, grâce à
l’ombre portée par la Terre sur la Lune lors d’une éclipse.
Mais il fut surtout un disciple de Platon, d’abord
dogmatique puis ensuite plus critique, mais il resta
néanmoins un philosophe spiritualiste. C’est pourquoi Saint
Thomas d’Aquin fera de la philosophie aristotélicienne, 17
siècles plus tard, l’un des piliers de la doctrine chrétienne
catholique, servant de référence à la fois spirituelle et
scientifique…
Héraclide du Pont (∼IV° siècle encore) eut quant à
lui l’idée de faire tourner la Terre sur elle-même pour
expliquer le mouvement apparent des étoiles (Fig. 3). Pour
les Grecs cultivés de cette époque, la sphéricité des corps
célestes ne faisait plus de doute, et les notions de latitude et
de longitude sont alors apparues.
Aristarque de Samos (~310-230),
allait « pousser le bouchon » fort loin, en
affirmant que la Terre est non seulement
ronde et qu’elle tourne sur elle-même, mais
encore qu’elle tourne autour du Soleil. Cela
explique dès cette époque l’alternance des
saisons et simplifie considérablement le
système des sphères d’Eudoxe. Il va plus loin
encore en observant que le diamètre apparent
de la Lune peut être reporté trois fois dans le
disque d'ombre de la Terre. Le diamètre de la Lune déduit
du diamètre du cylindre d'ombre vaut donc 1/3 de celui de la
Terre. Il mesure la taille angulaire du disque lunaire ∆
comme étant égal à 1°, commettant là une erreur du simple
au double (il n’est que de 0.5°) et calcule alors la distance
Terre-Lune en fonction de cet l’angle solide et du diamètre
D de la Lune, qu’il a estimé à 1/3 de celui de la Terre. On
pourrait écrire l’approximation suivante :
∆ x 180 / π x D = 57 x D
Mais l’évaluation précise de π ne sera faite que plus tard, par
Archimède de Syracuse (~287-212) et les notions de
trigonométrie n’apparaîtront qu’au ∼II° siècle avec
Hipparque de Nicée (~190-120). Aristarque utilisa donc
pour ses calculs les tables de données astronomiques
héritées des babyloniens, remontant jusqu’à Ninive aux
environs du ~XX°. Aristarque observe aussi que le demiquartier de Lune se produit lorsqu’elle reçoit les rayons
solaires de façon exactement perpendiculaire au segment
Terre-Lune (Fig. 4). Il mesure l’angle sous lequel se situe le
Soleil par rapport au segment Terre-Lune, égal à 87° (il est
en fait de 89.85°) et calcule une distance Terre Soleil égale à
19 fois ce segment Terre-Lune. Son erreur de mesure sur
l’angle (2°85) est suffisante pour que le résultat de la
distance relative Terre-Soleil soit très largement minoré ;
cette distance est 22 fois plus grande. Mais avec Aristarque,
tous les éléments de l’héliocentrisme sont en place. On peut
dire que dès cette époque, les Grecs anciens ont développé
tous les arguments qui auraient dû faire perdre à notre globe
« son caractère immuable et privilégié, au centre de tout »
(E.Universalis). Pour substituer à la création parfaite et
immuable des dieux l’image moderne d’un univers en
mouvement et en perpétuelle évolution (ou renaissance),
conforme à l’idée de nature, il ne manquait plus que
l’observation
clairvoyante
des
fossiles
(bien
qu’Anaximandre de Milet ait déjà entrevu la transformation
du vivant dès le ∼VI° siècle).
Au ∼III° siècle, Eratosthène (276 - 194) pratiqua la
première mesure précise de la sphéricité de la Terre (Fig.
5) ; il avait noté qu’au solstice d’été les puits d’Assouan
(Syène à l’époque) étaient inondés de lumière, alors que
Fig. 4 : la mesure de la distance Terre Soleil par Aristarque de Samos
Fig. 5 : 1° mesure de la rotondité de la Terre
Encyclopedia universalis
- 5 -
ENSM-SE, 2° A : axe transverse P N
Fig. 7 : illustration de la théorie des épicycles
Fig. 6 : point vernal et déplacement de l’axe de
rotation de la Terre sur le cône de precessio,
l’obélisque d’Alexandrie conservait une ombre. Estimant
que ces deux localités sont sur le même méridien, il mesura
une différence de latitude de 7°12’ (au lieu 7°07’);
connaissant la distance des 2 sites aux approximations près
de l’époque, il en déduisit une valeur de la circonférence
terrestre de 250000 stades, soit environ 46000 Km (soit 128
Km/°), une valeur somme toute très approchée des
40000 Km mesurés de nos jours (soit 111.11 Km/°) !
Au ∼II° siècle, Hipparque (190 – 120), allait faire
l’invention géniale de la précession des équinoxes9 (Fig. 6).
On sait aujourd’hui que la précession est provoquée par le
couple de forces exercées par la Lune et le Soleil (1 seul
corps dans la figure 6) qui tend à ramener l’axe de rotation
de la Terre sur la normale au plan de l’écliptique. Le
déséquilibre introduit par ce couple provoque la rotation de
l’axe de la Terre autour de la normale au plan de
l’écliptique. Hipparque observa que la position de l’étoile
9
16/10/12
il remarqua que l’axe de rotation de la Terre décrit un cône
à la manière d’une toupie (en 36000 ans d’après Ptolémée).
En mécanique, un objet tournant tel une toupie ou un
gyroscope va connaître un mouvement de précession s'il
n'est pas équilibré, c'est-à-dire si la résultante des moments
des forces qui s'exercent sur lui n'est pas nulle. Dans ces
conditions, la période de précession TP est la suivante:
TP = 4π2.Is / C.Ts
Dans laquelle: Is est le moment d'inertie, Ts la période de
rotation autour de l'axe de rotation et C est le couple.
http://serge.mehl.free.fr/chrono/Hipparque.html
Spica avait changé depuis les descriptions des Babyloniens.
Il calcula, en comparant la position de l’étoile Spica à
l’époque de Babylonien et à son époque, que l’axe de
rotation de la Terre s’était déplacé de 2° sur le cône de
précession ! Il estima que le déplacement était de l’ordre de
1°/siècle (au lieu de 72 ans) et qu’il était le même pour
toutes les étoiles. Il allait hélas aussi réinventer le
géocentrisme.
Il allait en cela être suivi au II° siècle AD par
Ptolémée. Dans son ouvrage « de Megale Syntaxi », rédigé
en grec mais très répandu grâce à une traduction latine
(« Almagestum »), Ptolémée invente la théorie des
épicycles. Cette idée est si brillante qu’elle nous inspirera
jusqu’à la Renaissance. Il est vrai que le discours sur les
astres de Ptolémée n’est pas entaché des défauts du système
d’Eudoxe. La théorie des épicycles (Fig. 7) rend
parfaitement compte des mouvements apparents des
planètes et introduit les changements de distance à la Terre
nécessaires. Elle s’ajuste parfaitement à plusieurs siècles
d’observations, et fait naître des tables numériques et des
règles de calcul très performantes, qui permettent de prédire
avec précision le positionnement des planètes et des étoiles.
Les connaissances des grecs nous seront transmises par les
Arabes, enrichies de nouvelles observations acquises par la
construction d’observatoires réputés, comme celui de
Bagdad au IX° siècle. Le principal mérite reconnu aux
romains est d’avoir su archiver et traduire les connaissances
de leurs administrés. Les tables de calcul de Ptolémée seront
réécrites au XIII° siècle sous Alphonse X de Castille (Tables
- 6 -
ENSM-SE, 2° A : axe transverse P N
Alphonsines), car le rôle essentiel de l’astronomie et de la
médecine de l’époque se confond encore, comme dans
l’antiquité, avec ce que nous nommons aujourd’hui
astrologie. On voit encore mal comment, face à tant de
cyclicité, tant de prédictibilité, l’esprit humain pourrait un
jour admettre définitivement qu’il n’est pas régit par un
Ordre supérieur. Même de nos jours, bousculée par
l’astronomie moderne, la « science divinatoire» a certes
quitté le panthéon astronomique, mais c’est pour mieux
crédibiliser le thème astral, le tarot ou la boule...
Pour la première fois depuis Aristarque, le Soleil
revient au centre de notre monde avec les redécouvertes de
Copernic (« Commentariolus » écrit en 1514 et « De
Revolutionibus orbium coelestium », 1543). Il remplace les
sphères de Ptolémée par des «orbes» solides qui entraînent
chacune des planètes autour du Soleil. Pourtant, l’œuvre de
Copernic n’est déterminante que parce qu’elle implique
l’héliocentrisme. Elle ne repose sur aucune observation
nouvelle, et si Copernic place le Soleil au centre du monde,
c’est seulement parce qu’il est l’astre le plus brillant et que
c’est de lui qu’émanent chaleur et lumière. En outre, il
considère comme les philosophes anciens que le mouvement
circulaire et uniforme est le seul possible car «le plus
parfait ». Dans la 2° moitié du XVI° siècle, Tycho Brahe
fait construire par Frédéric, roi de Danemark, un
observatoire remarquablement instrumenté, qui lui permet
d’accumuler 20 ans d’observations systématiques de la
Lune, des planètes et du Soleil, avec une précision angulaire
exceptionnelle, de l’ordre de la minute. Johannes Kepler,
adepte de Copernic, tirera des cahiers que Tycho Brahe
laisse à sa mort en 1601 que les orbites solaires ne sont pas
des cercles mais des ellipses, et que le Soleil en occupe l’un
des foyers. Il déterminera alors le mouvement réel des
planètes.
L’Eglise ne s’opposa pas tout de suite au système de
Copernic. Elle, qui considérait la création de Dieu comme
parfaite et donc immuable10, n’y voyait qu’une nouvelle
méthode de calcul des tables des planètes. Ce n’est que
lorsqu’elle réalisa que cela remettait en cause le
géocentrisme d’Aristote qu’elle réagit, en brûlant vif en
1600 le disciple de Copernic Giordano Bruno qui affirmait
que les étoiles sont d’autres soleils, puis en condamnant
Galilée en 1633. En effet, grâce à l’usage de la lunette
(1610), les observations de Galilée sur la rotation du Soleil,
les satellites de Jupiter et les phases de Vénus, témoignaient
avec une précision redoutable en faveur du système de
Copernic.
Parallèlement, le médecin Fernel avait tenté dès
1530 de mesurer un arc de 1° en partant de Paris. Après
avoir parcouru 1° de latitude vers le nord, il revint à son
. C’est le même fixisme  pilier de la pensée officielle
fondée par la scolastique sur un corpus de textes choisis
rigoureusement (essentiellement le nouveau et l’ancien
testament, plus les écrits aristotéliciens)  qui s’opposera
encore au XIX° siècle aux idées transformistes de JeanBaptiste de Monet de Lamarck
(" La Philosophie
zoologique ", 1809) puis et surtout à l’évolutionisme que
Charles Robert Darwin développe en 1859 dans "
L’Origine des espèces ".
10
16/10/12
point de départ par le coche, en comptant le nombre de tours
de roue effectué par celui-ci. Après moult corrections de
topographie, il obtint la valeur de 110.6 km. En 1617, le
géographe hollandais Snellius, inventeur de la mesure à
longue distance par triangulation donnait une valeur très
inexacte de 107 km pour 1° en hollande. L’abbé Picard, en
inventant le théodolite en 1669 (lunette de Galilée munie
d’un réticule), permet des mesures plus précises et obtient
aux environs de Paris la valeur de 111.212 km. C’est à peu
près à cette époque (1660-1665) qu’Isaac Newton formula
sa fameuse loi de la gravitation universelle, qu’il ne publiera
que plus tard, en 1687, mais il est important de noter
qu’avec la mesure du méridien terrestre, Newton a pu
entreprendre la première vérification numérique de sa loi.
Admettons avec lui en première approximation que le
mouvement de la Lune ne dépend que de la Terre, qu’il est
circulaire autour de la Terre et que la Lune est animée d’une
vitesse angulaire ω constante. Posons encore que
l’accélération de la pesanteur terrestre est égale à g à la
surface de la terre, c’est à dire à la distance R du centre de la
Terre, et qu’elle vaut ω2D au centre de la Lune. Leur rapport
g/ ω2D est égal au rapport inverse du carré des distances
D2/R2. Or en raison de l’observation de la parallaxe
astronomique de la Lune, le rapport D/R est déjà connu avec
précision à cette époque, et Newton put calculer la valeur du
rayon terrestre R= g/ω2*(R/D)3. L’excellente cohérence de
ce calcul avec le résultat de la mesure de Picard allait
l’encourager grandement à publier ses résultats. En 1672, à
l’occasion du déplacement d’une horloge à Cayenne,
l’horloger Richer constate que celle-ci, parfaitement réglée
à Paris, prend ici un retard de 2’30’’ /jour. Newton
interprète immédiatement ce retard comme le résultat de la
force axifuge (nulle au pôle et maximum à l’équateur) qui
diminue la valeur de g, et il comprend aussi que cette Terre
qui pour lui avait dû se comporter comme un fluide en
révolution au moins durant ses premiers âges, devait aussi
avoir la forme d’un ellipsoïde de révolution. La mesure de
1°d’arc méridien devrait donc augmenter de l’équateur au
pôle (fig.4 Chp. 3.A.2).
Dans Philosophiae naturalis principia mathematica,
qui est souvent considérée, avec le De revolutionibus de
Copernic, comme une des œuvres majeures de l’esprit
humain, Isaac Newton allait enfin formuler en 1687 la
synthèse tentée pendant tant de siècles entre les phénomènes
terrestres et célestes, et mise au goût du jour par Copernic,
Brahe, Galilée et Kepler. Principe de l’inertie, loi de
l’accélération F = mg, et enfin principe de l’action et de la
réaction constituent la base de l’ouvrage. Ensuite, à partir
des lois de Kepler, Newton remonte à la cause première, la
gravitation universelle: «Deux corps quelconques s’attirent
en raison directe de leurs masses, et en raison inverse du
carré de la distance de leur centre de gravité». Certes, la
vulgarisation définitive des idées des grecs anciens et des
coperniciens devra attendre les vues prises des grands
télescopes et des satellites qui nous en apporteront la
confirmation par l’image, mais avec Newton les outils du
raisonnement sont déjà en place et la planétologie peut dès
lors avancer à grand pas.
Au début du XVIII° siècle, à la suite d’une mesure
erronée de la longueur du méridien Dunkerque-Perpignan,
Cassini prétendait, en désaccord avec les idées de Newton,
que la Terre avait la forme d'un citron, avec un rayon polaire
plus grand que le rayon équatorial. C’est P.L. Moreau de
- 7 -
ENSM-SE, 2° A : axe transverse P N
Maupertuis qui vérifia le premier l’aplatissement polaire de
notre globe. Il compara la longueur d’un arc de méridien
qu’il mesura lors d’une expédition en Laponie en 1736-1737
avec la longueur de l’arc de méridien mesuré à Paris. Lors
de la campagne d’exploration menée au Pérou, de 1735 à
1744, P. Bouguer et C. M. de La Condamine effectuèrent la
même mesure. Les résultats sont sans appel! Le rayon
polaire est de 6356 Km et le rayon équatorial de 6378
Km, 22 Km de différence, et la Terre n’est donc
décidément pas ronde. Aller plus loin dans l’analyse des
formes de la Terre attendra ensuite l’avènement du satellite
artificiel, dont le détail de la trajectoire, en nous renseignant
avec précision sur la distribution des masses à l’intérieur du
«globe» terrestre, nous permettra passer de la morphologie
mathématique de l’ellipsoïde à la forme mesurée de
l’équipotentielle de pesanteur, que nous appelons géoïde.
Néanmoins, dès la fin du XIX° siècle, Wiechert avait
montré par l'analyse des mouvements du globe que la Terre
est constituée d'au moins 2 couches de densités très
différentes. En effet, le moment d'inertie de la Terre serait
égal à 0.4 MR2 (M = masse, R = rayon) si elle était
homogène et de densité uniforme; il est en fait plus petit
(0.33MR2), ce qui indique un excès de masse vers son
centre. A l'aube du XX°, les 3 couches essentielles de notre
planète sont reconnues. Les coupures sont de nature
chimique :
1 - l'atmosphère - Associée à l’hydrosphère, elle
regroupe les éléments volatils et gaz rares; son histoire
est encore largement controversée ;
2 - le manteau - Il est solide et de nature silicatée; la
croûte terrestre, elle aussi de nature silicatée ne
représente qu’une pellicule superficielle à la surface du
manteau dont elle dérive ; longtemps mise en doute, la
séparation du manteau en deux réservoirs indépendants
est maintenant largement acceptée, avec un manteau
inférieur relativement primitif et un manteau supérieur
appauvri parce qu’ayant donné naissance à la croûte
terrestre.
3 - le noyau - Il est liquide et de nature métallique (fer) ;
le cœur, ou graine, est solide. Il donne naissance au
champ magnétique terrestre.
16/10/12
Les mêmes coupures, avec présence d'un noyau
métallique Fe ou Fe+S, sont observables sur les autres
planètes dites « telluriques » proches du soleil (Fig. 8a),
alors que les planètes plus éloignées, à cœur rocheux de
petite taille, dites « joviennes », n'ont pas de noyau
métallique Fe ou Fe+S (Fig. 8b). Les télescopes puissants du
XX° siècle auront largement contribué à l’observation des 9
planètes de notre système (Tableaux 1 à 3), mais il reste
beaucoup à faire pour en comprendre la physique, la chimie,
et par delà, l’origine et le devenir.
Notons ici que la distribution des masses volumiques
des corps du système solaire n’est pas quelconque (tableau 2
et fig.9). Situées au voisinage du Soleil, les planètes
rocheuses et leurs satellites ont une masse volumique élevée
(ρ>3Kg/dm3) dans la première séquence. Elles sont donc
très largement appauvries en éléments légers par rapport au
reste. Mercure, Vénus et Mars voient leur masse volumique
décroître avec la distance au Soleil. Le couple Terre Lune
n’obéit pas à cette loi (ρ= 5.52 et ρ=3.34 respectivement),
même si le barycentre des deux masses volumiques
(pondéré par les volumes) occupe une place moins anormale
(ρ= 5.46). La naissance tourmentée de ce couple, que l’on
pourrait presque considérer comme une planète double, est
une cause probable de perte supplémentaire en éléments
légers (cf. Chp. 4.D.1). Jupiter (en vert) est la première des
planètes externes (gazeuses) ; elle appartient à la deuxième
séquence, mais montre encore de nombreux satellites dont la
masse volumique moyenne supérieure à 2 les situe encore
dans la première séquence de la figure 2. Saturne (deuxième
planète gazeuse) et son cortège (violet), apparaissent
clairement comme les corps les moins denses de notre
système ; ils constituent toute la troisième séquence et la
partie «légère» de la deuxième. Enfin, Uranus (marron),
Neptune (bleu) et Pluton (cyan) se rangent par ordre
croissant de masse volumique avec leur distance au Soleil,
et appartiennent toutes trois à la séquence moyenne, de
densité voisine de celle du Soleil (en jaune). Une telle
distribution des masses volumiques autour d’un minimum
assez éloigné du Soleil (Saturne) impose une histoire
précoce complexe à notre étoile et à son cortège de planètes,
nous y reviendrons.
Fig. 8a : Les planètes rocheuses ;
Mercure Venus Terre Mars
Fig. 8b : Les planètes gazeuses ;
Jupiter, Saturne, Uranus Neptune,
- 8 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Tableau 1: Les planètes du système solaire et leurs satellites
VÉNUS
MERCURE
TERRE
MARS
Lune
Phobos
Deimos
JUPITER
Métis
Adraste
Amalthée
Thébé
Io
Europe
Ganymède
Callisto
Léda
Himalia
Lysithée
Elara
Ananké
Carmé
Pasiphae
Sinope
SATURNE
Atlas
Janus
Prométhée
Epiméthée
Mimas
Pandore
Encelade
Thétis
Télesto
Calypso
Dioné
Rhéa
Titan
Hypérion
Iapetus
Phoebé
URANUS
Miranda
Ariel
Umbriel
Titania
Obéron
NEPTUNE
Triton
Néréide
PLUTON
Charon
.
Tableau 2: Planétologie comparée : rayons et masses volumiques du Soleil, des planètes et de leurs satellites
Corps
Rayon
Soleil
Mercure
Venus
Terre
Lune
Mars
Phobos
Deimos
Jupiter
Léda
Adraste
Ananké
Sinope
Lysithée
Métis
Carmé
Pasiphae
Elara
Thébé
Amalthée
Himalia
Europe
Io
Callisto
Ganymède
695000
2440
6052
6378
1737
3397
10
6
71492
8
10
15
18
18
20
20
25
38
50
90
93
1569
1815
2403
2631
Masse Volumique
1.41
5.42
5.25
5.52
3.34
3.94
2
1.7
1.33
2.7
4.5
2.7
3.1
3.1
2.8
2.8
2.9
3.3
1.5
1.8
2.8
3.01
3.55
1.86
1.94
Corps
Rayon
Saturne
Pandore
Prométhée
Epiméthée
Janus
Phoebé
Hypérion
Mimas
Encelade
Thétis
Dioné
Iapetus
Rhéa
Titan
Uranus
Miranda
Ariel
Umbriel
Obéron
Titania
Neptune
Triton
Pluton
Charon
60268
45
50
55
90
110
150
196
250
530
560
730
765
2575
25559
236
579
585
761
789
24764
1350
1137
586
Masse Volumique
0.69
0.7
0.7
0.7
0.67
0.7
1.4
1.17
1.24
1.21
1.43
1.21
1.33
1.88
1.29
1.15
1.56
1.52
1.64
1.7
1.64
2.07
2.05
1.83
Fig.9 : distribution des poids volumiques dans le système solaire. Elle se découpe en trois séquences : la première, à
droite, débute avec Léda à la "densité" 2.7 et se termine avec la Terre (r=5.52) ; la deuxième est celle des "densités"
moyennes, elle est centrée autour de celle du Soleil ( r=1.41) et s’étale continûment entre Miranda (r=1.15)et
Triton(r=2.07) ; la troisième, de "densité" minimale (r=0.7) est celle de Saturne et de certains de ses satellites.
6
5
4
3
2
1
0
s
u
n
aJ
e
rn
u
ta
S
er
o
d
n
a
P
…
té …
h
t éb
m ém eo
o
r ip h
PEP
a sa si
d té
n
i h
ar m
i MT
M
s
tu
e
p
Ia
e
d
lae
c
n
E
s
u
n
ar
U
aé
h
R
re
it
p
u
J
n
io
ré
p
y
H
ile
l
o
S
é
n
io
D
é
b
é
h
T
le le
ir ir
b A
m
U
e
n
u
t
p
e
N
n ai
o
ré n
a
b itT
O
s eé n
o h o
r
m
ie tla ah
D mC
A
- 9 -
o
ts
lil
a
C
n
tai
T
…
è s
o
m
y b
o
n
a h
GP
n
o
t
u
l
P
n
to
ir
T
a
d
é
L
ék
n
a
n
A
é si ali ea
t
m
ra é a h
i
i p
C Mm
H sa
P
e
p
ro
u
E
eé
th
is
y
L
e
p
o
n
i
S
ar
al
E
e o
s e s e e
n I ra ts u ru rr
u M ar n
e c e
L
d V re T
A M
ENSM-SE, 2° A : axe transverse P N
16/10/12
Tableau 3: planétologie comparée
Planète
Mercure
Vénus
Terre
Distance au soleil (u.a.)
Période de révolution
(jours)
Temps de rotation
Obliquité de l’axe de
rotation
Inclinaison sur l’écliptique
Excentricité de l’orbite
Rayon équatorial (km)
Rayon polaire
Aplatissement
Masse (unité de masse
:Terre)
Densité moyenne
Pesanteur à l’équateur
Vitesse de libération (km/s)
Nombre de satellites
connus
Champ magnétique
0.387
0.723
1.000
87.969
224.701
365.256
58.65j
-243.01
23.934 h
0°
- 2°
7.00
0.205
2439
2439
O
Jupiter
Saturne
Uranus
Neptune
Pluton
1.523
5.202
9.538
19. l8l
30.057
39.44
27.321
686.980
4332.589
10759.22
30685.4
60189.0
90465.0
id.
24.622h
9.841 h
10.233 h
l7.2 h
l7.8h
L6.38 h
23.44°
L 6.41 °
23.98°
3.08°
29°
97.92°
28.80°
?
3.39
0.006
6052
6052
O
0.016
6378
6356.5
r 0.003
1.32
0.055
1738
1738
0
1.85
0.093
3397
3380
0.005
1.3
0.048
71998
66770.
0.062
2.49
0.055
60000
54000
0.105
0.77
0.047
26145
?
?
1.77
0.008
24300
23650
0.02
17.2
J 0.250
l20O?
?
?
0.055
0.815
1.000
0.12
0.107
317.893
95.147
14.54
17.23
0.002 ?
5.42
3.78
4.3
5.25
8.60
10.3
5.52
9.78
1.2
3.34
1.63
2.37
3.94
3.72
5.0
1.314
22.88
59.5
0.69
9.05
36.6
1.19
7.77
21.22
1.71
11.00
23.6
r 0.6-l.7?
r 4.3?
5.3 ?
O
O
1
-
2
17
21
15
8
2/100 du
champ
terrestre
0°C
-70°C
0. 1 54
CO2 95%
N2 5 %
qqs mbar
l0-4
T
à
15.10-4 T
oui
oui
oui?
?
-145°C
-133°C
-223°C
-193°C
?
0.6
Peut-être
un ancien
satellite de
Neptune?
1/100 du
champ
terrestre
+430°C170°C
0.055
Température au sol
Albédo
Atmosphère
Pression au sol
Particularités géologiques
remarquables
Mars
non
-
3.3.10-5T
non
460°C
0.7
CO2 96:5%
N2 3.5%
95 bars
Pas
Révolution
d’évolution
Rétrograde
depuis 3.5. l09
Atmosphère
années au
dense
moins
Principaux atomes
reconnus (à la surface
pour les planètes
telluriques)
Si O Fe Ti
à
7.10-5 T
+50°C
-90°C
039
N2 78%
O2 21%
1 bar
Lune
Faible Et
fossile
+120°C
- 180 °C
0. 1 2
non
-
.Présence de
vie Un gros
satellite : la
Lune
Satellite de
la Terre
Présence
de glace
d’eau
Si Al Mg Fe Si O Al Mg Mn
O
Fe K Ca Ti
Si Al O Ca
Mg Fe
Si O Al Mg
Fe S Mg Ca
4.
0.45
He 17%
H2 82%
?
Rayonne
2.5 fois +
d’énergie
qu’il n’en
reçoit
Anneaux
0.45
0.46
93% H2
H2
?
Rayonne
1.8 fois +
d’énergie
qu’il n’en
reçoit
Anneaux
?
0.53
Oui mal
connue
?
Présence
d’anneaux
Révolution
rétrograde
La plus
dense des
géantes
Anneaux
Présence d’un petit noyau de silicates et de glaces
entouré d’hydrogène et d’hélium sous forte pression et
sans doute à l’état métallique
oui
?
?
Sites WEB consultés
http://msowww.anu.edu.au/library/thesaurus/french/
http://www.earthsky.com/
http://www.damtp.cam.ac.uk/user/gr/public/index.html
http://www.bnf.fr/web-bnf/expos/ciel/index2.htm
http://pubweb.parc.xerox.com/map
http://visibleearth.nasa.gov/Atmosphere/
http://www.solarviews.com/eng/homepage.htm
http://www.astrosurf.com/lombry/menu-science.htm
Quelques idées fortes
http://www.iap.fr/saf/ http://solarsystem.nasa.gov/index.cfm
http://www.nasa.gov
http://seds.lpl.arizona.edu/nineplanets/nineplanets/nineplanets.html
http://www.bradley.edu/las/phy/solar_system.htm lhttp://www.geologylink.com
http://www.planetary.org/
http://www.globe.gov
http://web.ngdc.noaa.gov/mgg/image/images.html
http://solarsystem.nasa.gov/index.cfm
http://system.solaire.free.fr/sommaire.htm
Quelques idées fortes :
Le mouvement relatif des planètes par rapport aux étoiles est connu depuis au moins à 4000 ans (tablettes d’argile).
La notion d’une Terre ronde apparaît chez les Grecs, il y a environ 2500 ans :
D’abord par souci « esthétique », et par l’observation des éclipses de Lune ensuite
Il y a 2300 ans,
Eratosthène prouvait que la terre est ronde
Aristarque affirmait que la Terre est ronde et qu’elle tourne autour du Soleil
Entre le ∼II° et le XVI° siècle, le géocentrisme :
Hipparque Au ∼II°, puis Ptolémée au II° siècle, et tous les savants du moyen âge affirment le géocentrisme
Copernic, De revolutionibus au XVI° et Galilée au XVII° siècle
remet le Soleil au foyer, et notre Terre à sa place
Newton (Philosophiae naturalis principia mathematica) pose en 1786 les bases de la planétologie moderne
La Terre n’est donc décidément pas ronde
Le rayon polaire = 6356 Km ;
rayon équatorial = 6378 Km
Les planètes internes Mercure Venus Terre Mars sont rocheuses
Les planètes externes Jupiter, Saturne, Uranus Neptune, sont gazeuses
- 10 -
22 Km de différence
ENSM-SE, 2° A : axe transverse P N
Francis Picabia, 1915
16/10/12
CHAPITRE 1
Evacuer la Chaleur de la Planète
« Très rare tableau sur la Terre »
1915
La Terre est une machine thermique « deux en un ».
a) Depuis la naissance de la Terre jusqu’à sa mort, la
machine thermique endogène n’aura cessé de
transporter une chaleur interne aux origines diverses:
1 - chaleur « initiale » récupérée de l’énergie cinétique des
poussières, cailloux et planètésimaux et autres lunes
lors de sa naissance par accrétion ;
2 - chaleur latente de cristallisation de son noyau, encore à
l’œuvre pour longtemps ;
3 - chaleur provenant de la désintégration des éléments
radioactifs contenus dans le manteau et la croûte ;
b) Depuis l’allumage du Soleil, la machine thermique
exogène transporte la chaleur externe provenant du
rayonnement solaire dans l’atmosphère, l’hydrosphère
et la partie superficielle de la croûte terrestre.
Les ordres de grandeurs des puissances de ces deux
machines sont très différents et leur mesure prend notre
imaginaire complètement en défaut, habitués que nous
sommes à lézarder sous le soleil d’été et à être effrayés par
les violentes colères ponctuelles de Gaïa, la Terre mère. En
effet, l’énergie solaire reçue par la Terre est estimée à 342
W. m-2, alors que le flux de chaleur interne traversant la
surface du sol est estimé quant à lui à 0,08 W.m-2, soit
environ 0,02% seulement de la puissance reçue du Soleil !
Dès le XIX°, Hopkins avait noté que l'état physique
du globe, liquide, solide ou mixte, résulte de la compétition
entre les 2 modes d'évacuation de la chaleur, la conduction
et la convection, eux-mêmes fonction de la viscosité du
fluide. La conduction est insuffisante dans les deux
machines terrestres, tant pour évacuer la chaleur interne à
travers les enveloppes rocheuses, que pour transférer la
chaleur solaire de l’équateur vers les pôles à travers
l'atmosphère et l’hydrosphère ou la croûte. Par conséquent,
la Terre utilise aussi la convection, à travers trois «fluides
caloriporteurs»:
1 - le Fer liquide dans le noyau; le magnétisme terrestre
est la preuve directe et mesurable en surface de cette
convection profonde ;
2 - les solides silicatés du manteau; le déplacement des
plaques lithosphériques témoignent de cette convection
solide ;
3 - les liquides et gaz (éléments volatils) de l’hydrosphèreatmosphère.
En outre, chaque fois qu’il sera fait
appel à la convection, nous devrons nous
souvenir que la Terre est en rotation, et
donc que la force de Coriolis est mise en
œuvre. Dans une sphère en rotation, lors
d’une convection méridienne, le fluide
subit une déviation (gauche ou droite selon
l’hémisphère) qui transforme sa trajectoire en une hélice.
Dans les 2 milieux à grande fluidité que sont d’une part
l’atmosphère-hydrosphère et d’autre part le noyau, le rôle de
la force de Coriolis est très important. Il est négligeable dans
le manteau car, même si les masses transportées sont
considérables, les vitesses de déplacement du matériau
rocheux (solide) n’y dépassent certainement pas quelques
cm/an à quelques dm/an au maximum.
A - La conduction
Elle représente d'une part le transport de chaleur par
rayonnement (mais celui-ci doit être très faible compte tenu
de l'opacité du milieu terrestre) et d'autre part la partie
évacuée par vibration de l'architecture cristalline, qui se
traduit par le terme de conduction pure.
La 1° loi de Fourier,
J =-k grad T,
exprime le flux de chaleur par unité de surface et par unité
de temps. Le flux est proportionnel au gradient de T°
(= dT/dx selon la direction x). Le coefficient de
proportionnalité k est appelé conductivité thermique.
A travers la 2° loi de Fourier, loi de conservation de
la chaleur, k.∆T + Q = ρCp∂T/∂
∂t où ρ est le poids
volumique (kg.m-3) et Cp la chaleur spécifique à pression
constante (J.kg-1.K-1) s’exprime comme la somme de la
quantité de chaleur qui traverse une unité de volume
(= k.Laplacien de T°) plus la quantité de chaleur produite à
l'intérieur de ce volume Q,
on écrit que selon x :
k∂
∂2T/∂
∂x2 + Q = ρCp∂T/∂
∂t
On suppose ici que k est indépendant de la T°, est la
densité. On accède ainsi à la variation de T° avec le
temps, selon x,
∂T/∂
∂t = K∂
∂2T/∂
∂x2 + Q
avec
K=k/ρCp, diffusivité thermique.
Le rayonnement correspond au transfert de chaleur
entre deux corps séparés par un milieu transparent aux ondes
électromagnétiques. On définit un corps de référence appelé
« corps noir » dont on peut définir la propriété d'émittance
M, comme la puissance émise à travers une unité de
surface sur l’ensemble des longueurs d’ondes (0<λ< ∞). On
démontre que ce flux d’énergie est de la
forme
M=σ
σT4
où σ est la constante de
dΩ
Stefan, et T la température.
θ
Rappel : si l’on considère une source
émettant sur un ensemble de λ, Le flux
dS
ϕ
- 11 -
ENSM-SE, 2° A : axe transverse P N
énergétique polychromatique (puissance) élémentaire dΦ
Φ à
travers la surface dS sous l’angle solide dΩ (stérad) est tel
que :
dΦ
Φ = L dS cosθ
θ dΩ
Ω
(W/m2stérad)
Où L est la luminance de la source pour toutes les λ dans la
direction (θ,ϕ) sous l’angle solide dΩ est alors exprimée par
la relation
L = d2Φ/(dS cosθ
θ dΩ
Ω) (W/m2stérad)
L’émittance M de cette source est définie pour toutes les λ
et pour toutes les directions, comme :
M = dΦ
Φ/dS (W/m2)
Lorsque la luminance est indépendante de la direction
d'émission (θ,ϕ), on obtient après intégration sur les
directions (θ,ϕ) la relation entre émittance et luminance
M=πL
Nous avons considéré en premier lieu que l'opacité
du milieu terrestre était totale. Cela est vrai dans le domaine
du visible, mais notre globe est partiellement transparent
dans l’IR. Les expériences récentes de A. Goncharov, V.
Struzhkin et S. Jacobsen, du Laboratoire de Géophysique
de la Carnegie Institution (2006), montrent que les cristaux
de magnésio-wüstite, deuxième minéral le plus courant du
manteau inférieur (Chp4C1), sont capables de transmettre la
lumière IR à PAtm mais sont opaques aux IR dans les
conditions de pression du manteau inférieur (définition
Chp. 3.B.4.c). La magnésio-wüstite pourrait alors renforcer
l’isolation du noyau de la Terre. Si tel est le cas, dans cette
région profonde le rayonnement ne contribuerait pas au flux
global de chaleur. Cela induirait une convection
globalement plus vigoureuse à la base que dans le reste du
manteau, qui pourrait alors considérablement renforcer le
déclanchement des panaches mantelliques caractéristiques
du fonctionnement thermique de notre planète (voir cidessous et Chp. 4.B).
B - La Convection
Dans ce cas, la matière elle-même est transportée,
entre deux couches limites au sein desquelles la chaleur est
évacuée par conduction. La figure 1 représente une couche
fluide, chauffée par-dessous. Les températures de surface et
du fond sont respectivement T0 et T0+∆T. Si une goutte de
ce fluide quitte le fond et s'élève de la hauteur δz,
suffisamment vite pour ne pas échanger de chaleur avec son
environnement, sa décompression adiabatique (α,
coefficient de dilatation thermique) impliquera une baisse de
température telle que
δT = (gα
αT/Cp)δ
δz
où
(gα
αT/Cp) représente le gradient adiabatique grad Tad.
Si le gradient de température supposé linéaire dans la
couche fluide est plus petit que le gradient adiabatique (sous
adiabatique, grad T< grad Tad , à gauche dans la figure), la
Fig. 1, la convection
16/10/12
goutte sera plus froide que son environnement, donc plus
dense. Elle redescendra et la convection avorte. Inversement
si le gradient de T° est super adiabatique, grad T<grad Tad,
à droite dans la figure, la goutte est plus chaude et plus
légère que son environnement, la convection est amorcée.
Elle tend donc à monter vers la surface. S'il n'y a pas
d'échange de chaleur avec l'environnement le gradient de T°
se rapproche du gradient adiabatique.
On pourrait en déduire que l'existence d'un gradient
de température suffit pour entraîner un écoulement
convectif. En réalité, pour que le régime convectif s'amorce,
le gradient de température doit atteindre un certain seuil. En
effet, deux facteurs jouent un rôle important pour le
mouvement d'une goutte de fluide et s’opposent :
1) la poussée d’Archimède (dirigée vers le haut) ;
2) la traînée visqueuse (force de frottements) dirigée dans
le sens opposé au mouvement. Sa grandeur dépend de
la viscosité du fluide.
Donc, il n’y a pas de mouvement tant que la traînée
visqueuse est égale au 2d facteur, la poussée d'Archimède.
Pour que la convection fonctionne, il faut donc
une poussée d'Archimède suffisante, c’est à dire:
1 - une pesanteur g (m.s-2), forte;
2 - un coefficient de dilatation thermique α (K-1), élevé;
3 - un gradient de température élevé, donc ∆T (°K) élevé;
4 - une hauteur fluide z (m), élevée (l'écart de température
avec l'environnement augmente avec z)
5 - une production interne de chaleur, Q, n'est pas
indispensable, mais favorise la convection;
et une faible dissipation, c’est à dire:
6 - une diffusivité K (m2.s-1), et une conductivité k (W.m1
.K-1) thermiques faibles, donc une chaleur spécifique
volumique importante Cp (J.K-1.m-3);
7 - une viscosité cinématique du fluide ν (m2.s-1), basse ;
avec ν = η /ρ (η, viscosité dynamique).
On exprime l'ensemble de ces paramètres à travers un
nombre sans dimension, dit Nombre de Rayleigh,
indépendant des détails du système considéré, et qui, pour
une couche horizontale chauffée par-dessous, sera de la
forme
Ra = gα
αz3∆T / νK
et pour une sphère chauffée de
l'intérieur (Q), sera de la forme:
Ra = gα
αQ z5∆T / νK
Dans le cas où la couche de fluide est comprise entre deux
plans infinis, des calculs théoriques montrent que le nombre
de Rayleigh critique a une valeur de 1708. Des expériences
menées par P. Silveston et E. Koschmieder laissent prévoir
également que Ra est de l’ordre de 1700 ± 50.
Dans une couche horizontale simple comme la
précédente, le fluide devient instable et convecte pour une
valeur critique de Ra = 667.
La viscosité est un paramètre essentiel de la
convection, quelques rappels :
1 - Un fluide parfait, de viscosité nulle, est caractérisé par
un module élastique nul, µ = 0. Toute contrainte de
cisaillement engendre une déformation irréversible, il
coule donc parfaitement. Un fluide visqueux au
contraire résiste à l'écoulement. Donc, pour maintenir
l'écoulement à vitesse de déformation (ε) constante,
- 12 -
ENSM-SE, 2° A : axe transverse P N
dε/dt = cte, il faut appliquer une contrainte de
cisaillement σ. La viscosité, η, est de la forme de σ/ε.
2 - Un solide supporte la déformation de manière
élastique en dessous d'une certaine valeur, et une
déformation irréversible au-delà. Une contrainte
quelconque, appliquée longtemps, provoque une
déformation qui croît avec le temps. Le solide s'écoule
comme un liquide, on dit qu’il flue, et sa viscosité η
est encore définie par le rapport σ/ε, où ε est la vitesse
de fluage. Le modèle du corps de Maxwell (Fig.2)
rend compte de ce comportement, en écrivant que la
déformation totale est égale à la déformation élastique
(σ/µ) plus la déformation visqueuse:
ε = (σ
σ/µ
µ) + σ/η
ηdt
Fig. 2, viscoélasticité : corps de Maxwell
µ
η
Le temps de relaxation d'un tel corps est égal à
τ,= σ/η
η
Pour une contrainte appliquée pendant un temps
inférieur au temps de relaxation, le corps a une réponse
élastique, alors que pour une contrainte appliquée pendant
un temps très supérieur, la réponse sera un écoulement
visqueux. Pour le manteau terrestre, on sait que :
1 - la viscosité η est estimée de l'ordre de 1022 poises (ou
Pascal.seconde);
2 - le module élastique de cisaillement µ est estimé de
l'ordre de 70 G.Pa.
D'où l'on tire un temps de relaxation, qui pour le manteau
terrestre est de 450 ans, valeur tout à fait compatible avec
la convection à l'échelle des temps géologiques. On estime à
cet égard qu'une cellule convective est parcourue en 106
années. La valeur du nombre de Rayleigh obtenue pour la
Terre est de l'ordre de 108. Elle est donc très supérieure à la
valeur critique.
Pour une sphère en rotation rapide comme la Terre,
et un fluide à faible viscosité comme le fer liquide du noyau,
la force de Coriolis devient significative. Busse a montré
que la circulation convective prend alors la forme de
colonnes étroites parallèles à l’axe de rotation de la sphère.
La formulation de la théorie des plaques, en
combinant la géophysique et la dérive des continents de
16/10/12
Wegener, a permis d'avoir un regard à l'échelle de la planète
sur les phénomènes géologiques. Il est maintenant admis
que le mouvement perceptible en surface des plaques
lithosphériques rigides de la croûte terrestre n'est que le
reflet de mouvements convectifs intéressant tout le
manteau. Celui-ci est un solide à l'échelle de temps des
phénomènes acoustiques qui nous permettent de l'ausculter
(cf. Chp. 3.B), mais un fluide à l'échelle des temps
géologiques. Si l'observation directe des parties profondes
de cette circulation nous est hélas impossible, il nous reste
bien sur Jules Verne, mais surtout les modèles dérivés des
études de séismologie (cf. Chp. 3B et 4.C).
Nous avons exprimé plus avant que la convection
dans le manteau est contrôlée par le nombre de Rayleigh,
qui décrit la vigueur de la convection. Dans les modèles
terrestres, si l’on peut considérer que le plancher océanique
constitue la surface supérieure des cellules convectives du
manteau terrestre (cf. Chp. 4.E.2 lithosphère océanique), il
n’en est pas de même des continents. En effet, la lithosphère
continentale échappe presque complètement au recyclage
convectif (Chp. 4.E.1 lithosphère continentale). Elle est
certes mobile à la surface de la Terre, mais elle reste à la
surface. En outre, elle est quasi exclusivement solide, et ne
peut donc transférer la chaleur apportée à sa surface
inférieure par la convection mantellique que par conduction.
Bien identifiée par la sismique, les anglo-saxon donne à
cette « seismic-lithosphere » le nom de LID (=couvercle).
Elle agit comme un bouclier thermique, dont l´effet plus ou
moins isolant est introduit dans les modèles de convection
mantellique (e.g. S. Labrosse, C. Jaupart et C. Grigné) par
un second nombre sans dimension, le nombre de Biot. Le
nombre de Biot s´écrit : B=(kc dm)/(km dc), où kc et km sont
les conductivités thermiques respectivement du continent et
du manteau, et dc et dm sont leurs épaisseurs. Utilisé dans les
calculs de transfert thermique en phase transitoire, il
compare la résistance au transfert thermique à l'intérieur du
volume d’un corps (ici le continent) à celle de la surface du
corps considéré (ici l’interface entre le continent et le
manteau situé au dessous).
On peut montrer que le flux de chaleur sortant du
manteau sous le continent est proportionnel à B.Ti, où Ti est
la température à l´interface entre les deux milieux. Un
nombre de Biot élevé, correspondant à une épaisseur du
continent dc faible ou à une conductivité thermique kc
élevée, implique un effet isolant très faible de la part du
continent. A l´inverse, un nombre de Biot faible correspond
à une forte épaisseur du continent ou à une conductivité
faible, et donc, à un fort effet isolant :
Fig 3a : convection, passage de la convection en rouleaux à la convection en panaches avec le nombre de Rayleigh
1) R = 105
2) R= 106
3) R= 107
(C. Grigné)Le nombre de Biot dans ces modèles est B=10 ; flux de chaleur à la surface du manteau (en haut) ; gamme des températures (en bas).
- 13 -
ENSM-SE, 2° A : axe transverse P N
1 - Pour un continent immobile, la convection d'un fluide
sous un couvercle conductif se traduit toujours par le
développement d´une zone de remontée chaude
centrée sous le couvercle-continent, quel que soit son
nombre de Biot. En outre la largeur des cellules de
convection augmente par rapport à celles du modèle de
convection semblable sans couvercle, et leur nombre
décroît (2 au lieu de 4). En fonction de la vigueur de la
convection, les modèles suggèrent que l’on passe
d’une convection en rouleaux correspondant à un
écoulement lent et laminaire (Fig. 3a1, Nombre de
Rayleigh faible 105) à un modèle de gouttes séparées
de fluide chaud (panaches) plus rapides que leur
environnement, qui traduisent la turbulence du milieu
(fig. 3a2-3a3, Nombre de Rayleigh moyen et fort,
respectivement 106 et 107). L´écoulement peut
atteindre un état stationnaire dans le mode lent, mais
pas dans le mode rapide. Le second enseignement de
ces modèles de circulation mantellique est que la
largeur des cellules convectives est corrélée d’une part
au nombre de Rayleigh (fig. 3a) et d’autre part à la
taille du couvercle (fig. 3b).
2 - Pour un continent mobile, au stade initial, le
continent est immobile. Dans un premier temps la
divergence installée sous le continent par les
ascendants mantelliques provoque la dérive du
continent jusqu’au droit d’un descendant mantellique,
point de convergence des cellules convectives. L’effet
de bouclier thermique du continent devenu stable se
traduit alors par une modification complète de la
distribution des cellules, jusqu’à apparition d’une
Fig 3b : modèles de convection mantellique (C. Grigné),
présence d’un continent mobile et influence de la largeur du
couvercle ; Nombre de Biot B=10 ; Nombre de Rayleigh R = 107
16/10/12
nouvelle divergence sous le continent. Si la taille du
continent influe directement sur la taille des cellules
convectives, on observe en outre une évolution très
nette de la largeur des cellules convectives avec le
déplacement du continent. Initialement larges tant que
le continent reste immobile, elles sont rapidement
remplacées par un système de cellules de longueur
d’onde bien plus petite dès lors que le continent est
mobile. L’effet cumulatif de bouclier (qui se traduit
par l’allongement des cellules) disparaît avec la
mobilité de ce dernier.
Si de tels modèles ont l’immense avantage de
visualiser le phénomène convectif, ils ne permettent pas
encore de rendre compte de la complexité du phénomène
terrestre. La géologie nous enseigne par exemple que le rift
océanique (qui correspond à un ascendant mantellique) peut
se poursuivre à travers le continent, et qu’il peut entraîner sa
rupture (e.g. la ride Indienne qui se poursuit en Mer Rouge
et dans le rift Est Africain). Le bouclier continental afroarabique apparaît ici passif, fragilisé et dilacéré par la
convection mantellique. Quelle est l’influence réelle de la
surchauffe continentale sur la position des ascendants
mantelliques ? La position des continents détermine-elle
celle des panaches ascendants ? Nombre de géologues
discutent encore le mouvement relatif des plaques et
suggèrent qu’il résulte de la traction par les plaques
subductées. La question a-t-elle un sens ? Nous verrons aux
chapitres 3 et 4 que la distinction d’un manteau inférieur et
d’un manteau supérieur vient compliquer encore la
circulation dans le manteau, et que les interactions entre le
manteau et le noyau sont aussi un facteur à prendre en
compte.
C - L’advection
La convection est le mode premier du transfert de
chaleur dans le manteau, ce qui n’interdit pas bien entendu
qu’une partie de la chaleur du manteau est aussi transmise
vers l’extérieur par conduction. Nous venons de voir que la
lithosphère, partie rigide de la Terre (et en particulier la
lithosphère continentale), ne permet pas la convection, et
donc que le transfert la chaleur s’y effectue par conduction.
a) couvercle de petite taille
Mais dans la lithosphère, le volcanisme en
provenance du manteau transporte lui aussi de la chaleur
vers la surface, sous forme de matériau chaud qui reste
stocké dans la lithosphère. Le volcanisme représente ainsi
une perte de chaleur qui ne s’effectue ni par conduction ni
par convection, mais par advection.
D - Les bilans énergétiques internes
La Température mesurée dans les mines, croît si vite
avec la profondeur, en moyenne 30°C.Km-1 dans les
continents, que l'on a admis longtemps que sous l'écorce
solide, la Terre devait être encore liquide. En fait, si le
gradient (ou géotherme) mesuré en surface était linéaire, la
température serait si forte au centre (environ 200 000°) que
la Terre devrait être volatilisée!
b) couvercle de grande taille
voir animations de C Crigné sur http://www.emse.fr/~bouchardon/
- 14 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Fig. 4a : Bilan énergétique interne
Volcanisme
Refroidisement lithosphère océanique
Tectonique
Radio-Activité
Lithosphère
Convection
Radio-Activité
Energie Mécanique
Conduction
Radio-Activité
Manteau supérieur
Manteau
Mouvements différentiels
Radio-Activité
Manteau inférieur
Chaleur initiale
Convection
champ magnétique
Noyau
Chaleur initiale
Radio-Activité
Chaleur latente de cristallisation
Si l’on imagine que la Terre fut essentiellement
liquide dans un premier temps mais qu’elle ne l’est plus de
Pour en terminer avec les
sources de chaleur primitive, il
faut ajouter le rôle des éléments
radioactifs à vie courte, 129I et en
particulier 26Al, de période 740
000 ans (voir Chp.2D1). Leur
contribution fut éphémère et peut
être
considérée
comme
négligeable au-delà de 10
périodes11.
Pour
l’essentiel,
la
radioactivité est dûe à quelques
éléments pères, dits radioactifs,
qui se déstabilisent spontanément
en éléments fils radiogéniques. Tous très lithophiles,
c'est-à-dire ayant une affinité chimique forte pour les
magmas granitiques et les minéraux des roches de la
croûte terrestre, ils sont absents ou quasi-absents du
noyau, ils sont relativement abondants dans le manteau et
ils sont très largement concentrés dans la croûte terrestre
avec les autres éléments lithophiles.
1 - Les sources de chaleur de la
Terre
Avant la découverte de la
radioactivité (Becquerel 1896), on était
obligé d'admettre que la chaleur dissipée
de nos jours était due exclusivement à
l'énergie
cinétique
primitive
emmagasinée sous forme de chaleur lors
de la formation de la Terre. Cette chaleur primitive
d'origine gravitationnelle a été récupérée lors des 500
premiers millions d’années de la vie de la Terre. En un
premier temps, c’est la condensation du gaz et des
poussières de la nébuleuse en petits corps qui transforme son
énergie potentielle en chaleur. Progressivement, la période
d’accrétion à froid (voir Chp.4D1a) cède place aux impacts
entre corps de moins en moins petits, puis entre
planètésimaux,
qui
transforment
de
l’énergie
gravitationnelle en chaleur. Enfin, dans une Terre que l’on
s’accorde à penser être devenue entièrement liquide, la
différenciation du noyau en fer et nickel achève cette
période de récupération de l’énergie gravitationnelle en
chaleur. La séparation de ces deux éléments, très abondants,
a deux causes : i) ils sont les plus massiques des éléments
abondants, oxygène, silicium, aluminium et magnésium
(voir Chp.2B1, Fig. 6a) ; ii) ils s’associent aisément en
alliage et sont volontiers constitutifs de minéraux sans
oxygène (e.g. les sulfures). Ils ont un donc un comportement
chimique voisin, comparable aussi à celui du cuivre, on les
dit « chalcophiles ». Ils se séparent donc à cette époque
précoce et occupent le centre de la Terre, constituant ainsi le
noyau. Les autres constituants, aluminium, alcalins,
alcalino-terreux et autres, combinés à l’oxygène et au
silicium, constituent la seconde enveloppe de cette Terre
initiale, le manteau. Les éléments volatiles, qui ne peuvent
entrer qu’en petite quantité dans les structures minérales, se
rassemblent en une enveloppe extérieure, constituant une
atmosphère à cette Terre primitive.
nos jours, il faut ajouter à cette
énergie initiale la chaleur latente
de cristallisation de la planète. En
outre, le changement de densité
qui accompagne ce changement
d’état implique la récupération
simultanée d’un peu d’énergie
gravitationnelle en chaleur.
Quelques autres éléments pères sont le fruit
d’interactions de l’atmosphère avec les radiations
cosmiques qui y parviennent ;
ils sont dits
cosmogéniques et se déstabilisent eux aussi en éléments
radiogéniques fils. Ils sont bien sûr présents essentiellement
dans l’atmosphère et sur la surface de la Terre, dans les sols
par exemple. Ainsi, pour le béryllium (Be), qui possède 10
isotopes dont le 9Be stable, le 10Be est le produit d’une
Fig. 4b : les éléments radioactifs et radiogéniques dans le tableau
périodique.
11
Rappel : la période (demi-vie) d’un élément radiogénique
est proportionnelle à la constante de désintégration λ qui
représente la probabilité de désintégration de cet élément par
unité de tps, T=Ln2/λ; l’expression de la concentration C
de cet élément en fonction de sa concentration initiale C0 et
du temps t est de la forme C = C0.e-λt.
- 15 -
ENSM-SE, 2° A : axe transverse P N
spallation N ou C dans la haute atmosphère. Il est
« récolté » avec la pluie, et son comportement dans les eaux
est très contrasté en fonction du pH : il est très soluble sous
pH ≤5.5, et précipite au-delà. Aussi est-il volontiers bloqué
dans les sols, pour lesquels le couple 10Be → 10B, de période
1.5 Ma devient un excellent traceur de leur formation ou
érosion, mais aussi de l’activité solaire, qui se traduira par le
taux de spallation ; on peut aussi l’utiliser pour la datation
des glaces. Mais le 10Be peut aussi provenir de la spallation
des atomes de Si dans les grains de quartz de la surface du
sol. Au sein de ces minéraux, il constitue aussi un traceur
bien utile. Parmi les éléments cosmogéniques, citons le 11C
dont la période très courte (11mn) en fait un traceur à usage
médical, le 36Cl et le 41Ca, et enfin l’26Al. Nous avions noté
plus avant l’intérêt de ce dernier dans la datation des
chondrites. Il est aussi produit en continu par spallation Ar
dans la haute atmosphère et peut, comme le 10Be, être
incorporé dans les cycles de l’eau et dans les sédiments ou
les sols.
On estime à 4.2 1013 W (environ 40 térawatts) le
flux de chaleur qui traverse actuellement l’interface
lithosphère-atmosphère, soit 82 mW.m-2, une quantité
10000 fois moindre que celle fournit par le soleil (cf. Ch.5)
Cette estimation est faite à partir de mesures de surface dont
la répartition n’est certes pas homogène, mais elle nous
semble satisfaisante. A titre indicatif, soulignons que cette
énergie interne que dissipe la Terre dans l'espace est environ
104 fois plus faible que celle qu'elle reçoit du Soleil !
Les bilans d’énergie que l'on dresse de nos jours
montrent (tableau 1 et Fig. 4) que 50% au moins de l'énergie
interne dissipée provient de la désintégration des éléments
radioactifs à période longue (238U, 235U, 232Th, 40K en
particulier). On connaît bien la quantité de chaleur produite
par unité de masse de U, Th ou K, et l’on connaît très bien la
composition de la croûte supérieure ; l’estimation de la
production est donc aisée pour cette tranche superficielle.
Par contre on connaît moins bien la croûte inférieure. De
même, on connaît relativement bien le manteau supérieur,
grâce en particulier aux ophiolites, véritables radeaux de
lithosphère océanique déposés sur les continents, mais nos
connaissances sur le manteau inférieur restent très limitées.
Néanmoins, on peut proposer le schéma suivant :
1 - les chaînes de désintégration de l’Uranium 238U ⇒
206
Pb, de période λ=4.5 Ga., et 235U ⇒ 207Pb (λ=0.71
Ga.) produiraient 1013 watts dans le manteau ;
2 - La chaîne 232Th ⇒ 208Pb (λ=14 Ga.), produirait aussi
1013 watts dans le manteau ;
Fig. 4c : Evolution de la chaleur dégagée par la radioactivité
à vie longue depuis la création de la Terre
16/10/12
Tableau 1, bilans énergétiques internes
Nature
lieu de dissipation
radioactivité
croûte continentale
croûte océanique
manteau supérieur
manteau inférieur
noyau
manteau
noyau
noyau liquide
chaleur initiale
chaleur de différentiation
chaleur latente de cristallisation
énergie gravitaire
manteau
mouvements différentiels
lithosphère
processus tectoniques
lithosphère
séismes
météorites
total
quantité d’énergie
1012W
4.2 - 5.6
0.06
1.3
3.8 - 11.6
0 - 1.2
7 - 14
4–8
1 - 2.8
1
0–7
0.3
0.03
?
42
3 - La chaîne 40K ⇒ 40A,40Ca (λ=1.28 Ga.) serait
responsable de 0.4 1013 watts dans le manteau
4 - Ces sources U, Th, K dégageraient 0.8 1013 watts dans
la croûte. Bien que celle-ci représente un petit volume
par rapport à celui du manteau, elle apporte une
contribution comparable à celle du manteau supérieur,
car les éléments radioactifs à vie longue y ont été
concentrés principalement par différenciation à partir
du manteau supérieur, qui représente les 670 premiers
Km du manteau terrestre.
5 - La contribution des principaux éléments radioactifs a
beaucoup évolué avec le temps (Fig. 4c), à la fois
globalement on estime le dégagement de chaleur
radioactive des premiers instants à 2.5 10-11 w.kg-1
contre 0.6 actuellement ; dans la figure, on note que les
contributions relatives des différents éléments ont
beaucoup évolué, d’une part en fonction de leur
abondance initiale et d’autre part en fonction de leur
période ; ainsi, 235U qui était initialement le 1°
contributeur à la chaleur dégagée, est quasi épuisé
maintenant (1/64° de sa concentration initiale) et ne
représente plus rien en terme de chaleur actuellement.
Le total représente 3.2 1013 watts. Il reste donc 1013 watts
qui représentent la part de la chaleur initiale, soit
environ 24%
Le comportement du potassium lors de la
différenciation initiale de la Terre (Cf. § météorites
différenciation) n'est pas encore clairement compris. Si l'on
admet qu'une partie du 40K a été entraînée dans le noyau
liquide lors de cet épisode, celui-ci possède sa propre
centrale. Dans le cas contraire, l’énergie radioactive du
noyau est nulle et il doit compter sur la chaleur sensible
qu'il détient encore  chaleur initiale plus chaleur
accumulée par les éléments radioactifs à vie courte (129I ou
26
Al par exemple) disparus depuis longtemps  et sur la
chaleur latente de cristallisation pour fonctionner (cf. §
noyau).
Si l’on considère les contributions respectives de la
croûte et du manteau, on remarque que le gradient
géothermique doit nécessairement diminuer avec la
profondeur, au moins dans le manteau supérieur.
L'augmentation de T° n'est donc pas linéaire et l'intérieur
de la Terre n'est pas nécessairement liquide, au
contraire !
Les sondages les plus profonds ne dépassent guère la
- 16 -
ENSM-SE, 2° A : axe transverse P N
dizaine de Km, 12 Km environ dans le forage scientifique de
la presqu'île de Kola en Russie, et les difficultés techniques
rencontrées sont déjà énormes (temps de montée des trains
de tiges, T° proche de la T° de fusion du matériel,
circulation du fluide de refroidissement - lubrification...). Il
ne paraît pas possible de dépasser beaucoup cette
profondeur dans un futur proche. Les approches indirectes
de la géophysique  la gravimétrie, le géomagnétisme et
tout particulièrement la sismique  constituent nos seules
fenêtres pour observer l'intérieur de la Terre, nous y
reviendrons au chapitre 3.
Nous disposons toutefois en surface de deux
échantillonnages distincts :
Fig. 5a : carte du flux de chaleur géosphérique actuel.
1 - les basaltes qui proviennent du manteau remontent
des fragments intacts de la partie supérieure du
manteau très significatifs des 200 premiers Km de
profondeur, que nous évoquerons au chapitre 4.
2 - les météorites, tombées du ciel, et qui nous procurent
des éléments de comparaison avec le reste du système
solaire ; Elles font l’objet du chapitre 2
2 - L’état thermique de la Terre
Les rides océaniques constituent les frontières des
plaques divergentes. Leur manteau chaud monte jusqu'à la
surface puis se refroidit en s'éloignant de la dorsale. Le
flux de chaleur mesuré près des dorsales océaniques est
très élevé (110mWm-2). Le manteau étant quasi affleurant
en cet endroit, ce flux est celui du manteau ascendant sous
les dorsales. La carte mondiale du flux de chaleur de W.D.
Gosnold (Fig. 5a) montre qu’il décroît systématiquement
en s’éloignant de la ride vers les fosses océaniques,
48 Wm-2 (Poly « LDC, La dérive des continents »).
L'évolution thermique de la lithosphère océanique peut
ainsi être modélisée par le refroidissement d'une plaque
d'épaisseur constante. Le calcul permet d'établir comment
varie le flux de chaleur en fonction de l'âge (Fig. 5b et poly
LDC), en fonction de la vitesse d’expansion de la plaque.
Dans les bassins océaniques d'âge supérieur à 80 Ma., le
flux mesuré ne varie pas considérablement et la lithosphère
est proche de l’état d'équilibre thermique. La croûte
océanique étant mince (Chp. 4.E.2.a) et de nature
basaltique donc pauvre en éléments radioactifs (par rapport
à la croûte continentale granitique), on peut admettre que
loin de la ride, la valeur du flux de surface est voisine de
celle du flux en provenance du manteau hors des
ascendants mantelliques, soit environ 50 mWm-2. Ainsi, les
régions les plus anciennes de la lithosphère océanique
(Chp. 4.E.2a), côtes Est américaine et Ouest africaine de
l’océan Atlantique Nord, plancher du vieil océan avorté
entre Afrique et Madagascar, plancher Pacifique du SudEst du Japon à l’Est des Philippines, sont parmi les plus
froides.
Dans les continents, la figure 5a montre que le flux
de chaleur est globalement faible par rapport aux rides.
Mais il est fort par rapport à celui du plancher océanique
qui les borde. La croûte est beaucoup plus épaisse et très
hétérogène (Chp. 4.E.1), et elle contient des quantités
importantes mais variables d'éléments radioactifs (U, Th et
K). Nous ne sommes donc pas en mesure de construire un
modèle simple et fiable du flux de chaleur continental
16/10/12
http://www.geo.lsa.umich.edu/IHFC/heatflow.html
actuellement. Il faut mesurer12 ce flux en effectuant le plus
grand nombre possible de mesures dans des provinces
géologiques différentes. C. Jaupart et J. C. Mareschal
(1999) puis J. C. Mareschal, A. Poirier et al. 2000) ont
montré à propos du bouclier canadien, qui est constitué de
grandes provinces géologiques d'âges très différents
(Chp. 4.E.1.a, Fig. 26a), qu'il n'y a pas de tendance à la
décroissance du flux avec l'âge géologique. Le flux de
chaleur ne décroît pas non plus d'une manière systématique
vers le bord du continent nord américain. Mais le flux varie
de manière significative entre les différentes ceintures
Fig. 5b : fig. 50 du poly la dérive des continents ;
Valeurs du flux de chaleur en fonction de la distance à
l'axe de la dorsale pour divers taux d'expansion selon le
modèle de Bottinga. D'après Borringa, 1974.
12
La température est mesurée en fonction de la profondeur
dans un forage avec une précision de 0.005 K. La
conductivité thermique est mesurée pour les roches du
forage en laboratoire. Le gradient thermique est mesuré sur
une épaisseur finie dans un milieu souvent hétérogène. Le
profil thermique peut subir plusieurs types de perturbations
qui sont quantifiés (topographie, circulation d'eau, variations
de composition ...). Enfin les variations du climat ont
engendré des changements de température à la surface de la
Terre. Ces perturbations peuvent être détectées et éliminées
par des mesures dans plusieurs forages profonds. En
pratique, le gradient géothermique est mesuré dans des
forages dont la profondeur est supérieure à 250 mètres.
http://www.ipgp.jussieu.fr/pages/060204.php
- 17 -
ENSM-SE, 2° A : axe transverse P N
(#730K) à 70 km de profondeur
Fig. 6a : modèle de pression et de nature du manteau, du noyau
et de la graine (La recherche)
2- La sismique nous informe de l’état solide du
manteau (Ch.p3). La valeur de la pression en
fonction de la profondeur est elle aussi très bien
modélisée (modèle PREM Chp.3.B4), et l’on
considère que les sauts de densité indiqués par la
sismique correspondent à des changements de
phases en réponse à l’augmentation de la pression.
Sachant que l’olivine (MgSiO4) est le constituant
majeur du manteau supérieur, on s’intéresse
d’abord aux transformations qu’elle peut subir. On
a ainsi :
• Mg-olivine β
Spinelle
vers 400 km de
profondeur, soit une pression de 18 GPa ; la
température
expérimentale
de
cette
transformation est d’environ 1500 K ;
l’olivine étant une solution solide de silicate
de magnésium et de fer, pour être dans la
gamme des concentrations du manteau on
prendra une Mg0.9-Fe0.1 olivine β, pour
laquelle la température du changement de
phase est de 1400 K ;
• Le second changement de phase possible est
Mg-olivine β
pérovskite + magnesiowustite ; l’olivine très comprimée subit vers
30 GPa, environ 670 km, une réorganisation
des tétraètres de SiO4 en octaèdres SiO6 qui
libère et des atomes de Mg et Fe qui
composent l’oxyde magnesio-wustite. La
température
d’équilibre
de
cette
transformation à la pression de 30 GPa est de
l’ordre de 1600K ;
d'une même province, et ces variations ne peuvent être
dues qu'à des différences de composition de la croûte. Les
données de flux de chaleur du bouclier canadien montrent
ainsi la difficulté de définir une colonne crustale typique
ou moyenne pour les études thermiques.
Par contre, il faut noter que le flux de chaleur varie
rapidement en bordure des continents : les mesures de flux
de chaleur dans la mer du Labrador indiquent des valeurs
variant de 48 et 59 mWm-2 à plus de 75 mWm-2. Ces
valeurs montrent une transition abrupte du flux de chaleur
du manteau (quelques x100 km) qui confirme la différence
de nature et l’épaisseur des deux types de croûte. Si la
valeur du flux de chaleur en provenance du manteau est
une donnée fondamentale pour la structure thermique
crustale, elle permet aussi de contraindre les valeurs de
l'épaisseur de la lithosphère continentale. Le flux du
manteau étant limité à une gamme très restreinte,
l'épaisseur de la lithosphère est elle aussi limitée (voir
Chp. 4B4 la différence fondamentale qui existe entre
lithosphère et croûte). La lithosphère ne peut pas être plus
mince que 200 km environ et plus épaisse que 350 km.
D’après les auteurs, la lithosphère dans l'est du bouclier
canadien a une épaisseur variant entre 200 et 250 km.
16/10/12
Outre la température et la pression à la surface de la
Terre et des mesures directes que nous pouvons faire dans
les premiers kms, plus les valeurs tirées des volcans, nous
disposons donc de 2 point profonds pour construire le
diagramme P,T du manteau supérieur (Fig. 6).
3 - L’allure du géotherme terrestre
Nous avons noté que le géotherme terrestre ne
pouvait être linéaire et que nécessairement la production de
chaleur devait décroître rapidement au-delà de la croûte.
Quelles sont donc les ordres de grandeur et l’allure
générale le la courbe température profondeur ?
Nous disposons pour l’établir de quelques contraintes
fortes :
1- les kimberlites, témoins volcaniques directs les plus
profonds de l’état du manteau nous indiquent
comme raisonnable une température de 1000°C
- 18 -
1- On ne sait pas encore expérimenter des
changements de phases chez les silicates du
manteau inférieur, principalement la peroskite, à
des pressions supérieures à 200 Kbar ; On sait par
la sismique que les propriétés du manteau inférieur
évoluent continument, ne nécessitant donc pas
d’autre réponse à l’augmentation de pression que la
diminution de volume de la maille cristalline,
réponse rendue possible par sa compressibilité. Par
ailleurs, on sait extrapoler la courbe de fusion de la
perovskite vers les hautes pressions ; or la sismique
nous informe (Chp.3) de l’état solide du manteau
jusqu’à la limite noyau-manteau, laquelle
correspond à une pression de 136 GPa. La
température de fusion de la perovskite, qui à cette
pression est de 5000K environ, représente donc une
limite supérieure non atteinte à cette profondeur de
2900 km (Fig.6). L’incertitude devient grande…
2- Contrairement au manteau, solide, nous tirons de
l’étude sismique et de l’étude du champ
magnétique l’hypothèse cohérente que le noyau
externe est liquide ; quant-à la graine elle est solide
et que tous deux sont un alliage de Ni-Fe. Nous
avons donc là 3 nouvelles contraintes :
• La température du sommet du noyau liquide
est supérieure à la température de fusion de
ENSM-SE, 2° A : axe transverse P N
l’alliage à 136 GPa.,
• A 5100 km de profondeur, la limite entre
noyau liquide et graine solide issue de la
cristallisation fractionnée du noyau (voir
explication de la cristallisation fractionnée au
chp4.E.3.a) correspond à la température de
fusion de l’alliage. La pression à cette
profondeur est de 320 GPa. La température de
fusion des alliages Fe-Ni a été expérimentée à
cette pression par onde de choc dans les
mâchoires d’une enclume à diamants. Elle est
de 6000K pour du fer pur, et de 5000K pour
un alliage Fe-Ni tel qu’on le suppose dans le
noyau actuel c'est-à-dire : i) correspondant
aux abondances probable en ces 2 éléments ;
ii) dopé à 10% en éléments légers. En effet, si
un peu d’éléments légers sont logiquement
présents dans le système noyau + graine, ils ne
rentrent pas dans le solide ; donc, au fur et à
mesure de la cristallisation de la graine, ils ont
enrichi le liquide et il faut tenir compte de la
Fig. 6b : 2 modèles de géotherme pour la Terre
16/10/12
concentration vraisemblable du liquide après
plusieurs G.ans de cristallisation fractionnée.
• Le noyau liquide est parcouru de mouvements
de convection (producteurs du champ
magnétique terrestre) ; il est donc raisonnable
de considérer que le gradient de température
au sein du noyau liquide comme adiabatique ;
l’application d’un tel gradient à partir de d’un
interface noyau-graine à 5000 K conduit à une
température du sommet du noyau, sous le
manteau, à 2900km, de l’ordre de 3800 K
Nous pouvons donc admettre cette valeur pour le
sommet du noyau. Rappelons celle du sommet du manteau
inférieur, 1600 K, la différence est de 2200 K, à répartir
dans le manteau inférieur ? La tectonique des plaques et la
tomographie sismique (chp.4)
nous imposent de
considérer que le manteau est un solide en convection.
Comme pour le noyau, nous admettrons donc que le
gradient de température y est adiabatique. Eu égard aux
propriétés du manteau, la différence de température entre
bas et sommet du manteau inférieur est estimée à 700 K. On
voit bien dans la figure 6b comment il est loisible de placer
ces 700 K dans la fourchette précédente de 2200 K :
1- Hypothèse 1, en bas sur la figure, la limite entre
manteau supérieur et manteau inférieur n’est qu’un
changement de phase qui s’opère durant la
convection, celle-ci est à un seul étage, elle
s’effectue alors entre les deux couches limites
conductives, i) en bas l’interface noyau-manteau
(CMB, Core Mantle Boundary sur la figure), ii) en
haut la lithosphère rigide (CLT). Les 700 K du
gradient adiabatique viennent donc s’ajouter au
1600 K du sommet du manteau inférieur. La
température au sommet de la CMB serait donc de
2300 K, et cette couche frontière entre les deux
domaines convectifs absorbe une différence de
1500 K entre sa base et son sommet !
2- Hypothèse 2, la limite entre les deux manteaux
reste un changement de phase, dont on admet cette
fois qu’il conditionne une convection à 2 étages
séparés, manteau supérieur et manteau inférieur. La
couche de transition (TZ) que représente cette
séparation des deux manteaux est donc alors une
couche limite (donc conductive et non convective)
qui peut absorber une partie des 2300 K qui ne sont
plus supportés par la seule CMB dans cette
hypothèse 2. La température du sommet du
manteau inférieur est alors imprécise, « en
théorie » quelque part entre 1600 K et 3100 K. De
même la température du sommet de la CMB se
situerait quelque part entre 2300K et 3800 K.
On le voit, la connaissance des températures internes
de la Terre peut encore progresser largement !
Tireté vert, T° Mg-olivine b
Spinelle ;
Tireté rouge, T° Mg-olivine b
pérovskite + magnesiowustite ;
Tireté violet, T° limite du gradient adiabatique du noyau,
partant de 5000 K comme T° de cristallisation de la graine ;
tiretés bleus, un gradient mantellique de 700 K.
- 19 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Sites WEB consultés
http://www.shs.univ-rennes1.fr/radio/indexradio.htm
http://lpsc.in2p3.fr/gpr/french/Energie.html
http://www.agu.org/reference/gephys/19_vschmus.pdf
http://www.nature.com/nsu/030505/030505-5.html
http://www.ens-lyon.fr/~oarboun/index.htm
http://www.ipgp.jussieu.fr/~grigne/these.html#resultats_fixe
http://www.sciences.univ-nantes.fr/physique/perso/cortial/bibliohtml/epiclc_j.html
http://www.iut-lannion.fr/LEMEN/Mpdoc/Cmther/thcinrt.htm
http://carnegieinstitution.org/default.html
http://www.esrf.fr/info/science/highlights/2000/materials/MAT8.html
http://www.ipgp.jussieu.fr/pages/060204.php
http://www.gps.caltech.edu/~gurnis/Movies/movies-more.html
http://www.sg.geophys.ethz.ch/geodynamics/klaus/WS_99_00/Earth/Earth's%20Thermal%20Regimes.htm
http://www.geo.lsa.umich.edu/IHFC/heatflow.html
http://www.newgeology.us/presentation41.html
http://peterbird.name/publications/2003_PB2002/PB2002_wall_map.gif
Quelques idées fortes
Quelques idées fortes :
La Terre est une machine thermique « deux en un ».
La chaleur interne rayonnée par la Terre a une triple origine :
Energie cinétique récupérée des matériaux qui constituent la Terre
Energie de différentiation primaire du noyau et de sa cristallisation lente en graine solide
Energie radioactive de 3 éléments abondants dans le manteau et la croûte terrestre, U, Th et K
Le flux de chaleur sortant de la géosphère reflète à la fois l’épaisseur et l’âge de la lithosphère
Le manteau terrestre est un solide à l'échelle de temps des phénomènes acoustiques,
Le manteau terrestre est un fluide à l'échelle des temps géologiques,
Il permet de transporter la chaleur depuis l’intérieur de la Terre (source chaude) vers le cosmos (source froide)
par convection et par conduction ;
son nombre de Rayleigh, de l’ordre de 106 est très supérieur au nombre critique
La lithosphère, région superficielle de la Terre dont la rigidité interdit la convection en son sein,
transporte la chaleur exclusivement conduction.
La lithosphère océanique appartient aux cellules de convection du manteau
La lithosphère continentale agit comme un couvercle et accumule de la chaleur du manteau à sa verticale
La chaleur externe, reçue du soleil est 10 000 fois plus grande que l’énergie interne rayonnée par la Terre
L’atmosphère, l’hydrosphère et la partie superficielle de la géosphère transportent cette chaleur externe depuis l’équateur
(source chaude) vers les pôles (source froide)
- 20 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
CHAPITRE 2
Les météorites
Yaari Toya, Météore, 2007
« meteor »
Impuissant et le plus souvent terrifié par ces chutes
de pierres noircies, l’homme vit d’abord en elles une
intervention du divin (Fig. 1a). Ce n’est qu’à la fin du
XVIII° siècle (1793) qu'Ernst Friedrich Chladni, en
s’appuyant sur de nombreux rapports de témoignages,
échafauda la première théorie valide concernant ces objets
déroutants : ils proviennent de l'espace et il existe un lien
entre météores (étoiles filantes) et météorites.
Ses affirmations furent confirmées par une
succession d’événements ; en 1794, une pluie de pierres
s’abattit sur Sienne (Italie) ; En 1795, une autre chute
météoritique eut lieu ; en 1796 ce fut au Portugal et en 1798
en Inde. L’analyse physico-chimique de cette récolte révéla
que ces pierres sont bien différentes des roches terrestres et
que certaines présentent d'importantes quantités de nickel.
Le premier astéroïde fut découvert en 1801, confirmant
l’origine extraterrestre de ces objets. En 1803, une pluie de
plusieurs milliers de fragments s'abattit sur la Normandie.
L’enquête révéla que de toute évidence, ces pierres
provenaient de l'espace. Il était définitivement ( ?) temps de
renvoyer les « Esprits » à des occupations plus sérieuses…
La Terre reçoit en de l’ordre de 40000 Tonnes/an de
matière extraterrestre, qui frappe la Terre au sommet de
l'atmosphère. Il s’agit pour l’essentiel de micrométéorites de
moins d'un millimètre de diamètre, dont le nombre est
évalué à 10 millions de milliards par an. Plus grosses,
souvent en essaims que la Terre traverse à date fixe
(Aquarides de mai, Perséïdes d'août, Géminides de
décembre) elles se volatilisent le plus souvent en étoiles
filantes dont le scintillement, au mieux de plusieurs
secondes, est proportionnel à la masse. Quelques dizaines de
tonnes/an seulement de météorites atteignent le sol. Les
deux tiers plongent dans les océans, et les particules trop
fines sont le plus souvent perdues. La population la plus
importante est de l'ordre de quelques centaines de microns.
Depuis le début des années 1980, on les ramasse sur les
glaciers de l'Antarctique. 99% de ces micrométéorites
appartiennent au groupe des météorites carbonées hydratées
(comme celles de Murchison, Chp. 2.A.1.a). Notre
protection atmosphérique brûle complètement les météorites
un peu plus grosses, mais elle n'arrête pas les fractions les
plus grossières, jusqu’à des “ bolides ” pouvant mesurer
plusieurs Km de diamètre qui ont de tout temps percuté
notre sol. Il tombe en moyenne sur Terre une seule
météorite/1000 ans comme celle qui a formé le Meteor
Crater en Arizona (50 000 ans ; 30m ; 100 000 tonnes de
fer, Fig. 1b). Dans l’espace, plus un corps est massif plus il
est rare, et plus sa probabilité de chute sur Terre est faible.
Pour un corps de taille plurikilométrique comme celui
(Fig. 1c) qui contribua certainement à affaiblir, voire même
à faire disparaître les dinosaures il y a 65 Ma., cette
probabilité est de l’ordre de une fois tous les 100 Ma.
L'étude des météorites écrit un chapitre important de
la planétologie du système solaire. Elle permet aussi
d’accéder à la protohistoire de notre système, voire même à
l'histoire des étoiles qui nous ont donné naissance, lorsque
chaque espèce minérale ou groupe de cristaux ou cristal,
d'une seule météorite, devient un témoin (cf. § chondrites).
Fig.1 : a) Illustration de la chute de la météorite
d’Ensiseim (Alsace) en 1492
b) Meteor Crater, Arizona, Diam. 1.2km, profondeur 200m
c) Chixculub Crater, Golf du Mexique, Limite crétacéTertiaire, diam. 180 km , http://miac.uqac.ca/MIAC/chicxulub.htm
- 21 -
ENSM-SE, 2° A : axe transverse P N
A – Classification des météorites
Sur la base de leur composition minérale (Tableau 1)
et de leur structure, on classe d'ordinaire les météorites en 3
groupes, qui viennent s’ajouter à celui des comètes:
16/10/12
Fig.2 : les chondres sont des microbilles de quelques
microns à quelques millimètres, constitués de silicates de
haute T° et d'autres minéraux dont certaines espèces
(sulfures, nitrures entre autres) sont inconnues sur Terre
les météorites pierreuses, ou aérolithes ;
les météorites métalliques ou sidérites ;
les météorites mixtes, ou sidérolithes.
1 - Les aérolites : chondrites-achondrites
Les aérolites ou Météorites Pierreuses sont les plus
nombreuses (de l’ordre de 25000 à 30000 individus
reconnus), et surtout constituées de silicates, parfois de
roches carbonées plus quelques traces de fer. Elles
constituent, selon les auteurs, de 80 à 90% des chutes, et
représentent une masse connue de 50 tonnes environ, soit 70
à 80% de la masse des météorites recensées. On divise les
aérolithes en deux grands groupes : les chondrites (93%) et
les achondrites (7%), selon qu'elles contiennent ou non des
chondres (ou chondrules, sortes de petites sphères, Fig. 2 qui
n’ont été observées dans aucun autre matériau connu).
a) microphotographie
a - Les chondrites :
Bien que reconnues dès 1802 par E. Howard, ces
microbilles n’ont été baptisées chondres qu’en 1864 par
Gustav Rose. Les chondrites sont classées selon leur
composition minéralogique.
Chondrites ordinaires : 80% des chondrites ; elles
contiennent de l'olivine, de la bronzite, du plagioclase
(cf. tableau 1) et d'autres minéraux à base de fer. On
les divise en deux sous-groupes, H et L.
Chondrites à enstatite sont divisées en deux sousgroupes, 1 et 11, suivant leur teneur en fer (<12 % et
jusqu’à 35 % respectivement). Elles sont constituées en
grande partie de pyroxène et peuvent contenir du
quartz(SiO2) Elles ont été métamorphosées à des
températures supérieures à 650° C et sont notées E
dans les collections.
Chondrites carbonées : 8% des chondrites ; elles
contiennent en général 40% de plagioclase, mais aussi
du carbone, parfois sous forme organique. Par contre
elles ne contiennent que très peu, ou pas du tout, de fer.
C'est un groupe assez hétérogène qui est divisé en
quatre sous-groupes :
– - CI (type chondrite d’Ivona),
– - CM (pour Mighéï, ou Murchison),
– - CO (pour Ornans),
Tableau 1, Minéraux des météorites :
Mg-Olivine
Mg-Orthopyroxene (enstatite)
silicates
Mg-Clinopyroxène
Plagioclase
Mg-Spinelle
oxydes :
SiO4 Mg2
Si2O6 Mg2
Si2O6 MgCa
Si2Al2o8 Ca
MgAl2O4
b) lame mince.
– - CV (pour Vigarano).
La classification des chondrites est résumée dans le
tableau 2.
Les chondres sont constitués de silicates de haute
Température, plus diverses phases minérales dont certaines
espèces (sulfures, nitrures entre autres) inconnues sur Terre
témoignent parfois d'un environnement extrêmement
réducteur. Ils se sont formés par la condensation des
poussières issues de la formation du soleil. Les chondrites
contiennent toujours du Fer métal, ce qui les rend attirables
par un aimant En outre, les chondrites peuvent contenir des
sortes “ d’enclaves ” constituées de minéraux exotiques plus
réfractaires encore, tels que des minéraux titanifères ou des
silicates
oxydes :
sulfures:
sulfures:
Alliages
Alliages
- 22 -
Fe-Olivine
Fe-Orthopyroxène
Fe-Clinopyroxène
SiO4Fe2
Si2O6 Fe2 (Mg0.8, Fe0.2 = bronzite)
Si2O6 FeCa
Fe-Spinelle
Magnétite
Troïlite
Kamacite
Taenite
FeAl2O4
Fe2+Fe3+2O4 (basse T°)
FeS
(Fe,Ni) 4-7% Ni
(Fe,Ni) 16-60% Ni
ENSM-SE, 2° A : axe transverse P N
16/10/12
Tableau 2, classification des chondrites
classement en fonction de leur minéralogie et de leur teneur en métal
Ordinaires
à Entastite
H
bronzite, olivine (silicate de fer et magnésium), 15 à 251% de fer
L
bronzite, olivine (silicate de fer et magnésium), 7 à 15% de fer
LL
bronzite, olivine 30% (silicate de fer et magnésium), 2 à 7% de fer
EH (high)
pyroxène (silicate de fer magnésium, calcium), forte teneur de fer >25%
EL (low)
pyroxène (silicite de fer magnésium, calcium), faible teneur en fer
Chondrites
40% d'olivine, 30% de pyroxène, 10% de plagioclase (calcium et sodium), carbone sous forme
organique, très peu de fer
Carbonées
CI (Ivuna)
3 à 5 % de carbone, 20 % d'eau
CM (Murchison)
0,6 à 2,9 % de carbone et 1,3 % d'eau
CV (Vigarano)
Moins de 0,2 % de carbone et 0,03 % d'eau
CR (Renazzo)
CO (Ornans)
1 à 0,2 % de carbone, moins de 1 % d'eau
CK (Karoonda)
CB (Bencubbin)
CH (High Iron)
Kakangari type K
Rumurutiites
R
aluminosilicates de calcium qui témoignent
température de formation très élevée, >1500°K.
d’une
Chez les chondrites en général, et chez les chondrites
carbonées en particulier, les chondres (de haute T°) sont
noyés dans une matrice de basse T° faite de silicates plus ou
moins hydratés, de sulfates (SO4) hydratés et de carbonates
(CO3). Cette matrice est riche en grains métalliques et en
troïlite (sulfure FeS). La présence de Fer métal (Fe-Ni)
témoigne du caractère réducteur du milieu, mais son origine
est encore très controversée. S’il peut en effet résulter
directement de la condensation du nuage de gaz (nébuleuse
solaire), il peut aussi apparaître par réduction des silicates,
lors d’une réaction contrôlée soit par la fugacité en oxygène
de l’atmosphère solaire soit par la présence de carbone C
dans la matrice des chondrites. La matrice peut contenir
20% de son poids en eau ; cette eau contribue largement à
l’altération des minéraux anhydres des chondres, à
l’effacement des structures, et à la recristallisation
métamorphique de certaines chondrites qui ont subi un
réchauffement ultérieur (sans rapport avec leur rentrée dans
l’atmosphère terrestre). Cette matrice contient aussi souvent
des composés organiques qui ne sont pas nécessairement
biotiques, et dont certains sont inconnus sur Terre. Elle peut
aussi être faite d'un mélange de minéraux de haute
température (olivine riche en fer en particulier) et de débris
de chondres, qui suggèrent une histoire complexe :
formation à haute température des chondres, fragmentation
des chondres, et agglomération ultérieure avec des
matériaux froids.
Aucune roche comparable aux chondrites, aucun
chondrule, n’a jamais été observé sur Terre ou sur la
Lune. Leur composition chimique globale est d’une part
remarquablement homogène (elle varie très peu d’un
individu à un autre) et d’autre part étonnement comparable à
celle de la moyenne terrestre (cf. tableau 3). Cela suggère
fortement que la Terre est formée du même matériel que les
chondrites et que ce matériel primordial a subi sur Terre un
fractionnement auquel les chondrites ont échappé. La
similitude de composition des chondrites avec l'atmosphère
solaire, excepté en éléments volatils (H, O, gaz nobles) bien
que le Carbone soit encore présent dans les chondrites
carbonées, suppose aussi qu'elles n'ont subi que très peu de
modifications depuis leur fabrication. Quelle que soit
l’hypothèse de leur formation, il est essentiel de noter que
contrairement aux sidérites ou sidérolithes (§ suivant), les
chondrites n'ont pas subi de différenciation chimique
ultérieure majeure. On s’accorde alors à assimiler la
composition des chondrites à celle qu'a pu avoir la Terre
avant la différenciation profonde en un noyau métallique et
un manteau silicaté, et les géochimistes utilisent souvent
leur composition moyenne comme référence dans l'étude des
roches terrestres.
Parmi les chondrites carbonées, la météorite de
Murchison (tombée en 1969 en Australie) est célèbre pour
avoir changé notre façon d’envisager l'origine de l’eau et,
plus accessoirement, celle de la vie sur Terre. On a
longtemps considéré que l’atmosphère terrestre (et son
océan) résultait du seul dégazage du manteau terrestre,
qu’elle était en quelque sorte la fille unique des volcans.
Mais outre la présence de nombreux composés organiques
ainsi que des acides aminés, une grande richesse en azote,
une grande abondance en volatils, la météorite de Murchison
présente (comme l’essentiel des micrométéorites
échantillonnées) environ 50% d'une argile qui contient de
l’eau. Or cette eau présente un rapport isotopique D/H
(2H/1H) semblable à celui de la moyenne de l’océan terrestre
(cf. le fractionnement isotopique, Chp2.C.2) alors que celui-
- 23 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Tableau 3, classification des achondrites
Achondrites
Classement en fonction de leur teneur en calcium (de 0 à 25%)
Eucrites
EUC
+ de 5% de calcium, pigeonite et feldspath calcique
Angrites
ANG
+ de 5% de calcium, riche en pyroxène calcique titanifère, troilite et olivine
Howardites
HOW
+ de 5% de calcium, mélange eucrite-diogenite
Diogénites
DIO
-3 de % de calcium, Hypersthène, pyroxène moyennement riche en fer
Urélites
URE
-3 de % de calcium, olivine-pigeonite, ferro nickel, clinopyroxène et parfois du
diamant
Aubrites
AUB
-3 de % de calcium, enstatite, silice et magnésie
Shergottites
SHE
riche en calcium, roche basaltique composée essentiellement de pyroxène et de
plagioclase, plus quelques éléments oxydés et minéraux hydratés.
Nakhlites
NAK
augite, plus quelques éléments oxydés et minéraux hydratés, diopside-olivine
Chassignite
CHA
riche en calcium, olivine, quelques éléments oxydés et minéraux hydratés
Lunar
LUN
basalte et régolithe
Acapulcoite
ACAP
olivine, pyroxène
Lodranite
LOD
olivine, pyroxène
Brachinite
BRACH
olivine
Winonaite
WIN
Chassignites, Shergottites, and Nakhlites sont regroupées comme météorites SNC
ci diffère justement du rapport isotopique des eaux issues de
volcans. On considère donc aujourd’hui que le rôle joué par 2 - Les sidérites, ou Fers
les météorites de ce type, ainsi que celui des comètes
(Chp. 2.E.2), a été sans doute important pour l’océan, dans
Les sidérites ou Météorites Ferreuses, dites encore
l’histoire de notre atmosphère (Chp. 5.F) et dans l’apparition Fers; constituent une population d’un millier d’individus
de la vie et plus largement dans l’acquisition d’un vernis environ, qui représentent en nombre de l’ordre de 5% des
géochimique extraterrestre durant l’Hadéen (Chp. 4.D.1.b).
chutes et en masse environ 10%. Si le nombre d’individu est
peu élevé, leur masse peut être considérable, et c'est parmi
eux que l'on trouve les plus grosses météorites. Par
b - Les achondrites :
conséquent, contrairement aux autres météorites qui passent
Les achondrites : Elles présentent une texture et une souvent inaperçu, sauf lorsque l’on fait des comptages
composition minéralogique qui laissent penser qu'elles ont systématiques comme dans les glaces de l’antarctique, les
dû se former à partir d'un magma analogue à celui qui fers sont surreprésentées et la masse totale reconnue est de
conduit aux roches ignées terrestres. Certaines d’entre elles 570 tonnes environ. La plus importante (70 tonnes) fut
proviendraient de la Lune, ou encore de Mars (S.N.C.). Elles découverte en 1920 ; elle est restée en place à Hoba, en
constituent 10% des chutes au maximum, on distingue deux Namibie. La seconde provient de Cap York (Groenland),
grandes catégories :
elle pèse 59 tonnes. Dans le désert de Gobi, la météorite de
Shingo pèse environ 35 tonnes ; on l'appelle aussi «le
achondrites riches en calcium (CaO>5%)
chameau d'argent», à cause de sa forme. La météorite de
achondrites pauvres en calcium (CaO<3%)
Chaco (Argentine) pèse à peu près le même poids, et l’on
La classification des achondrites est résumée dans le connaît plusieurs autres météorites pesant plus de dix
tonnes, comme celle de M'Bosi (Tanzanie) qui pèse 16
tableau 3.
tonnes. Les sidérites sont constituées d'un alliage de ferParmi les achondrites, quelques individus découverts
nickel probablement très comparable (au moins
récemment ont clairement une structure achondritique, mais
chimiquement) au cœur de notre Terre. La classification des
une composition proche de celle des chondrites. On
sidérites est basée sur leur structure, mais elle reflète aussi
considère ces échantillons (de type Acapulcoites, Lodranites
ou Winonaites) comme d’anciennes chondrites qui auraient leur composition en nickel. Leur structure est bien mise en
subi ultérieurement un métamorphisme à haute température, évidence par l’attaque acide d’une surface polie, qui fait
voir même une fusion partielle suivie de la perte de la apparaître une sorte de grille formée de bandes, souvent
fraction fondue ; on nomme ces météorites achondrites observables à l'œil nu, de symétrie cubique ou hexagonale,
primitives, en raison du matériel chondritique (= primitif) appelée texture de Widmanstätten (chimiste allemand du
XIX°, Fig. 3). On distingue 3 groupes de sidérites :
qu’elles ont contenu.
- 24 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Fig. 3: Section Polie de la météorite de Casas Grandes,
kamacite à texture
Widmanstätten, et globules
de Troïlite (FeS)
a - Les hexaédrites
Elles contiennent de 5 à 7% de nickel sont des
assemblages de gros hexaèdres de kamacite, parfois un seul
cristal qui se rompt à l'impact. L’attaque à l'acide
chlorhydrique d’une surface polie met en évidence un réseau
de bandes orientées (bandes de Neumann) provenant de la
déformation mécanique subie par la kamacite à une
température comprise entre 300 et 600° C.
b - Les octaédrites,
Elles sont les plus nombreuses, et contiennent de 6 à
18% de nickel. L'attaque à l'acide d'une face polie met en
évidence quatre systèmes de bandes de kamacite. Trois
séries se coupant selon un angle de 60°, la quatrième série
étant parallèle au plan de section dans la figure 3. Elles sont
bordées de taénite, les espaces polyédriques compris entre
ces deux minéraux étant comblés d'une association
microcristalline de ces deux minéraux, appelée plessite : ce
sont les figures de Widmanstätten qui s'expliquent par
l'étude du refroidissement du système fer-nickel. Le
diagramme concentration en Ni dans le système Fe-Ni
versus T°C (Fig. 4) nous montre les phases en présence.
L’abscisse représente la composition du système ; à 0% de
Ni, le système ne contient donc que du fer, et à 60% de Ni, il
contient encore 40% de Fer. Ce diagramme nous montre
l'existence de deux domaines monophasés (en bleu) où la
composition du solide peut varier (il s’agit de solutions
solides) aux températures considérées. Il s'agit du domaine
de la taénite (Alliage de Nickel-Fer) et du domaine de la
kamacite (Alliage Fe-Ni pauvre en nickel). Ce diagramme
nous montre aussi l'existence d'un espace vide (en blanc),
qui est le domaine dans lequel il ne peut exister de solide
homogène stable aux températures considérées, c’est un
domaine à 2 phases. Prenons par exemple un solide de
composition Fe 80%, Ni 20% ; à la température de 450°C, il
se situe dans le domaine à 2 phases solides (taénite +
kamacite) dans lequel, à la température donnée (450°C), il
existe non plus un mais deux solides en équilibre, une
kamacite plus une taénite, dont les compositions respectives
sont celles des limites du domaine à 2 phases à la
température considérée.
Suivons maintenant sur la figure 4 le refroidissement du
solide de composition définie X :
1 - A 700°C, le solide Tn de composition X, homogène,
est une taénite à 15% de Ni.
Fig. 4 : diagramme de phases des alliages Fe-Ni
2 - A 640°C environ, ce solide homogène voit apparaître
en son sein (exsolution) une quantité infinitésimale de
kamacite Km, 0 à 4% de Ni.
3 - A 600°C le solide est composé des 2 phases Km1 et
Tn1, de compositions respectives 5% et 18% Ni, dans
les proportions pondérales respectives 73% de Km1 et
27% deTn1.
4 - A 400°C, les compositions des solides Km2 et Tn2
sont respectivement 6.5% et 48% Ni, dans les
proportions pondérales respectives 22% et 78%.
c - Les ataxites
Elles sont très rares et très riches en nickel, plus de
16% de nickel (jusqu’à 30%) Elles doivent leur nom à
l’absence de texture visible à l’œil nu car la largeur des
bandes de Widmanstätten diminue avec l'enrichissement en
nickel, pour disparaître au-delà de 15 %.
Sur la base de la présence de phases minérales
mineures et de rapports inter éléments concernant des
éléments en concentration mineure, on distingue encore 13
sous-groupes (IAB, IC, IIAB, IIC....) qui sont résumés dans
le tableau 4. Depuis Tschermak on distingue en outre six
sous-groupes en fonction de la largeur des lamelles de
kamacite, liée à la teneur en nickel de la météorite ; ce sont
les sous-groupes Og, Ogg, Om, Of, Off et Opl (depuis «très
grosses» jusqu’à «très fines»).
La classification des sidérites est résumée dans le
tableau 4. On considère les sidérites comme des fragments
du noyau de corps planétaires. L’alliage de fer-nickel qui les
constitue est probablement très comparable, au moins
chimiquement, au cœur de notre Terre.
3 - Les sidérolithes
Les sidérolithes ou Météorites Ferro-Pierreuses comptent
très peu d’individus, 150 tout au plus, qui sont de nature
intermédiaire entre les sidérites et les aérolithes achondrites.
Les sidérolithes sont composées de silicates (grains d'olivine
pure, ou d'olivine plus pyroxène, ou de pyroxène plus
plagioclase) noyés dans une matrice à olivine et d'alliage
métallique, et représentent des sortes de “ brèches ”,
mélange de sidérite et d'aérolite, susceptible de correspondre
- 25 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Tableau 4, classification des sidérites
Hexaédrite HEX
I AB, Fe-Ni
Silicates Carbures
IC,
Fe-Ni
II AB,
Fe-Ni-Cr
IIC,
Fe-Ni
II D, Fe-Ni
II E,
Fe-Ni-Silicates
II F, Fe-Ni
III AB, Fe-Ni
Troïlite
Phosphores
Ataxite ATAX
Octaedrite Opl
Octaedrite Off
Octaedrite Of
Octaedrite Om
Pitts
(USA) Udei Station (Nigeria)
Woodbine (USA) Four Corners (USA)
Winburg (Afr du S)
Octaedrite Ogg
Toluca (Mexique)
Guin (USA)
Bendego
(Brésil)
Arispe (Mexique)
Braunau (Tchequie)
Uwet (Nigeria)
Sikhote Alin (Russie)
Lake Murray (USA)
Unter
Massing
(Allemagne)
Carbo (Mexique)
Mont Dieu (Mexique)
Watson (Australie)
Miles (Australie)
Weekeroo (Australie)
Kofa (USA)
Henbury Sacramento (USA)
La Porte (USA)
Mundrabilla
(Australie)
Watson (Mexique)
Nantan (Chine)
III CD, Fe-Ni
Carbiures
III E, Fe-Ni
Carbures Graphite
III F, Fe-Ni
Willow Creek (USA)
St Genevieve (USA)
Gibeon (Namibie)
Steinbach (Allemagn)
IV A, Fe-Ni
IV B, Fe-Ni
silicates graphite
Octaedrite Og
Chingla (Russie)
Fig 5a: Pallasite de Imilac, Chili
à
la
moyenne de l'olivine est très magnésienne (SiO4 Mg2) et
comparable à celle de l’olivine du manteau de la Terre ou
des laves basaltiques (Chp. 4.C.1).
On les divise en trois groupes (tableau 5):
a - Pallasites :
Elles contiennent des gros cristaux d'olivine allant du
millimètre au centimètre, de couleur variant du jaune brun
au vert chartreuse, inclus dans une matrice de ferronickel.
Sciées et polies, ce sont sans doute les météorites les plus
esthétiques (fig. 5a). Leur nom vient du naturaliste Pallas
qui, en 1775, trouva une «éponge de fer» en Sibérie. Elles
sont rares, une cinquantaine connues seulement.
pallasite sciée et polie
b - Mésosiderites :
Elles présentent un mélange de parties à peu près
égales de métal (ferronickel) et de deux silicates (pyroxène
et plagioclase). Peu nombreuses (86 connues), elles
présentent l’allure de brèches comprenant des agrégats ou
des morceaux d’alliage fer-nickel ou de silicates (fig. 5b)
Fig. 5b : Mesosidérite,Ca-Plagioclase (feldspath) en
blanc
c - Lodranites :
Du fait qu’elles contiennent en parties égales, du métal, de
l'olivine et du pyroxène, certains auteurs classent les
lodranites dans les sidérolithes ; néanmoins leur proximité
de composition avec les chondrites tend de nos jours à les
classer avec achondrites primitives.
Tableau 5, classification des sidérolithes
couche terrestre D'' (Chp. 4.B.1), interface entre noyau et
manteau.
Pallasites
La Pallasite (Fig. 5a) montre une olivine (Mg2SiO4)
en gros cristaux, dans une matrice d'alliage Fe-Ni, montrant
d'intenses déformations tectoniques obtenues à haute
température (proche du point de fusion). La composition
Mésosidérites mélange égal ferro-nickel silicates
(pyroxène et plagioclase)
- 26 -
Iodranites
cristaux plurimillimétriques d'olivine
noyé dans l'alliage de ferro-nickel
ferro-nickel, olivine et pyroxène
ENSM-SE, 2° A : axe transverse P N
B - Composition chimique des météorites
16/10/12
Fig.6a : abondances cosmiques relatives des éléments (pour
106 atomes de Si) vs nombre atomique ;
On observe qu’une forte proportion des météorites
recueillies appartient au groupe des sidérites, les météorites
riches en fer. Cette observation n’est en rien surprenant car
la composition de notre Soleil, comparable à beaucoup
d’autres étoiles, est riche en fer.
1 - Aperçu de la composition du Soleil
La figure 6a nous rapporte la composition du Soleil,
le silicium étant ramené à 106 atomes. Trois observations
peuvent être faites à partir de ce diagramme :
1 - globalement, les abondances des éléments décroissent
avec leur masse atomique
2 - les éléments de nombre atomique pair présentent des
abondances plus grandes que leurs voisins impairs
(e.g. C, N, O, respectivement Z= 6, 7, 8, …, Na, Mg,
Al, Si, P respectivement Z= 11, 12, 13, 14, 15 etc.…)
3 - Certains éléments ont une abondance anormale, celle
de Fe, Ni est très élevée, celles de Li, B et Be sont très
faibles
L’anomalie d’abondance des éléments pairs par
rapport aux impairs traduit la plus grande stabilité des
nucléons pairs (e.g. http://www.unice.fr/Radiochimie).
La dominance de H et He trouve son explication dans la
nucléosynthèse primordiale qui, après apparition de l’atome
d’hydrogène dans le big-bang, a pu fabriquer de l’hélium en
abondance par fusion proton-proton (fig. 6b). Cette première
synthèse s’est arrêtée là, au moment de l’expansion brutale
de l’univers et de la chute de pression qui l’accompagne.
Tous les autres éléments ont été fabriqués plus tard, au
cours de nucléosynthèses secondaires dans des étoiles ; les
éléments lourds impliquent des températures et un
confinement que l’on trouve seulement dans des étoiles de
type géantes rouges, voir lors de nova.
Fig.6b :
De manière extrêmement schématique, on peut dire
que de l’Hélium au Fer, les éléments sont fabriqués par
fusion (fig. 6b), sauf le triplet des éléments Li Be B dont la
section efficace ne le permet pas, et qui de ce fait ne suivent
pas la courbe des abondances. Au-delà du fer, les éléments
lourds sont fabriqués par capture de neutron. Le noyau d’un
atome lourd capture des neutrons (fig. 6c), ce processus
étant facilité par l’absence de charges, jusqu’à fabriquer un
isotope instable, qui donne un nouvel élément fils. Par
ailleurs, les atomes lourds deviennent instables, ils sont
sujets à des fissions, qui ont pour effet d’enrichir les
éléments plus légers. Le fer est l’élément qui présente le
noyau le plus stable, et il se trouve de ce fait surabondant
par rapport à la courbe moyenne. Il en résulte que
l’abondance du fer équivaut à celle du magnésium et du
silicium
http://hyperphysics.phy-astr.gsu.edu/hbase/astro/astfus.html#c2
Nucleosynthesis by fusion.
Proton-Proton Cycle
1
Step one, deuterium
H + 1H ------> 2H + e0 + neutrino
0
e = positron: masse de l’électron et charge >0
Neutrino = sub-particule de charge nulle et quasi sans masse
1
Step two, helium 3
H + 2H -----> 2He3 + radiation γ
3
Step three, helium 4
He + 3He -----> 4He + 1H + 1H
La fusion nucléaire dans le soleil produit 653 000 000 tonnes d’helium par seconde, convertissant 22 000 000
tonnes du soleil en énergie.
Carbon-Nitrogen-Oxygen Cycle
12
Step one,
C + 1H ------> 13N + radiation γ
13
Step two,
N ------> 13C + radiation β (t½ = 10 minutes)
13
Step three,
C + 1H ------> 14N + radiation γ
14
Step four,
C + 1H ------> 15O + radiation γ
15
Step five,
O ------> 15N + radiation β (t½ = 10 minutes)
15
N + 1H -----> C12 + He4
Step six,
L’effet global du cycle CNO est encore de transformer de l’hydrogène en helium. Le carbone n’est pas un élément
produit dans ce cycle ; il ne peut être produit que durant la contraction lente du cœur d’helium des géantes rouges,
par fusion d’un triplet de noyaux d’helium (triple α process). L’oxygène sera à son tour produit dans les mêmes
conditions par fusion d’un de ces carbone avec un helium.
- 27 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Fig. 6d : Abondances des éléments (en unités molaires) dans la
photosphère solaire versus leur abondance dans la chondrite
carbonée d’Orgueil (CI1). Les volatils H, C, N, O et les
gaz rares (non figurés)sont déprimés dans les
chondrites, et le Lithium est enrichi.
2 - Météorites et composition solaire
A travers ce schéma grossier de l’origine des
éléments, on comprend mieux la triple nature des
météorites :
1 - Les météorites pierreuses achondrites présentent une
composition dominée par le groupe O-Mg-Si-Al, qui
est le premier groupe d’éléments abondants après le
groupe des éléments très légers H-He et volatils. Cette
sélection d'éléments va permettre de construire les
phases silicatées de ces météorites;
2 - Les sidérites sont centrées sur le pic du Fe-Ni, qui vont
constituer la base de tous les alliages de ces météorites
et des sidérolithes ;
3 - Les chondrites ont une composition quasi identique à
celle du soleil, sauf pour les éléments volatils (fig. 6d),
ce qui signifie que contrairement aux autres
météorites, elles n’ont subi que fort peu de
modifications par rapport à leur père, le Soleil.
C - Les météorites différenciées et le fractionnement
chimique dans le système solaire
des planètes : comme noté au cours de l’introduction,
cette différenciation a concentré l’essentiel des
éléments réfractaires vers le Soleil, et l’essentiel des
éléments volatils vers la périphérie du système;
L'organisation de notre système en un groupe de
planètes rocheuses localisées dans le voisinage du Soleil et
un groupe de planètes gazeuses à l'extérieur (Introduction)
montre qu'il n'est pas chimiquement homogène,
contrairement à ce que l'on observe dans les nuages de gaz
interstellaires qui donnent naissance à des étoiles. Notre
système paraît donc avoir subi une intense différenciation
(ségrégation des éléments), qui doit avoir eu lieu avant ou au
cours de la formation des planètes au plus tard.
2- Une différenciation à l'échelle de chacun des corps en
cours de formation d'autre part, qui va donner les
noyaux des planètes décrits dans l’Introduction
(Fig. 1) ; D’autres corps aussi s’étaient différenciés,
que l’on retrouve en fragments rocheux qui
constituent l’ensemble des météorites différenciées.
Lorsqu’ils percutent la Terre, on les nomme sidérites,
sidérolithes, et aérolithes achondritiques. Par
opposition, on parlera de météorites indifférenciées
pour les chondrites, puisque ces fragments de cailloux
n’ont aucune des caractéristiques des roches
planétaires, et qu’ils paraissent par conséquent refléter
l’état du système solaire avant la différentiation (cf. §
suivant « météorites indifférenciées »).
Le terme «différencié» recouvre en fait plusieurs
échelles de phénomènes, au moins deux ici:
1- Une différenciation à l'échelle du système solaire d'une
part, qui nous questionne sur le mode de construction
Fig.6c :
http://zebu.uoregon.edu/~js/ast223/lectures/lec21.html
1 - Relation de Titius et ceinture d’astéroïdes
On imagine généralement que les planètes du
système solaire sont nées presque en même temps que le
soleil, de l'effondrement gravitaire de la nébuleuse (gaz), par
agrégation et collision de poussières (accrétion à froid). La
relation de Titius (XVIII° siècle) tente de traduire les
caractéristiques fondamentales du disque gazeux
protosolaire. Il était sans doute animé comme aujourd’hui
d'un mouvement de rotation qui lui a conféré une symétrie
axiale (de révolution). L'essentiel de sa masse était déjà
confiné en son centre. Il suffit alors, qu'il ait été invariant
d'échelle pour rendre compte de la distribution observée des
planètes. “ Invariant d’échelle ” signifie que ses propriétés
physiques suivaient une progression géométrique.
Autrement dit, la variation de la propriété p entre R et 2R
(distances au soleil), est la même qu'entre 4R et 8R. On écrit
R n= R0.kn
ainsi :
où n est l'ordre de la planète, et R n et R0 sont
respectivement les rayons orbitaux des planètes de rang n et
zéro. La raison k vaut environ 1.7 pour les planètes en
rotation autour du Soleil.
- 28 -
ENSM-SE, 2° A : axe transverse P N
Cette relation de Titius écrite à l'époque sous une
autre forme, était finalement bien vérifiée pour les 5
planètes connues du vivant de Titius. Elle avait même
conduit Bode à supposer dès la fin du XVIII° siècle qu'une
planète avait dû exister puis avait dû exploser entre Mars
et Jupiter. Or, l’analyse des trajectoires des météorites que
la Terre reçoit (lorsque c’est possible) nous montre qu’elles
proviennent certainement pour l’essentiel de cette région de
l’espace ; et c’est précisément dans cette région que l’on
observe une ceinture très riche en astéroïdes. Cette notion
de richesse en bien sûr toute relative. Le total de la masse
des corps de cette ceinture n'excède pas quelques % de la
masse de la Terre, et les quelques corps massifs que l'on y
trouve en représentent plus de la moitié. Le plus gros corps
et le premier reconnu dans la ceinture d'astéroïdes, Cérès,
atteint 930 Km de diamètre (Fig. 7a, Giuseppe Piazzi
1801). Pallas, Vesta (Fig. 7b), Hygiea (400 à 525 km,
fig. 7c) et 23 autres corps ont une taille de plus de 200 Km.
Tous les astéroïdes de plus de 100 km nous sont connus ou
presque, et sans doute connaît-on 50% des corps de plus de
10 km. Par contre, on ne sait à peu près rien du million ou
plus d’astéroïdes de l’ordre du km qui peuplent cette
ceinture. La grande majorité présente une faible excentricité
et une inclinaison sur le plan de l'écliptique presque toujours
inférieure à 4° (maxi 30°).
16/10/12
Fig.7b : L’astéroïde Vesta vu au telescope Hubble à gauche, et
depuis la Terre à droite. Sa topographie est en image couleur.
Image centrale en couleur: le bleu représente les creux et le
rouge les bosses, noter le cratère d'impact (450 km de diamètre)
Toutefois Titius n’avait pas complètement tord. Dans
cette zone orbitale située entre Mars et Jupiter, les
interactions fortes entre le champ gravitationnel de Mars et
celui que crée la masse énorme de Jupiter constituent un
piège pour les grains de poussière ou les cailloux passant
dans son voisinage. Ces interactions sont si fortes qu’elles
On a longtemps rapporté les météorites qui empêchent la formation d’un anneau homogène. La
parviennent sur Terre à l'explosion de la planète dite distribution des orbites des astéroïdes fait apparaître des
«manquante» de Titius ; mais deux arguments essentiels distances de demi grand-axe auxquelles ne correspondent
sont venus infirmer cette hypothèse :
aucun astéroïde. Ces domaines non peuplés sont appelés
1 - la distribution des radio-isotopes dans les météorites lacunes de Kirkwood (Fig. 7c). Elles correspondent aux
impose qu’elles ne sont pas issues d'une planète distances orbitales auxquelles un objet soumis à ces
unique fragmentée tardivement, soit à la suite d'une conditions serait en résonance avec la planète géante Jupiter.
collision, soit sous l’influence de marées trop fortes Le phénomène de résonance se produit lorsque la période de
provoquées par Jupiter, mais de corps souvent l'orbite de l'objet est une fraction entière de celle de celle de
la planète voisine (ici Jupiter). Les lacunes principales sont
chimiquement distincts les uns des autres ;
observées pour les rapports 3:1, 5:2, 7:3 et 2:1 entre
2 - ce ne sont pas exclusivement des fragments de planète astéroïde et Jupiter. Ces lacunes ne sont observables que
qui nous parviennent de cette région particulière, mais dans la distribution des demi grand-axes et pas dans celle de
quasi toutes les météorites, y compris les chondrites, la densité des astéroïdes dans la ceinture. En effet,
or les chondrites sont constituées d'un matériau non l'excentricité orbitale des astéroïdes, bien que faible, suffit à
planétaire.
ce que ces objets franchissent en nombre les domaines
Fig. 7a : Astéroïde Cérès 933, vu par Hubble ; Cérès apparaît lacunaires définis par les demi grand-axes.
avec une résolution de +/- 50 km. Une formation circulaire de
250 km de diamètre est mise en évidence, dont la nature ne peut
toutefois être déterminée avec certitude (cratère ? différence
Fig. 7c : Lacunes de Kirkwood dans la ceinture d’astéroïdes ;
d’albédo ?), pour laquelle le nom de baptême de Piazzi a été
Abondance des astéroïdes vs. taille en UA du demi grand-axe ;
proposé d’emblée. L’examen de cette image a permis d’évaluer
la lacune principale correspond à la résonance 3 :1
le rayon de Cérès à 484,8 (+/- 5,1) et 466,4 (+/- 5,9) km.
http://ssd.jpl.nasa.gov/images/ast_histo.ps
- 29 -
ENSM-SE, 2° A : axe transverse P N
Fig. 7d : Toutatis, géocroiseur de 4,6x 2,4 x 1,9 km, qui
passera le 20 septembre 2004 à 4 fois la distance Terre Lune
16/10/12
constitution, Dès lors, on peut donc sans doute parler avec
André Brahic dans «Sciences de la Terre et de l'Univers»
(1999) d'une fausse bonne piste à propos de la relation de
Titius, mais elle fut féconde !
2 - le fractionnement des éléments chimiques des
corps massifs et les météorites différenciées
Le nuage de gaz et de poussières qui constituait la
nébuleuse protosolaire se transforma en un disque plat sous
l’effet de la rotation et de la gravitation (cf. paragraphe Les
chondrites sont des objets apparus très tôt dans
l'effondrement gravitaire de la nébuleuse) Au sein de ce
disque, les poussières sont agrégées en corps de plus en plus
gros, jusqu’à constituer des planètésimaux.
Il est donc très vraisemblable qu’aucune planète
importante n’a jamais pu se constituer dans cette région en
raison des instabilités auxquelles conduisent les interactions
avec la planète géante voisine, interactions à ne pas
confondre avec la limite de roche13 de Jupiter qui ne croise
pas la ceinture d’astéroïdes (loin s’en faut) et encore moins
celle de Mars. Inversement, le piège gravitationnel que
constitue cette région aurait par contre favorisé
l'accumulation d'astéroïdes, en dispersant les fragments
rocheux au cours de leur accrétion. Par ailleurs, ces
interactions et instabilités provoquent vraisemblablement
des chocs entre objets, et donc des modifications brutales
des orbites de ces astéroïdes. Certains d’entre eux seraient
alors éjectés sur des orbites très elliptiques recoupant le
champ d’attraction des planètes, comme Géographos,
Adonis, ou Toutatis (Fig. 7d). En outre, certains corps, à
l'image de Cérès, ont pu atteindre une taille suffisante pour
qu'ils aient pu connaître une différenciation chimique. Ce
sont de tels corps, situés initialement dans cette ceinture
soumise aux perturbations complexes des attractions de
Jupiter et de Mars où les collisions sont probablement
fréquentes, qui ont pu donner naissance par fragmentation
ultérieure aux météorites différenciées, achondrites, sidérites
et sidérolithes.
Il reste que cette relation de Titius a aussi largement
favorisé la découverte des planètes externes, Uranus,
Neptune et Pluton, mais la progression géométrique de
raison 1.7 n'est que très mal vérifiée pour ces dernières.
Cette relation conserve-t-elle un sens physique? Elle traduit
à coup sûr le fait imposé par l'attraction universelle que deux
corps en cours d'accrétion ne peuvent être trop rapprochés
sous peine de voir la compétition pour la capture de la
matière environnante interdire leur croissance (cf. la
ceinture d’astéroïdes), et que dans le nuage protosolaire un
ensemble de perturbations gravitaires allaient contribuer à la
constitution des planètes, ou inversement interdire leur
13
On appelle limite de roche la distance en dessous de
laquelle la force de cohésion d’un satellite d’une planète
devient inférieure aux forces des marées provoquées par la
planète. Le satellite est alors désagrégé.
Comment s’et opérée cette d’accrétion ; fut-elle
homogène ? Hétérogène ? S’est-elle produite à froid ? À
chaud ? La géochimie terrestre propose un modèle
d’accrétion hétérogène fondé sur des bilans de matière
simple, dans lequel l’évolution de la température est un
paramètre clef. On remarque en particulier que l’essentiel de
l’eau terrestre est contenue dans son atmosphère, et on note
que la Terre en possède suffisamment pour oxyder
l’essentiel du fer terrestre. Or celui-ci est contenu
principalement à l’état Fe2+ dans le manteau et sous forme
métal dans le noyau. Il faut donc admettre qu’au moment ou
ce noyau s’est individualisé l’accrétion était pauvre en eau,
et que notre Terre a reçu son eau plus tardivement. Si l’on
admet ici (cf. $ condensation de la nébuleuse) qu’au stade
précoce du fonctionnement du Soleil il s’est mis en place un
fort gradient de température qui s’est ensuite atténué, on
comprend que les premiers condensats s’accrétant en
planètésimaux devaient être
constitués de matériaux
réfractaires, et que des condensats de glace n’ont pu arriver
sur Terre qu’à un stade plus froid, et donc plus avancé.
Sur un planètésimal en formation, les vitesses
relatives des objets qui entrent en collision avec lui
augmentent avec la masse du planètésimal parce que cette
masse accroît le champ de pesanteur à son voisinage.
L'énergie cinétique récupérée lors des collisions s’ajoute à la
compression adiabatique (corollaire de l'augmentation de sa
taille) pour en accroître la température, jusqu’à engendrer la
fusion de cette protoplanète. En fin d'accrétion les collisions
deviennent si violentes qu'elles ont pu modifier
considérablement les planètes qui viennent de se former.
Citons Mercure qui aura perdu ainsi une grande partie de
son manteau et aura vu ainsi sa masse volumique moyenne
augmenter, et la Terre qui donnera naissance à la Lune après
une capture - collision cataclysmique (cf. Chp. 4.D.1.d).
Avec la fusion (au moins partielle) des matériaux
accrétés à froid, apparaît le premier mode de fractionnement
responsable de la ségrégation d’un noyau ferreux chez les
planètes telluriques. En effet, à l’état liquide, la gravité
permet le transfert du fer (très abondant) vers un noyau
dense.
A l’état solide, un autre mode de transfert du fer vers
le noyau peut être envisagé. En effet, les silicates (ils
constituent l’essentiel des minéraux des planètes rocheuses,
en particulier leur manteau) sont des solutions solides
capables d’assimiler dans leur réseau des proportions de fer
souvent beaucoup plus élevées aux faibles pressions qu’aux
- 30 -
ENSM-SE, 2° A : axe transverse P N
fortes pressions. Il s’ensuit donc que ces phases minérales
devenues instables dans la convection descendante
« expulsent » leur fraction Fer à la base du manteau, lui
permettant de rejoindre ainsi le noyau.
On appelle fractionnement chimique l'ensemble des
processus qui tendent à séparer les espèces chimiques ou
minéralogiques, en fonction de leur densité et/ou de leur
affinité chimique, dans les conditions P, T° de stabilité des
solides (minéraux) et des liquides qui les contiennent. On
appelle sidérophiles et chalcophiles les éléments chimiques
ayant tendance à constituer respectivement des alliages avec
le fer et des minéraux avec le soufre (sulfures métalliques en
particulier). On appelle lithophiles les éléments volatils ou
les éléments volontiers “ capturés ” par Si et O (silicates et
oxydes), Mg, Al, Alcalins, alcalino-terreux. Parmi les
lithophiles, les éléments à gros rayon ionique et/ou à forte
charge, ont des difficultés à entrer dans les réseaux silicatés
stables à haute T° et haute P. Ils ont donc quelques
difficultés à entrer dans les minéraux du manteau terrestre.
En outre, certains éléments ont une forte tendance à
constituer des complexes très stables dans les liquides
silicatés, préférant ainsi le liquide au solide pour une T°
d'équilibre donnée. Tous ces éléments sont donc “ distillés ”
à T° décroissante dans des produits ultimes de cristallisation,
et vont constituer ce que Claude Allègre appelle “ l'écume
de la Terre ”, ou croûte terrestre, et en particulier les
continents.
On imagine ainsi que dans les protoplanètes
rocheuses en fusion, le noyau s'individualise en raison de
la forte densité du fer. Il regroupe avec lui les éléments
sidérophiles, le Ni en particulier. Les lithophiles constituent
le manteau silicaté puis plus tard la croûte. Parallèlement le
dégazage des éléments volatils constitue l’atmosphère
primordiale de ces corps.
Certains aérolithes achondrites proviennent
d'anciennes roches fondues de compositions très
comparables à de la croûte terrestre ou lunaire. Elles
résultent d'un fractionnement chimique important. Il peut
aussi s'agir de fragments de croûte arrachés à la Lune ou à
Mars lors d'impacts. L’une d’entre elles, ALH 84001,
défraye la chronique depuis 1996 car elle pourrait apporter
le témoignage que l’exobiologie n’est pas un mythe ? Les
Fig. 8 : Structures filamenteuses observées en 1996 dans
ALH84001, trouvée en 1984 dans la région d'Allan Hills
(Antarctique) dans des glaces de 13000 ans. ALH84001, 4.5
Gans, provient vraisemblablement de la croûte de Mars et elle a
du se former juste après l'accrétion et la différenciation de Mars.
16/10/12
Fig. 9:Formation des météorites différenciées
structures que l’on y observe (Fig. 8) ressemblent beaucoup
à des bactéries terrestres, mais elles sont 100 fois plus
petites, ce qui rend toute confirmation impossible. Pour
nombre de biologiste une telle taille ne permet pas le
"rangement" d'une usine cellulaire complète, peut-être des
organites cellulaires? Ces nanostructures sont observées
dans des microbilles carbonatées qui contiennent aussi des
sulfures. Sur Terre les sulfures provenant de la réduction
bactérienne de sulfate est courante, mais elle s'accompagne
d'une séparation isotopique qui enrichit le sulfure
biogénique en 32S, ce qui n'est pas démontré sur ALH84001.
En tous cas, elles sont suffisamment troublantes pour
motiver une part importante du programme d’exploration de
Mars dans les années à venir.
Si l’on rapporte les achondrites à de la croûte
planétaire, on assimile corrélativement les sidérites à des
morceaux de noyau planétaire, et les très rares météorites
mixtes (sidérolithes) à l'interface noyau-manteau. Nombre
de météorites proviennent donc de ce qui fut sans doute un
ou des corps différencié(s), puis dispersé(s) (Fig. 9).
Les datations obtenues sur des achondrites et des
sidérites convergent vers 4.4 Ga.±0.1, c'est à dire quelques
centaines de millions d'années au plus après la naissance du
système solaire (4.57 Ga. Allègre et al. 1995.). Cet âge
pourrait représenter l'épisode de la différenciation des
corps planétaires dans le système solaire. Une sidérite
datée à 3.8 Ga. démontre que ce processus de différenciation
a pu affecter des corps «très» tardivement dans la
protohistoire de notre système.
Les planètes gazeuses ne sont pas exemptes de
différenciation (cf. Chp. introduction), mais celle-ci est
beaucoup plus froide (séparation de l'H2 liquide et
métallique par exemple) et ne peut donner naissance qu'à du
gaz lors des collisions avec des météores (e. g. comète de
Lévy avec Jupiter en 1994, Fig. 10) et ne peut éjecter des
matériaux condensés.
http://www.nirgal.net/alh84001.html
- 31 -
Fig 10: Collision de la comète Shoemaker-Levy 9
avec Jupiter; les fragments de la comète ont été
rapprochés sur l'image
ENSM-SE, 2° A : axe transverse P N
2 - le fractionnement isotopique des espèces
chimiques
Nous avons vu jusque là un ensemble de processus
capables de fractionner les éléments chimiques. Mais les
processus physico-chimiques sont aussi capables de
fractionner les différentes espèces isotopiques d’un composé
engagé dans ces processus. De tels fractionnements
isotopiques des espèces chimiques constituent un outil
extrêmement performant pour tracer les processus
géochimiques, que le lecteur retrouvera en des endroits très
divers de ce polycopié. On s’intéresse ici aux isotopes
stables (non radioactifs et non radiogéniques), dont la
quantité dans un réservoir donné n’évolue pas par
radioactivité, mais par déplacement vers ou depuis un autre
réservoir au cours de processus physico-chimiques. Nous
n’aborderons pas ici le cas des isotopes radioactifs
d’éléments pères, dont la décroissance naturelle au cours du
temps provoque la croissance naturelle d’éléments fils dits
radiogéniques, couples classiquement utilisés en datation.
Nous décrirons ici sommairement les principes du
fractionnement isotopique d’isotopes stables, en reprenant le
manuel « Géologie isotopique » de C. Allègre, 2005, partant
de l’exemple de l’eau, constituée de deux H et un O. Ce
composé comprend ainsi diverses molécules, à base de 1H
(l’hydrogène léger, H), de 2H et 3H (les hydrogènes lourds,
Deutérium, D, et Tritium, T), et de trois isotopes de
l’oxygène, 18O, 17O, 16O du lourd au léger. Pour molécules
les plus courantes, nous aurons donc :
1 - H218O (2.2%) ; H217O (0.5%) ; H216O (97%) ;
2 - D218O ;
D217O ;
D216O ;
18
17
3 - DH O ;
DH O ;
DH16O (0.3%) ;
Notons que quatre espèces isotopiques seulement
sont > 0.1%, dont une qui domine largement.
16/10/12
référence. Il s’agira d’un carbonate de calcium CaCO3
référence (bélemnite14 de la Peedee formation, U.S.A)
appelé « PDB standard carbonate », pour étudier les
variations 18O/16O dans le carbonate des coquilles
d’organismes vivants ou fossiles (CaCO3 eux aussi). Pour
les variations isotopiques de l’eau, les valeurs standards de
référence furent d’abord la moyenne des concentrations
océaniques (SMOW, « Standard Mean Ocean Water » H.
Craig, 1967). Mais rapidement (1968) le besoin s’est fait
sentir de disposer d’un standard eau pure, plus accessible
qu’une eau océanique déminéralisée. Le vocable V-SMOW
(ocean water !) a néanmoins été conservé, avec V pour
Vienna Standard Mean Ocean Water (du nom de l’Agence
Atomique Internationale de Vienne). La composition
isotopique de SMOW est donc parfaitement définie15. Ces
variations de composition sont en fait très petites, et on les
exprime en unité delta, fonction des rapports R mesurés et
standards, exprimée en %o, telle que :
δ = [(REch - Rstd) / Rstd].103
On appellera ainsi δ18O d’une eau (prononcer delta
O18), l’écart entre la mesure du rapport 18O/17O faite sur un
échantillon d’eau et la valeur standard SMOW de ce
rapport :
δ18O = [(18O/16OEch - 18O/16OSMOW) / 18O/16OSMOW].103
a- Le fractionnement d’équilibre chimique
Voyons la réaction d’échange 18O 16O suivante :
Si18O2 + 2H216O
Si16O2 + 2H218O
Comme toute réaction chimique elle admet pour constante
d’équilibre (loi d’action de masse) thermo dépendante (Ln K
= a’ +b’/T +c’/T2)
K(T) = (Si16O2).(H218O)2 / (Si18O2).( H216O)2
On peut donc considérer que tout composé constitué
d’éléments présentant des isotopes sera, en quelque sorte,
marqué par un ensemble de rapports isotopiques
caractéristiques. Si un tel composé est engagé dans un
processus, chimique ou physique, les différences de masse
entre les isotopes aura pour effet de fractionner les espèces
légères et lourdes de ce composé. Quatre types de
fractionnement peuvent se produire :
1 - fractionnements d’équilibre, 1) chimique 2) physique ;
2 - fractionnements cinétiques, 3) transport 4) réaction.
H. Urey a montré (mécanique statistique quantique)
que si K est bien voisine de 1, elle est néanmoins différente
de 1, et pour une réaction d’échange d’isotopes entre deux
composés, A et B, constitués de deux isotopes is1 et is2
d’un élément commun aux deux composés,
Le spectromètre de masse, outil qui mesure
simultanément les concentrations isotopiques en séparant
spatialement les espèces différentes par application de la
force centrifuge lors de leur déplacement (Fig. 11), permet
d’accéder avec précision à ces rapports isotopiques.
Où les fonctions Q(Ais1), Q(Ais2) …etc., sont appelées
fonctions de partition des différentes molécules isotopiques.
Aussi utilise-t-on communément les variations de ces
rapports, en les comparant à ceux d’une substance prise en
aAis1 + bBis2
aAis2 + bBis1
Selon la thermodynamique statistique, la constante
d’équilibre s’écrit :
K(T) = [Q(Ais2)/Q(Ais1)]a . [Q(Bis1)/Q(Bis2)]b
Avec, pour chaque composé, deux molécules (1 et 2),
constituées respectivement des isotopes is1 et is2:
M1 et M2, les 2 masses des deux molécules
σ1 et σ2, leurs nombres de symétrie ;
E1 et E2, leurs niveaux d’énergie (rotation-vibration)
Fig. 11 : schéma simplifié d’un spectromètre de masse
14
Belemnite = sorte de seiche fossile chez qui le rostre
calcaire, minuscule pointe de l’os chez la seiche actuelle,
était très largement développé.
15
Composition du standard SMOW:
H / 1H = 155.76
±0.1 ppm
3
H / 1H = 1.85
±0.36 10-11 ppm
18
16
O / O = 2005.20 ±0.43 ppm
17
O / 16O = 379.9
±1.6 ppm
1ppm = 1 10-6
2
- 32 -
ENSM-SE, 2° A : axe transverse P N
I1 et I2, leurs moments d’inertie
c-
Le rapport des fonctions de partition pour cette molécule
Q2/Q1= (s1/s2).(I1/I2).(M2/M1)3/2.[Σ
Σ exp(E2/kT) /.[Σ
Σ exp(E1/kT)]
Fait apparaître deux caractères essentiels de la réaction
d’échange isotopique:
1 - Le fractionnement entre deux espèces isotopiques est
proportionnel au rapport des masses de ces espèces ;
2 - La thermo dépendance de K, plus la T° augmente, plus
K est proche de 1, plus le fractionnement des deux
espèces est faible.
On définit le coefficient de fractionnement isotopique
chimique α, dépendant de la température,
αAB = (Ais2 / Ais1) / (Bis2 / Bis1)
Les coefficients α et K sont liés par la relation
α = K1/n
ou n est le nombre d’atomes échangeables dans cet
équilibre. Dans le cas de l’échange des isotopes 16 et 18 de
l’oxygène entre une espèce de SiO2 (e.g. Quartz) et de l’eau,
le nombre d’atomes échangeables est n = 2.
b- Le fractionnement d’équilibre physique
Un fractionnement isotopique intervient aussi lors
des changements de phase d’un composé. Ainsi, pour l’eau
lors de l’évaporation (e.g. au dessus des océans) et lors de la
précipitation (pluie ou neige), on peut s’attendre à un
fractionnement de l’oxygène, entre 18O et 16O de masses très
différentes, mais aussi à un fractionnement de l’hydrogène
entre 1H et D, lors de l’évaporation (e.g. au dessus des
océans) et lors de la précipitation (pluie ou neige).
Continuant notre lecture de l’ouvrage de C. Allègre,
nous définirons la pression partielle Pgaz d’une espèce
gazeuse présente à la concentration Xgaz dans un mélange
comme :
Pgaz= Ptotale . Xgaz
Pour des espèces d’eau différentes par leurs isotopes
de l’oxygène, lors de l’évaporation de l’eau liquide,
l’équilibre liquide
gaz conduit à écrire (loi de Henry) :
P(H216O) = Ptotale . Xgaz(H216O),
P(H218O) = Ptotale . Xgaz(H218O),
et considérant le mélange comme un gaz parfait, avec
P°, pression de vapeur saturante :
P(H216O) = Xliq (H216O) . P°(H216O)
P(H218O) = Xliq (H218O) . P°(H218O)
Le coefficient d’échange α lors de la vaporisation ne
sera donc dépendant des pressions de vapeur saturante des
deux espèces, il sera de la forme
αvap-liq = P°(H218O) / P°(H216O)
Or le liquide le plus dense est le moins volatil, donc
αvap-liq <1
Dans le cas de l’eau pris en exemple, les coefficients de
fractionnement, à 20°C, sont :
α(18O) =0.9911 ; α(D) =0.9180
Le fractionnement à 20°C du Deutérium est donc (10.918)/(1-0.9911) = environ 9 fois plus fort que celui de
l’18O. La température doit en effet être précisée car,
reprenant l’expression de Clapeyron α= a/T +b, on remarque
que le coefficient de fractionnement isotopique physique est
lui aussi dépendant de la température.
16/10/12
Le
fractionnement
transport
cinétique
de
Lorsqu’un processus engage un phénomène de
transport, l’énergie utilisée pour ce transport va ce traduire
par des différence de la vitesse acquise par les différents
composés transportés en fonction de leur masse, en respect
de la loi E = ½ mv2 Pour deux espèces isotopiques 1 et 2
d’un composé, les vitesses v1 et v2, auxquelles les
molécules isotopiques 1 et 2 se déplacent sont fonction de
leurs masses m1 et m2.
Le coefficient de fractionnement isotopique cinétique
de transport, est donc de la même forme que le rapport des
vitesses v1/v2 = (m2/m1)1/2 :
a léger-lourd= vléger/vlourd = (mlourd/mléger)1/2
Lors du déplacement d’une masse d’air par exemple, les
molécules de dioxygène 16O2 sont fractionnées par rapport
aux molécules un peu plus lourdes de 17O2, enrichissant
l’air transporté comme suit :
a (16O2-17O2) = (2x17 / 2x16)1/2 = 1.03078
Contrairement aux précédents coefficients de
fractionnement isotopique, celui de cinétique de transport
est indépendant de la température ; il ne dépend que du
rapport des masses des molécules isotopiques.
d- Le fractionnement cinétique de réaction
Les vitesses de réaction de deux molécules
isotopiques d’un composé donné dans une réaction chimique
ne sont pas non plus exactement les mêmes. Les molécules
légères sont un peu plus réactives, d’une part parce qu’elles
se déplacent plus vite et accroissent ainsi leur nombre de
collisions avec les autres réactifs, d’autre part parce qu’elles
sont un peu moins stables que leurs sœurs lourdes. C.
Allègre prend ici l’exemple de l’oxygène dans la réaction
d’oxydation du carbone C + O2 → CO2 ; en raison des
abondances naturelles des isotopes de l’oxygène, deux
réactions sont dominantes :
C + 16O16O → C16O16O de cte cinétique nommée K16
C + 16O18O → C16O18O de cte cinétique nommée K18
Et l’on peut montrer, connaissant les concentrations
deux molécules isotopiques des réactifs et des produits que
le coefficient de fractionnement isotopique cinétique de
réaction est de la forme α = (K18/K16)
Ce coefficient de fractionnement cinétique est-il lui
aussi indépendant de la température ? La différence de
réactivité des molécules isotopiques provient de différences
de vitesse, donc d’énergie, donc de la température ? A
PRIORI, la température devrait favoriser le fractionnement,
mais l’échange isotopique est lui aussi un processus
cinétique favorisé par la température. Ce double processus
se traduit par une courbe « Fractionnement versus
température » en cloche ; dans un domaine de relativement
basse température, une élévation de la température
augmente le fractionnement jusqu’à un maximum ; au-delà
l’échange devient dominant conduit vers un fractionnement
de plus en plus faible. Pour l’heure, nous ne disposons pas
d’une expression générale décrivant cette compétition des
deux processus.
Lors des transferts du minéral vers le vivant les
processus biologiques opèrent aussi un fractionnement qui
favorise les isotopes légers. On observe ainsi un
- 33 -
ENSM-SE, 2° A : axe transverse P N
enrichissement des plantes en 12C par rapport au 13C par le
biais de la synthèse chlorophyllienne, processus de
réduction du CO2 atmosphérique en C incorporé dans des
molécules organiques
D - Les chondrites, météorites non différenciées
L’épisode de différenciation que nous retracions plus avant
est en fait déjà le second phénomène qui affecte notre
système solaire encore tout jeune. Il se situe en effet
nécessairement après celui de la condensation de la
nébuleuse solaire en une multitude de corps minuscules
rendus plus ou moins massifs par accrétion. L’étude des
chondrites va maintenant nous permettre d’accéder à cet
épisode précoce de notre histoire. Rappelons que si elles
proviennent bien elles aussi de la ceinture d’astéroïdes, les
chondrites s'opposent au reste des météorites (achondrites)
par leur texture juxtaposant des chondres chauds dans une
matrice froide mais aussi par leur composition voisine de
celle du Soleil et que seule la composition en éléments
volatils des chondrites diffère significativement de celle du
soleil (fig. 6d). L’ensemble de ces caractéristiques,
auxquelles s’ajoute l’existence de chondrite ayant subi un
début de fractionnement (les achondrites primitives) conduit
nécessairement à penser que les chondrites sont des objets
restés en marge de l’évolution du système depuis leur
formation, en particulier lors de la différenciation des corps
massifs du système. Seules les comètes que nous verrons
plus loin sont probablement encore moins évoluées.
1 - Les chondrites sont des objets apparus très tôt
dans l'effondrement gravitaire de la nébuleuse.
Les chondrites sont toutes datées à 4.55 G.a. ± 0.1
par méthode Rb-Sr. C’est donc dire qu’elles ont à peu près
l’âge du système lui-même. Parmi elles, les chondrites
carbonées, en particulier celles dites de type CI (I pour
Iruna, Tanzanie), sont considérées comme les objets les plus
primitifs que nous ayons échantillonnés dans le système
solaire. La météorite du Lac Tagish, (Canada, 2000), celle
d’Allende (Pueblito de Allende, Mexique, 1969) ainsi que
celle d’Orgueil (France, fin XIX°) sont parmi les plus
primitives jamais trouvées, et celle du lac Tagish contient
des poussières interstellaires et des composés organiques
semble-t-il plus vieux que le Soleil !
16/10/12
est un isotope instable, et il donne du 26Mg par
désintégration β; ( 26Al → 26Mg + β+) Donc, avec le
temps, et tant qu’il restera du 26Al, le rapport 26Mg /
25
Mg sera croissant. Bien évidemment, cet accroissement
est d’autant plus fort que la teneur initiale en 26Al est
importante. Par conséquent, on peut affirmer16 que, quelle
qu’ait été la valeur du rapport initial des deux isotopes de
l’Aluminium 26Al et 27Al dans la nébuleuse, plus il entrait d’
27
Al (stable) dans un minéral de notre chondrite en train de
se former, plus il y entrait aussi de 26Al (radiogénique), et
donc plus le rapport 26Mg/25Mg était susceptible d’évoluer à
la hausse ensuite. Inversement, la corrélation positive
observée de nos jours entre ce rapport 26Mg/25Mg et la
quantité de 27Al (inchangée depuis le départ) démontre que
lorsque les minéraux de la chondrite d’Allende se sont
26
formés,
il
existait
encore
du
Al.
(Lire
http://www.emse.fr/~bouchardon/enseignement/processusnaturels/up1/cours/geotherme/cours_2008_2009_geotherme.ppsx).
L’extraordinaire dans cette découverte réside dans le fait
que la période de 26Al, extrêmement courte (λ = 740 000
ans), impose que les minéraux des chondrites de type
Allende aient été formés très tôt, à peine 10 millions
d’années après l’explosion de la Nova qui ensemença
notre nuage en 26Al. Outre le fait que d’autres radionucléides
éteints (53Mn, 60Fe, 129I, 146Sm, 182Hf, 244Pu) sont venus
depuis conforter ce modèle d’effondrement–expulsion suivi
d’un refroidissement rapide, il semble que le 41Ca (λ = 100
000 ans !) soit en passe d’imposer des contraintes de temps
encore plus drastiques. Cela impose aussi des contraintes de
distance nécessairement courte entre la Nova qui donne
naissance à ces isotopes à vie courte et le gaz protosolaire,
qui fut suffisamment pollué pour porter la trace de
radioéléments encore vivants juste après son effondrement.
Ces cailloux exceptionnels nous invitent clairement à
faire un petit retour en arrière, sur l'épisode de contraction
de la nébuleuse protosolaire et sa condensation, allons-y.
Fig. 12: la Nébuleuse d'Orion, pouponnière d'étoiles
Pour HC Connolly et R. H. Hewins (1995), cette
période très mouvementée de création de notre étoile n’a
duré en fait qu’un laps de temps extrêmement court. La
première preuve nous en fut donnée en 1976, par l’étude des
isotopes du Magnésium des minéraux de la chondrite CI
d’Allende (Mexique). Les observations sont les suivantes :
1 - le rapport 26Mg / 25Mg y est anormalement élevé par
rapport à celui des autres matériaux connus (même très
anciens) ;
2 - cet excès du rapport des 2 isotopes du Mg est corrélé à
la teneur en 27Al de ces minéraux.
Les deux isotopes 25Mg et 27Al sont stables, et donc leurs
quantités n’ont pas varié depuis le stade initial, c. à d. depuis
la constitution du nuage de gaz protosolaire. Par contre, 26Al
16
Sachant que les phénomènes de cristallisation sont
incapables de séparer des isotopes.
- 34 -
ENSM-SE, 2° A : axe transverse P N
Fig. 13a: La naissance d'une étoile (Brahic et al.)
16/10/12
Rappelons tout d’abord que depuis son allumage,
notre Soleil reste bloqué au stade étoile ordinaire, et que tant
qu’il lui restera de l’Hydrogène à brûler en Hélium, et il ne
produira rien d’autre que cet Hélium. Ce n’est qu’à ce stade
que son effondrement gravitaire pourra reprendre vers de
plus hautes pressions et de plus hautes températures,
jusqu’au stade de Géante Rouge. Il ne dépassera d’ailleurs
pas ce stade, sa masse étant trop faible. Il ne peut donc être
le père des éléments lourds qu’il contient actuellement.
Seules les étoiles massives en fin de vie comme les géantes
rouges, ou mieux encore les étoiles de type Nova (avec les
étoiles Wolf-Rayet) sont capables de fabriquer des éléments
lourds (Masse Atomique>Fe).
On observe aujourd’hui des nuages certainement
comparables à ce que fut le nôtre (fig. 12) ; ils ont une taille
considérable, jusqu'à 200 A.L., et une origine elle aussi
indubitablement complexe. En outre, ils contiennent des
grumeaux plus froids, et donc plus denses, que le nuage luimême (10°K). Dans un tel gaz les éléments s’associent au
moins partiellement en molécules, plus ou moins complexes
(e.g. H2O = eau ; MgSiO3 = enstatite, un pyroxène).
Tout semble avoir commencé pour nous il y a
4.57 Ga., soit sous la pression même du gaz provenant de la
Nova qui ensemença notre gaz en éléments lourds, soit lors
de la traversée de notre nuage déjà ensemencé par un bras
galactique (onde de densité), comme cela semble se passer
de nos jours pour les étoiles jeunes dans la nébuleuse
d'Orion (e.g. 4 étoiles très lumineuses in Fig. 12).
Une telle onde de densité pourrait provoquer la
Fig. 13b: image des jets bipolaires de l’étoile HH 30;
l’étoile n’est pas visible en raison de la forte
extinction provoquée par le disque circum stellaire.
Ci-dessous, Image de la Nébuleuse de l’Oeuf
- 35 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Tableau 6 : classification des éléments chimiques:
• Réfractaires Tc 1400 K (T°condensation)>
• Modérément réfractaires Tc~1300 K
• Modérément volatils 800 K<1200 K
• Volatils Tc< 800 K
Eléments lithophiles. Ce sont des éléments qui sont localisés préférentiellement dans les roches silicatées (manteau, croûtes) et
qui n'ont aucune affinité pour le fer et ses alliages (noyau). Ils peuvent être réfractaires ou volatils. On peut distinguer :
• Lithophiles réfractaires : Be, Al, Ca, Sc, Ti, V, Sr, Y, Nb, Ba, terres rares, Hf, Ta, Th, U
• Lithophiles modérément réfractaires : Mg, Si, Cr
• Lithophiles modérément volatils : Li, B, Na, K, Mn, Rb, Cs…
• Lithophiles volatils : F, Cl, Br, I
Eléments sidérophiles. Ce sont des éléments qui ont une affinité pour la phase métallique et sont localisés préférentiellement
dans le noyau. Ils peuvent être réfractaires ou volatils. Ainsi on peut distinguer :
• Sidérophiles réfractaires : Mo, Ru, Rh, W, Re, Os, Ir, Pt
• Sidérophiles modérément réfractaires : Fe, Co, Ni, Pd
• Sidérophiles modérément volatils : P, Cu, Ga, Ge, As, Ag, Sb , Au
• Sidérophiles volatils : Tl, Bi
Eléments chalcophiles. Ce sont des éléments qui ont un comportement comme le soufre. Ils sont très volatils.
• Chalcophiles volatils : S, Se, Cd, In, Sn, Te, Hg, Pb
Eléments atmophiles. Ce sont tous des éléments très volatils. Ils se retrouvent préférentiellement dans l'atmosphère et l'océan.
• H, He, C, N, O, Ne, Ar, Kr, Xe
fragmentation de ce nuage en globules, puis leur devrait durer 10 à 15Ga environ…
effondrement. L'un de ces grumeaux, que l’on nomme
globules de Bok, aurait été la nébuleuse protosolaire. Le
passage du stade grumeau au stade étoile est encore très mal 2 - Les chondrite, objets primitifs, produit de la
compris. Le confinement qui en résulte représente une condensation de la nébuleuse
augmentation de densité de 1020! La figure 13a en résume
En allant vers la périphérie du nuage, la température
les principales étapes: peu après création du globule, son et la densité de gaz décroissent ; il s’établit donc un profil de
effondrement commence. La chaleur du nuage, son champ température qui, selon Grossmann et Larimer (1974,
magnétique et sa vitesse s'y opposent, et le scénario de fig. 14a), a guidé la condensation du gaz de la nébuleuse, en
contraction gravitaire serait bloqué à ce stade si l'étoile en fonction du caractère plus ou moins réfractaire des éléments
formation ne pouvait expulser une grande quantité de son chimiques (Tableau 6) ;
énergie sous forme de jets polaires (Fig. 13b) confinés par
le champ magnétique de l’étoile, qui éjectent ainsi de la
Il faut bien comprendre que ce gradient n’a rien de
matière à des vitesses considérables (quelques centaines à statique, et qu’au fur et à mesure de la condensation du gaz,
plus de 1000 Km s-1). L'effondrement du globule en rotation des régions encore froides devenaient chaudes.
provoque la concentration de la matière dans le plan L’augmentation de température du système a dû s’arrêter
équatorial et en son centre, où la pression s’accroît et avec l'arrêt de l'effondrement du Soleil, c’est à dire lorsque
provoque la condensation du gaz de la nébuleuse, et où la les réactions nucléaires se sont allumées, et le système a pu
température s’accroît jusqu’à ce que s’allume la réaction commencer à se refroidir. Avec le refroidissement du
nucléaire de l’Hydrogène en Hélium. L’énergie dégagée système solaire, un point situé à une distance donnée du
s’oppose dès lors à l’effondrement gravitaire, qui va rester soleil voit alors la séquence progresser dans le temps de la
bloqué durant toute cette étape de combustion tranquille qui gauche vers la droite. A la fin du processus, on distingue
deux régions :
Fig. 14a : La séquence de condensation dans la nébuleuse proto-solaire, à P=10-4 Atm, d’après Grossman et Larimer 1974.
- 36 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Fig14b: la séquence de condensation : à une distance correspond une température et donc différents types de corps formés
lors du refroidissement
Tableau 7 : Série de condensation à l’équilibre d’un gaz de composition solaire ; à T° donnée ( ou à une distance donnée du
centre de la nébuleuse), tout ce qui est au dessous de la température est solide, tout ce qui est en dessus est gazeux.
°K
Chimie des condensats
1 600 °K
Condensation des oxydes réfractaires (CaO, Al2O3, oxydes de titane, zirconium)
1 300 °K
Condensation de l’alliage Fer-Nickel
1 200 à 490 °K
1 000 °K
550 à 425 °K
Condensation de l’enstatite MgSiO3, et réaction avec FeO pour donner FexMg(1-x)SiO3
Na réagit avec Al2O3 et les silicates pour former Feldspaths et minéraux alcalins
La vapeur d’eau se condense en glace
150 °K
NH3 gazeux réagit avec la glace et forme un hydrate solide (NH3,H2O)
120 °K
CH4 gazeux réagit avec la glace et forme un hydrate solide (CH4,H2O)
< 20°K
Champ des silicates
H2O se combine aux minéraux CaMgFe (amphibole, serpentine)
175 °K
< 120 °K
Champ du Fer
Champ des glaces
Condensation des derniers gaz résiduels (Ar, N2)
Condensation de l'H et l'He (n'arrivent jamais dans la nature)
1 - Dans le voisinage chaud du soleil, seuls les éléments
ou molécules les plus réfractaires peuvent se
condenser en poussières solides. Les autres éléments
ou molécules y sont bien présents, mais restent à l’état
gazeux ; avec la distance au soleil nous rencontrons
d’abord le domaine des oxydes réfractaires de Ca, Al,
Ti, puis celui des métaux (e.g. Fe et Fe-Ni), puis celui
des silicates ferromagnésiens (e.g. olivine –pyroxène),
pour voir enfin à T<600°K la molécule OH se
condenser avec les silicates (pour former des
amphiboles par exemple). Nous sommes dans le
champ du fer et des silicates (tableau 7 site ENS Lyon).;
2 - Loin du Soleil, en dessous de 175°K, les éléments ou
molécules plus volatils se condensent à leur tour, et
l’on pénètre dans de monde de la glace d’eau et des
hydrates d’ammoniac ou de méthane (tableau 7). Les
silicates et le fer sont encore présents, mais se couvrent
d'un givre glacé, donnant un mélange fer-silicatesglaces baignant dans un mélange gazeux fait
d’Hydrogène et d’Hélium. Notons que la température
n'est jamais assez basse pour que l’Hydrogène et
l’Hélium se condensent.
On situe la limite entre ces deux domaines au niveau de la
ceinture d’astéroïdes entre Mars et Jupiter (environ 750
millions de km du centre du nuage, Fig. 14b), car c’est d’ici
que viennent les chondrites, dont on sait qu’elles
contiennent une matrice riche en volatils parfois carbonée et
même riche en eau, et l’on constate en outre qu’en deçà de
cette limite, la phase de condensation-accrétion a mené aux
planètes telluriques, alors qu’au-delà elle s’est traduite par la
formation des planètes gazeuses.
Selon ce schéma de condensation, les chondres
(constitués de minéraux de haute T°) apparaissent donc
comme des condensats anormalement chauds (ils se
formeraient vers 1300°K) pour leur environnement froid
capable de condenser des volatils. Faut-il donc imaginer
qu’ils se sont formés dans les mêmes régions que les
planètes telluriques. La présence de chondres à inclusions de
réfractaires Al-Ca dans certaines chondrites laisse même à
penser que leur condensation pourrait avoir eu lieu très près
du Soleil, à l’intérieur de l’orbite de la future Mercure, au
sein de ce disque de matière en cours d’accrétion dans
lequel les planètes vont bientôt apparaître. Il faut donc
ensuite transporter ces condensats chauds vers des régions
plus éloignées et froides, dans le champ des glaces. Durant
la phase d’accrétion planétaire, le champ de gravité des
planètes s’est accru, et les corps massifs ont pu agir très tôt
vis à vis des nombreux projectiles légers croisant dans leur
environnement comme des frondes17.
17
C’est probablement ainsi que l’énorme pesanteur des deux
planètes géantes, Jupiter et Saturne a pu faire le vide de tous
- 37 -
ENSM-SE, 2° A : axe transverse P N
Néanmoins, il ne s’agit là que d’un des scénarios
possibles, et la formation des chondres garde encore
largement son mystère Le fait que ces fameuses gouttelettes
résulte d’une fusion reste très surprenant pour des
condensats, car sous les basses pressions qui règnent dans
une nébuleuse, la phase liquide ne devrait pas exister. Sontils formés en un instant lors de chocs entre planètésimaux ?
Volcanisme d’astéroïdes ? Condensation chaude ? Aucune
de ces hypothèses ne répond à l’ensemble des questions
posées par ces microbilles (texture, composition). Nombre
de chercheurs tendent alors à penser que leur formation
résulte d’un chauffage transitoire et rapide, au sein de la
nébuleuse, dans un environnement ne dépassant pas les
650°K ; collision des petits cors métriques ? Chauffage par
friction entre grains de poussière durant l’effondrement ?
Flashs magnétiques provenant du Soleil ou reconnexion des
Fig. 15: formation des chondrites
lignes du champ solaire qui s’allume à un champ externe ?
Souffle de chaleur accompagnant le vent solaire très fort de
la phase T-Tauri18 ? Un quelconque phénomène encore
entièrement inconnu ? Les possibles sont nombreux….
L’histoire des chondrites s’arrête au stade accrétion ; elle est
seulement suivie (Fig. 15) de la fragmentation des petits
cailloux ainsi formés dans la ceinture d’Astéroïdes, que le
hasard des changements de trajectoire propulsera peut-être
vers la Terre.
16/10/12
fait, la glace d’eau devenait dominante dans cette région.
Ces poussières de glace riches en ammoniac et
hydrocarbures s'agglomèrent pour former des gros corps
glacés (constitués de glace à 60 %), dans un environnement
froid, qui acquirent alors une gravité suffisante pour retenir
l'hydrogène et l'hélium de la nébuleuse dans leur
atmosphère. Quatre corps faits de fer, silicate et surtout
glaces (les noyaux des futurs Jupiter, Saturne, Uranus et
Neptune) se sont ainsi entourés d'une énorme masse de gaz,
devenant de ce fait les 4 planètes géantes. Dans leur
voisinage, des corps glacés trop petits pour capturer et
retenir une atmosphère sont devenus des satellites de glace,
excepté les satellites les plus internes de Jupiter, comme Io
(purement ferrosilicatés) et Europe (corps ferrosilicaté
recouvert seulement d’une centaine de km d'eau), situés
dans les corps à densité>2.7 (cf. introduction Fig. 3,
première séquence des densités). Peut-être la masse
exceptionnelle de Jupiter a-elle reproduit dans son voisinage
les conditions de hautes pressions et hautes températures
que l’on retrouve à proximité du soleil ? Ceci expliquerait
pourquoi les satellites les plus externes de Jupiter sont des
satellites de glace, comme Ganymède et Callisto (séquence
des densités moyennes). Peut-être les marées de Jupiter sur
ses satellites proximaux (comme Io) sont-elles trop fortes, et
dégagent-elles trop de chaleur pour que de la glace y
subsiste ? Ganymède et Callisto, peu chauffés, auraient
gardé l'intégralité de leur glace ?
Au delà de Neptune, la densité des agglomérats de
matière est semble-il toujours restée trop faible pour
permettre la constitution d’un objet de type planète gazeuse.
La ceinture de Kuiper serait le résultat de l’étape de
condensation froide de cette région, et ses corps les plus
gros résulteraient de cette agglomération protoplanétaire
« avortée ». Dans un tel schéma, Pluton et son satellite
Charon ne constituent que des avatars excentriques issus de
cette ceinture.
Ce modèle de condensation permet aussi de mieux
comprendre la composition chimique des planètes géantes.
Au-delà de la ceinture d’astéroïdes, la glace d’eau pouvait se
condenser ; or l’hydrogène et l’oxygène sont deux des 3 - Vers une contribution de plusieurs étoiles à la
éléments les plus abondants dans le gaz nébulaire, et de ce chimie de notre Soleil ?
les petits objets situés dans leur environnement, voir même
peut-être Pluton( ?), et contribuer à enrichir la ceinture de
Kuiper et le nuage de Oort en corps glacés. Les planètes
telluriques ont pu elles aussi renvoyer des condensats
chauds vers des régions plus externes, mêlant ainsi
condensats chauds ou très chauds venus de l’intérieur et
matériel froid probablement condensé in situ. Certains de
ces condensats mixtes se seraient trouvés piégés dans la
ceinture d’astéroïdes, et auraient subi ici des débuts de
différenciation menant à des achondrites primitives, des
cailloux, des planètésimaux ou enfin des planètoïdes
avortés, éventuellement différenciés puis fragmentés comme
nous l’avons vu plus avant.
18
Le vent stellaire de la phase précoce, dite T. Tauri (étoile
T du Taureau) est très intense et a probablement expulsé
vers l'extérieur du tout jeune système solaire les matériaux
non encore condensés (gaz nébulaire, poussières ?), voire
même probablement les atmosphères primaires des planètes
rocheuses (cf. chapitre 5). Peut-être faut-il voir là aussi une
des causes possibles de la distribution des masses
volumiques moyennes des corps planétaires au sein du
système solaire.
Ce modèle de condensation – accrétion suppose, au
moins en première approximation, que le gaz nébulaire
initial était homogène. Toutefois, en y regardant de très près,
R. N. Clayton, L. Grossman et T.K. Mayeda ont observé
en 1973 dans les inclusions riches en éléments réfractaires
(Al, Ca et Ti) de la chondrite carbonée Allende que la
diversité de composition chimique des chondrules des
chondrites est non négligeable. Ainsi, leur analyse
isotopique a mis en évidence des hétérogénéités de
composition :
1 - la composition isotopique en 50Ti des chondres de la
population des chondrites est hétérogène ; en
première hypothèse, cette variabilité pourrait refléter
un processus de fractionnement héliocentré très
précoce au sein de la nébuleuse pré-planétaire, et en
seconde hypothèse, elle pourrait refléter la
contribution de plusieurs étoiles différentes dans la
constitution du nuage de gaz protosolaire ; le choix
reste ouvert.
2 - la répartition des rapports isotopiques 17O/16O et
18
O/16O est différente chez les chondrites de celle
que l’on trouve tant dans les océans que dans les
roches terrestres, comme le montre le diagramme de
- 38 -
ENSM-SE, 2° A : axe transverse P N
variation des isotopes de l’oxygène,
δ18O versus δ17O (fig. 16).
16/10/12
Fig. 17: hétérogénéité isotopique des chondrites héritée de la nucléosynthèse
Ce second point est complexe et
nécessite un développement. L’oxygène
est l’élément condensé le plus abondant du
système solaire. Par conséquent les
anomalies isotopiques qu’il présente
doivent révéler de phénomènes majeurs.
Dans ce diagramme, où l’eau des océans
est prise en référence (en X, δ17O/16O=0 ;
en Y δ18O/16O=0, cf. § 2.C.2), les roches
terrestres, les météorites achondrites plus
les matériaux lunaires sont tous distribués
sur une même droite. Cela suggère que
tous ces objets sont hérités d’un système
qui fut initialement homogène, et
qu’aucune
des
modifications,
transformations et réactions qui ont pu se
produire ensuite n’ont été capable de
17
modifier
le
rapport
O/16O
18
16
indépendamment du rapport O/ O. Cela est généralement
admis comme vrai car les réactions chimiques respectent la
conservation de la masse, et donc tous les phénomènes
chimiques que le système solaire a connus en 4.57 Ga., s’ils
ont pu altérer ces 2 rapports isotopiques (e.g. différentiation
des roches terrestres), l’on sans doute fait en conservant la
proportionnalité des masses atomiques des isotopes (cf. §
2.C.2).
Par conséquent, on admet que si un processus
chimique a provoqué une modification du rapport initial
17
O/16O en l’accroissant par exemple de une unité
(δ17O/16O=1), il aura produit corrélativement une
augmentation du rapport 18O/16O de 2 unités (δ17O/16O=2),
car la différence de masse 18O-16O est deux fois plus grande
que celle de 17O-16O. La droite reliant des échantillons ayant
subi de tels processus dans figure 16 est donc logiquement
de pente ½, c’est le cas des matériaux du couple Terre Lune.
peut-être obtenue à partir du même système initial par de
simples réactions chimiques. La droite de pente 1 fut alors
interprétée comme un mélange entre deux réservoirs, dont
l’un avait la même composition isotopique que l’oxygène du
système solaire, et l’autre correspondait à une composante
de 16O pur (jusqu’à 5 p.100 en 16O pur dans certains
minéraux des inclusions réfractaires). Une origine extérieure
au système solaire des anomalies en 16O paraissait donc
l’explication la plus vraisemblable, et fut attribuée à des
processus nucléaires de combustion explosive dans une
supernova. On pensait enfin démontré que des phases
minérales dans les inclusions réfractaires des chondrites
carbonées contenaient des fractions qui n’avaient pas été
homogénéisées avec l’oxygène solaire.
Par ailleurs, en étudiant non plus la population des
chondrites mais les chondrites une à une, H.C. Conolly
(1995) a montré qu’au sein même de chaque chondrite
étudiée, le 54Cr semble présenter des hétérogénéités
Or on constate dans la figure 16 que les rapports des isotopiques d'une espèce minérale à l'autre. Cet élément (du
minéraux des échantillons de chondrites19 ne se distribuent groupe du fer réputé très stable) est formé par
pas sur cette droite, et en particulier que les chondrites nucléosynthèse dans les étoiles massives lorsque qu'elles
carbonées constituent une autre droite, de pente 1, qui ne atteignent la fin de leur vie, Nova et en particulier
Wolf-Rayet. Comme pour chaque élément, chaque étoile
Fig. 16 : Contenu isotopique des chondrites hérité d’un mélange massive, où a lieu la nucléosynthèse du Chrome, est
caractérisée par un flux de neutrons qui lui est propre, et l'on
de nébuleuses ; ordonnées δ18O (°/°°), abscisse δ17O (°/°°)
peut penser en corollaire qu'elle possède sa signature
isotopique, en fabriquant des isotopes riches en neutrons
d'un élément dans des proportions spécifiques; ceux du
Chrome montrent que deux cas peuvent alors se produire,
(Fig. 17) :
1 - à gauche, les produits de la nucléosynthèse de chaque
étoile condensent en espèces minérales différentes, et
donc chaque espèce minérale possédera sa signature
isotopique, c'est ce que semble montrer 54Cr;
2 - à droite, les produits de la nucléosynthèse de chaque
étoile condensent en espèces minérales identiques, et
donc, au sein de chaque espèce minérale il existerait
des sous populations qui posséderaient leur signature
isotopique?
19
Attention, le raisonnement est conduit ici sur les minéraux
des chondrites, et na donc rien de commun avec celui que
nous avons mené sur le rapport D/H de l’eau des chondrites
carbonées hydratées (Chp2.A.1.a).
À ce point, une remarque importante doit être faite.
Des expériences réalisées en 1983 simulant la haute
atmosphère avaient montré que dans la production
- 39 -
ENSM-SE, 2° A : axe transverse P N
d’échantillons d’ozone par décharges électriques dans de
l’oxygène neutre, on obtient dans le diagramme δ17O/16O vs
δ18O/16O une droite de pente égale à 1. Dans le
fractionnement isotopique (chp2.C.2), nous n’avons pas
abordé l’effet de symétrie moléculaire sur le fractionnement
des molécules isotopiques. Or on a découvert que, dans
certains cas, le fractionnement de 18O/16O est égal à celui de
17
O/16O et non le double comme prévu par les différences de
masse. Pourquoi et comment ? Si le comment est encore
inconnu, il semble que le pourquoi réside dans la symétrie
des molécules impliquées. On observe ainsi actuellement
dans la fabrication de l’Ozone O3, dans la haute atmosphère
terrestre sous l’effet des UV courts venus du Soleil (cf.
Chp. 5.B.2.a, cycle de Chapman), qu’il n’y a de
fractionnement entre les deux molécules symétriques d’O3,
54
O3 = 18O18O18O et 48O3 = 16O16O16O, alors que la molécule
asymétrique 51O3=18O17O16Oest enrichie 200 fois. Un
fractionnement isotopique indépendant de la masse est
donc possible au cours d’une réaction, dans des conditions
particulières de champ électromagnétique élevé en tout cas.
Les anomalies isotopiques de l’oxygène ont pu être
produites dans la nébuleuse protosolaire par les
rayonnements des radionucléides à vie courte, par les rayons
ultraviolets, ou encore par les décharges électriques
ionisantes produites sous l’action de champs magnétiques
intenses. Une telle explication des anomalies isotopiques de
l’oxygène modifie radicalement le scénario d’une origine
extérieure au système solaire de la composante 16O. D’autres
expériences, sur d’autres isotopes, ont aussi conduit à des
hypothèses d’origines nucléosynthétiques situées dans la
nébuleuse protosolaire. Encore récemment, il a été
découvert du 10Be dans la météorite Allende. Les chercheurs
affirment que cet isotope radioactif du Béryllium n'a pu être
produit que par des collisions entre des noyaux d'hydrogène
ou d'hélium accélérés à de très hautes énergies, alors que le
Soleil encore très jeune émettait un rayonnement nucléaire
intense.
Certaines chondrites contiennent même des phases
ou des grains, dont l’âge apparaît «pré solaire», et qui
portent les signatures indubitables ( ?) de processus
nucléosynthétiques qui se sont produits dans divers types
d’étoiles. Ces phases ont-elles été formées dans
l'environnement de diverses étoiles avant la naissance du
soleil ? Quelques unes de ces phases dites pré solaires sont
bien identifiées: diamant, carbure de silicium, graphite,
corindon (Al2O3). Faut-il conclure à la contribution des
plusieurs étoiles ? À des nucléosynthèses dans le nuage
protosolaire ? La suite reste à démontrer...
E - Les comètes, second type d’objets primitifs,
encore plus froids
Les premières images détaillées de comètes nous ont
été fournies par la sonde Giotto (Fig. 19a page suivante).
Les comètes sont sans doute les objets les plus primitifs
que nous puissions connaître. Depuis 4 Ga., elles constituent
la mémoire du système solaire.
1 - Des petites boules de neige sale
16/10/12
Fig. 18: Accrétion de la nébuleuse solaire
boules de neige sale, comme les appelait F. Whipple en
1950, avaient été fabriquées aux confins du système solaire
lors de la phase d’accrétion à froid de la nébuleuse, à une
distance d’environ une année-lumière, dans la ceinture de
Kuiper et qu’elles avaient pu être ensuite dispersées sous
l’effet de perturbations gravifiques en un nuage sphérique de
rayon comparable, dit « nuage de Oort » (Fig. 18).
On pense de nos jours que le nuage de Oort aurait
précédé la ceinture de Kuiper. Les comètes auraient été
formées au voisinage des planètes joviennes (paragraphe
fractionnement des éléments et des corps), puis ensuite elles
auraient été éjectées vers la périphérie du système solaire
« au gré des rencontres » gravitationnelles (relire la note
infrapaginale n°17 sur le rôle des deux planètes géantes,
Jupiter et Saturne), tant dans le plan de condensation du
nuage (ceinture de Kuiper), qu’à l’extérieur du plan (nuage
de Oort). Ce sont ainsi des milliards de petits morceaux de
On a longtemps pensé que les comètes, ces petites
- 40 -
ENSM-SE, 2° A : axe transverse P N
la nébuleuse primitive qui tournent ainsi autour du soleil20.
A cette distance du Soleil, l'environnement est si froid
(quelques degrés K) qu'il a permis aux comètes de conserver
leurs éléments volatils depuis leur création. En outre, la
taille des comètes qui ont été observées lors de leur passage
au voisinage du Soleil ne dépasse pas quelques hectomètres
à quelques kilomètres, ce qui garantit aussi qu’elles n’ont
pas subi de réchauffement important lors de la phase
d’accrétion.
16/10/12
Fig. 19a : Comète de
Halley, sonde Giotto, 1986
dissociation de molécules
plus
complexes
dont
quelques-unes seulement ont
aussi été observées. Outre
H2O, citons les molécules
HCN (acide cyanhydrique),
CH3OH (méthanol), H2CO
(formaldéhyde), auxquelles
vient s’ajouter H2S. Des
raies caractéristiques de C2
A la suite de perturbations du champ de gravité
et de C3 laissent à penser que
solaire, probablement provoquées par la proximité d'autres
des
cycles
aromatiques
étoiles, les comètes décrochent de leur nuage pour une devraient aussi être présents dans la glace, avec C2H6O2
orbite très excentrique qui les fait passer très près du Soleil. (éthylène-glycol)
déjà
Fig. 19b: queue de la comète
La Terre est, semble-t-il, largement protégée de leurs identifié dans la comète
Hale-Bopp
impacts par les planètes géantes qui créent une perturbation Hale-Bopp. Les comètes
gravitaire suffisante pour détourner nombre de projectiles, apparaissent
donc
comme ceux de juillet 94 sur Jupiter. A chaque révolution, constituées de 80% de
elles subissent un réchauffement, et une fraction de la glace grains minéraux, entourés
cométaire est sublimée au voisinage du Soleil. La de glace (20%) riche en
composition des comètes commence à peine à être connue, composés
organiques.
grâce en particulier à la spectrométrie UV tout d’abord puis L’origine de ces composés
IR dans les années 80. Notre atmosphère est largement organiques reste à trouver.
opaque dans ces longueurs d’ondes et il a fallu mettre au Sont-ils contemporains de
point des méthodes embarquées par les sondes spatiales. La l’épisode d’accrétion? Du
radioastronomie au sol vient compléter cet attirail. Leur nuage interstellaire antérieur? Ces fossiles vivants, témoins
connaissance n'a donc largement progressé que durant les de nos origines peuvent avoir eu une importance
toutes dernières décennies, tout particulièrement depuis le considérable dans la constitution des atmosphères
passage de la comète de Halley en 1986 (Fig. 19a)
planétaires. On a en effet de bonnes raisons de penser (cf.
Chp. 4.D, « Naissance tourmentée de la Terre ») que le
Tableau 8: Abondances des bombardement météoritique et cométaire ne
2 - La chevelure des comètes
molécules mères dans les s’est pas arrêté brutalement avec la phase de
refroidissement du système solaire, mais que
Le dégazage commence à une comètes recensées
cette accrétion terminale postérieure à la
Molécules
Abondances
distance du Soleil (ou température) variable,
phase T-Tauri a apporté aux planètes déjà
H
O
100
2
entre 5 et 15 UA, probablement en fonction
formées et différenciées, une sorte de vernis
2-20
CO
de la composition de la glace de la comète.
3
CO
de matériaux précoces et froids, dont de l’eau
2
La Comète (environ 600 Km3 pour la comète
0.03-4
H2CO
et du carbone. Le rôle des météorites
de Halley) s’entoure alors d’une atmosphère
CH3OH
1-8
carbonées hydratées de type Murchison
<0.2
HCOOH
très ténue, constituée de molécules appelées
pourraient avoir joué un rôle clef, et
<1?
CH4
mères (tableau 8) que la très faible gravité de
0.1-1
NH3
nombreux sont ceux qui s’accordent à penser
l’objet ne pourra retenir. C'est cette
~0.1
HCN
que l’océan terrestre doit énormément à
atmosphère qui est à l’origine de ce que nous
0.02-0.2
N2
cet épisode « tardif », et peut-être que la vie
~0.2
H
S
2
appelons la queue de la comète. Cette
sur
Terre n’aurait pas eu lieu sans cet
CS2
0.1
chevelure est en fait double. La partie
<0.3
OCS
apport en composés organiques
brillante est constituée de grains de
<0.001
S02
poussières (silicates plus métaux) qui,
0.05
S2
entraînés avec la sublimation, réfléchissent la
lumière. Cette première partie de la queue est fortement
Fig. 19c : Comète de Halley, composition de l’atmosphère
arquée par le flux de photons (pression de radiation
Fig. 19b). La seconde partie est constituée d’ions provenant
de la dissociation et de l’ionisation par les UV de molécules
de l’atmosphère de la comète. Elle est moins arquée, par les
particules chargées du vent solaire, et constituée de
molécules dites filles (Fig. 19c). On y a reconnu en premier
lieu H et OH, mais aussi nombre de composés carbonés et
azotés, tels que CN, CH, CO, CH3O. Tous proviennent de la
20
Dans la ceinture de Kuiper il existe aussi quelques corps
de plusieurs centaines de km ( e. g. astéroïde 2001 KX76,
1270 km ; 2002 LM60 "Quaoar", environ 1000 km) qui
paraissent très semblables aux gros astéroïdes de la ceinture
entre Mars et Jupiter (comme Cérès par exemple). Ont-ils
subi une élévation non négligeable de la température ?
- 41 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
.
Sites WEB consultés
http://www.nirgal.net/crater.html
http://www.flagstaff.az.us/meteor/Mcrater.htm
http://antwrp.gsfc.nasa.gov/apod/ap960604.html
http://www.observ.u-bordeaux.fr/
http://cfa-www.harvard.edu/sao-home.html
http://www.aip.org/
http://oposite.stsci.edu/pubinfo/SolarSystemT.html
http://www.arachnaut.org/meteor/links.htm
http://www.arachnaut.org/meteor/chondrules.html
http://ssd.jpl.nasa.gov/images/ast_histo.ps
http://www.image-contrails.de/overview.html
http://palaeo.gly.bris.ac.uk/Communication/Lee/main.html
http://miac.uqac.ca/MIAC/chicxulub.htm
http://www.unb.ca/passc/ImpactDatabase/images.html
http://perso.wanadoo.fr/pgj/meteorit.htm
http://hubblesite.org
http://eleves.mines.u-nancy.fr/~astro/TIPE.doc.
http://hyperphysics.phy-astr.gsu.edu/hbase/astro/astfus.html#c2
http://www.unice.fr/Radiochimie/Chapitre_1_2.htm
http://seds.lpl.arizona.edu/nineplanets/nineplanets/meteorites.html
http://www.nirgal.net/main.html
http://www.sat-net.com/spnews/planetarium/meteorites_class.html
http://www.astrosurf.com/spacenews/planetarium/meteorites_comp.html
http://www.gps.caltech.edu/~gurnis/Movies/movies-more.html
http://zebu.uoregon.edu/~js/ast223/lectures/lec21.html
http://www.obspm.fr/actual/nouvelle/mar04/glycol.fr.shtml
quelques idées fortes
Quelques idées fortes :
La seule réaction nucléaire qui existe dans le Soleil est la fusion de l’hydrogène en Hélium
Tous les autres éléments présents sont hérités de nucléosynthèses préalables, (Géantes rouges, Nova ou Wolf-Rayet)
L’élément le plus stable est le fer
On appelle différenciation n’importe quel processus capable de transformer un système homogène
en un ensemble d’objets physiquement et chimiquement distincts.
Le fer et le silicium étant parmi les éléments les plus abondants dans l’univers, la différenciation des planètes est bipolaire :
noyau Ferreux
manteau Silicaté
Les éléments chimiques se regroupent, en fonction de leurs affinités, et en fonction des structures minérales présentes :
Sidérophiles : affinité avec le fer et les alliages, dans le noyau planétaire ; réfractaires ou volatils
lithophiles : aucune affinité pour le fer et les alliages, dans les silicates (manteau, croûtes) ; réfractaires ou volatils:
chalcophiles et atmophiles sont tous très volatils.
La condensation du gaz nébulaire induite par son effondrement conduit à la différentiation du système solaire en deux domaines :
Le domaine interne, champ du fer et des silicates, qui évolue vers les planètes rocheuses
Le domaine externe, champ des glaces, qui évolue vers les planètes gazeuses
La Ceinture d’astéroïdes entre Mars et Jupiter se situe à la frontière des deux domaines
Les planètes satellites et astéroïdes se sont généralement différenciés :
internes ils sont différenciés à chaud en noyau ferreux, manteau (et éventuellement croûte) silicaté
externes, restés froids ils sont différenciés en un noyau rocheux et des enveloppes de glace
Les comètes proviennent des confins du système solaire, les météorites sont originaires de la ceinture d’astéroïdes :
Les comètes sont des corps fabriqués par accrétion froide dans le nuage proto-solaire ; elles n’ont pas pu évoluer depuis lors.
Les météorites appartiennent à deux groupes de nature distincte et d’origine différente, les chondrites et les achondrites.
Les chondrites sont des météorites indifférenciées (nées avant / pendant la différenciation du gaz proto-solaire en planètes)
Elles sont constituées d’un assemblage de chondres noyés dans une matrice
chondres = microbilles constituées de réfractaires condensés à chauds,
matrice = condensat froid riche en volatils
La composition chimique des chondrites est identique à celle de la chromosphère du Soleil,
Les chondrites ont grosso modo l’âge du système solaire, 4.56 Ga , comme les comètes
Les chondrites ont probablement conservé la trace des évènements pré-solaire et proto-solaires
Les achondrites sont des météorites différenciées (nées après / pendant la différentiation de planètes, planètésimaux ou satellites)
Les météorites différenciées sont de trois types :
sidérites = morceaux de noyaux ferreux de corps planétaires différenciés
aérolithes = morceaux de manteau ou de croûte provenant de corps planétaires différenciés
sidérolithes = morceaux du domaine limite entre le manteau et le noyau de ces corps
Les achondrites sont plus jeunes, jusqu’à 3.8 Ga environ (fin de l’époque d’accrétion des planètésimaux)
- 42 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Sabin-Corneliu Buraga
« Elecronic Painting »
CHAPITRE 3
. La Terre vue par la géophysique
Trois outils fondamentaux permettent d'imaginer
l'intérieur de notre globe:
1 - un fil à plomb plus un poids suspendu à un ressort,
dans le champ de gravité;
2 - un stylet et un cylindre à l'écoute d'une planète qui
s'ébroue;
3 - une aiguille libre et aimantée boussole dans le champ
magnétique.
A - Gravimétrie et Géodésie
La gravimétrie, en déterminant la direction et
l'intensité de la pesanteur, résultante des accélérations
appliquées à un corps au repos dans le référentiel
Terrestre, permet d'une part de repérer des variations de
densité (souvent utile dans la recherche minière), et d'autre
part de définir précisément les formes de la Terre
(Géodésie).
On sait depuis 1687 avec Philosophiae Naturalis
Principia Mathematica de I. Newton que lorsque les
pommes de masse m tombent, la force F qui les attire vers la
Terre de masse M peut être décrite sous la forme
F = G m M / r2
M=g.r2/G. = 5.976 1024Kg
Connaissant le volume de la terre on en déduit alors une
masse volumique moyenne pour la Terre de 5.517 kg.dm3.
Or AUCUNE roche ordinaire échantillonnée à la
surface du globe ne possède un poids volumique dépassant
3.3 kg.dm3 et la moyenne est de 2.7 kg.dm3. Le globe
terrestre est donc constitué de 2 couches au moins, et les
masses volumiques de ces enveloppes sont très
différentes.
Nombre d'observations directes ou indirectes
suggèrent que la Terre est constituée de deux couches, un
noyau dense et un manteau:
1 - Cavendish a mesuré la constante G, en 1798 à
Paris.
Son dispositif expérimental (Fig. 1) comprenait deux
petites masses égales, suspendues en équilibre au bout d'un
fil non torsadé. En approchant symétriquement les 2 masses
M, Henry Cavendish provoque le rapprochement des
masses m: connaissant la distance entre les masses m et M,
la force mise en jeu (celle qu'il faut appliquer au dispositif,
hors de la présence des masses M, pour obtenir le même
déplacement des masses m) Cavendish déduisit la valeur de
G= 6.67 10-11 SI (N.Kg-2.m2).
Fig. 1: Expérience de Cavendish
Dès lors, la masse de la Terre M devient accessible,
en mesurant l'accélération de la pesanteur, g. La mesure de
g, effectuée sous vide par le bureau national des poids et
mesures (chute d'un miroir interférométrique sous lumière
monochromatique) donne la valeur de 9.801 m.s-2. Dans le
cas des pommes, puisque la masse d'un corps peut être
considérée comme ponctuelle et rapportée au centre de
gravité du corps, on admettra que la distance entre les deux
masses est très peu différente du rayon terrestre (r).
L'accélération g subie par les pommes de masse m serait
donc, avec mg = G.m.M/r2, de la forme
g= G M / r2 (si la Terre ne tournait pas!).
On en déduit:
1 - la nature des météorites différenciées, soit ferreuses
soit silicatées, qui suggère que la séparation (partielle)
du fer soit un phénomène courant dans les objets
rocheux solaires;
2 - la structure sismique de la Terre met en évidence un
saut de densité majeur et un seul, à 2900 km de
profondeur (voir § modèle PREM discontinuité de
Gutenberg);
3 - la concentration en fer du manteau, faible par rapport à
celle des météorites indifférenciées, qui suggère une
redistribution du fer dans la Terre au profit du noyau
dense
On peut évaluer sommairement les densités et les
rayons respectifs du noyau dense et du manteau silicaté en
se basant sur trois contraintes:
1 - la masse de la Terre et son rayon RTerre, donc son
poids volumique moyen, ρ moy= 5.517 ;
2 - la différence entre le moment d'inertie réel du globe
terrestre (= 0.33.MR2) et celui d'un globe homogène
(0.4 MR2 ) ;
3 - le poids volumique du manteau, qui est au minimum
- 43 -
ENSM-SE, 2° A : axe transverse P N
celui des roches connues du manteau supérieur,
ρmanteau =3.3 kg.dm3; le poids volumique du noyau
ρnoyau, est inconnu.
On écrit alors la relation liant les poids volumiques de la
Terre, telle que :
ρmoy = ρmanteau+ (ρ
ρnoyau-ρ
ρmanteau)(Rnoyau/RTerre)3
et celle liant les moments réel et théorique,
0.331ρ
ρmoy = 0.4[ρ
ρmanteau+ (ρ
ρnoyau-ρ
ρmanteau)(Rnoyau/RTerre)5]
16/10/12
Fig. 3 : Pesanteur terrestre
on en tire une relation entre le rapport des poids volumiques
ρnoyau / ρmanteau et le rapport des rayons RR = Rnoyau/RTerre
telle que:
ρmanteau+ (ρ
ρnoyau-ρ
ρmanteau)(Rnoyau/RTerre)3
ρnoyau-ρ
ρmanteau)(Rnoyau/RTerre)5]
= 0.4/0.331 [ρ
ρmanteau+ (ρ
avec ∆ρ =(ρ
ρnoyau - ρmanteau)
et RR = Rnoyau/RTerre
on a:
ρmanteau + ∆ρ.RR3 = 1.21 ρmanteau+ 1.21Dρ.RR5
∆ρ = 0.21 ρmanteau /(RR3-1.21RR5)
ρnoyau-ρ
ρmanteau = 0.21 ρmanteau /(RR3-1.21RR5)
et
ρnoyau / ρmanteau = 1+ 0.21/(RR3-1.21RR5)
Le diagramme joint (Fig. 2) montre que ρnoyau / est au
moins égal à 2.5ρmanteau. Pour un noyau situé à 2900 km
(RR=0.55) et pour une densité moyenne du manteau de 4.1,
le poids volumique calculé pour le noyau, de l'ordre de 12.2,
est tout à fait compatible avec une nature ferreuse.
mgal), qui exerce des forces de marées (de l'ordre de
20cm pour les marées terrestres) souvent négligées.
Les conséquences en sont :
1 - le fil à plomb (g) ne passe pas par le centre de la
Terre, sauf aux pôles;
2 - l'intensité du champ de g varie avec la latitude.
Une Terre qui tourne, si elle se comporte comme un
fluide, peut être considérée comme un ellipsoïde de
révolution. Les mesures de méridiens (Fig. 4), effectuées au
XVIII° au pôle et à l'équateur, aboutirent à une valeur
estimée de 1/280 à 1/266. La valeur adoptée vers 1950,
avant le 1° Spoutnik, était de 1/297 (H. Jeffreys).
Avec Spoutnik-2 King-Hele révise sa valeur en 1957
(1/298), valeur très proche de la valeur admise de nos jours,
1/298.25
Fig 4: Applatissement polaire
2 - La mesure de la pesanteur
La pesanteur au point P considéré, appliquée à une
masse unité m, est définie comme la résultante des
accélérations appliquées à m, corps au repos dans le
référentiel Terrestre. Cette pesanteur peut être représentée en
tout point autour de P par un ensemble de vecteurs g→,
définis en sens direction et intensité, ensemble que l'on
appelle champ de gravité.
La pesanteur est composée de 3 termes (Fig. 3):
1 - la gravité terrestre (Fg=mg)
avec g= G.M/r2 ≈ 980 gal;
le gal équivaut à 10-2m.s-2
En outre, deux paramètres locaux viennent encore
perturber la pesanteur, l’altitude au point considéré et la
topographie autour de ce point:
1 - l'altitude, accroît la distance au centre de la Terre, et
donc augmente Fc et diminue Fg
2 - la force centrifuge (Fc = m.ω
ω2r ≈ m.ω
ω2R.cosφ
φ );
3 - l'attraction du reste de l'univers non figurée ici (< 1
Fig. 2 : x= Rnoyau/RTerre vs. y = ρnoyau/ρmanteau
2 - La topographie, en introduisant des excès ou des
déficits dans les masses environnantes, modifie la
direction et l'intensité de la pesanteur. (Fig. 5).
Fig. 5: Effet topographique :Cgm, centre de gravité de
la masse montagneuse
- 44 -
ENSM-SE, 2° A : axe transverse P N
Fig. 6 : Corrections des mesures de pesanteur
16/10/12
On appelle finalement anomalie de Bouguer, l'écart
entre la pesanteur théorique calculée au point considéré sur
l'ellipsoïde de référence, et la pesanteur mesurée et corrigée.
3 - Isostasie : comportement hydrostatique de la
lithosphère
On comprend donc dès lors, que pour être
intelligible, toute mesure du champ de pesanteur doit être
rapportée à une surface de référence. On utilise
internationalement l'ellipsoïde de référence nommé
«ellipsoïde de Hayford» dont l'aplatissement est de
1/298.25.
Il faut ensuite corriger la valeur mesurée en chaque
point (Fig. 6).
Il faut donc corriger la valeur mesurée en chaque
point (Fig. 6) la valeur g0 eq = 978.033 gals de la pesanteur à
l'équateur:
1 - par une correction de latitude qui tient compte de la
force centrifuge, soit (parenthèse est nulle à
l'équateur)
g0 th = 978.033 +(1 +0.005.sin2φ-0.000006 sin2.2φ
φ)
qui nous donne la valeur théorique de la pesanteur à
la latitude φ du point de mesure p.
2 - on introduit une correction dite “ à l'air libre ” ou
de Faye ou correction d'altitude, faite en supposant
qu'il n'y a que de l'air entre le point de mesure p et le
géoïde (Fig. 6); Elle est égale à (δg/δz) h avec un
gradient vertical de gravité (δg/δz) = 0.309 mgal m-1
et h l'altitude au dessus de l'ellipsoïde. on appelle
anomalie à l'air libre (FA) la différence entre la
valeur mesurée gmes corrigée de l'altitude au dessus
de l'ellipsoïde et la valeur théorique en ce point de
l'ellipsoïde :
FA = [gp mes + (δg/δz) h] – g0 th.
Elle ne dépasse pas 100 mgal en valeur absolue, et
met en évidence un déficit de masse au droit des
fosses océaniques et inversement un excédent au
droit des chaînes de montagne, avec un couple
négatif positif très net au niveau des zones de
subduction (Fig. 9).
3 - on opère enfin les 2 corrections de Bouguer,
a) la correction dite “ de plateau ”, qui prend en
compte l'attraction des masses comprises entre le
point considéré et le géoïde de façon homogène, et
b) la correction dite “ topographique ” qui tient
compte de la répartition des reliefs.
L’écart entre la pesanteur théorique calculée et la
pesanteur mesurée et corrigée peut être fort, de l'ordre de 300 à + 300 mgal. Il est négatif au droit des chaînes de
montagnes et positif au droit des océans. Tout se passe donc
comme si le calcul de la réduction de Bouguer était
largement inutile et que l'excès de masse que crée le relief
montagneux au-dessus du géoïde était déjà quasi compensé
(avant toute correction) en dessous de la surface de
référence choisie, la correction introduisant alors un
«déficit» apparent de masse. Cette anomalie<0 résulte donc
largement du calcul de correction lui-même et le poids d'une
colonne de terrain apparaît finalement constant d'une
verticale à l'autre. Il s'opère donc, d'une verticale à l'autre,
une compensation de type hydrostatique, appelée
isostasie.
Plusieurs modèles ont vu le jour (Fig. 7). Tous
admettent que la croûte, rigide et moins dense que le
manteau fluide, flotte sur celui-ci (Archimède). L'équilibre
des poids des différentes colonnes de terrain est donc
parfaitement réalisé au-delà d'une certaine profondeur, dite
de compensation. Le modèle de Pratt, à la fin du siècle
dernier, mettait en jeu des colonnes de terrain de densités
différentes, donc d'épaisseurs différentes. Celui de Airy,
quelques années plus tard, mettait en jeu des colonnes de
même densité discrétisant une couche homogène. Enfin, le
modèle de Vening Meinesz, datant du milieu du XX°,
s'appuie sur le fait que la réponse élastique de la croûte est
d'une amplitude beaucoup plus importante que la dimension
des reliefs qu'elle porte. Autrement dit, la compensation
isostatique d'un relief est régionale.
L'influence des racines peut être exprimée par une
nouvelle correction, dite “ isostatique ”. Toutefois,
l'existence d'anomalies résiduelles montre que l'équilibre
n'est pas réalisé partout. La cause en est la viscosité très
élevée du manteau qui implique un temps de réponse
important à toute modification de l'équilibre. Ainsi, le
bouclier Baltique remonte encore de nos jours alors qu'il est
allégé depuis 10 000 ans environ du poids des glaces qui le
couvraient.
Le premier enseignement essentiel de la
gravimétrie est donc la confirmation de la plasticité de la
Terre, grâce à son manteau viscoélastique, malgré sa
croûte élastique (rigide).
On appelle géoïde la surface équipotentielle de
pesanteur coïncidant avec le niveau moyen des mers,
Fig. 7: Les modèles d'isostasie
Fig. 8 : Effet des reliefs sous marins sur la déviation de la
pesanteur et le niveau des mers (géoïde)
- 45 -
ENSM-SE, 2° A : axe transverse P N
Fig. 9a: Altimétrie satellitaire
16/10/12
Fig.9b: Carte des anomalies de la gravité , Grace 2003,
échelle en mgals
Chaîne continentale
Arc - Fosse
ride océanique
prolongée à travers les continents. Si la Terre était ellipso
concentrique pour toutes ses propriétés, le géoïde serait un
ellipsoïde, et les isothermes seraient des ellipsoïdes
«conformes» au géoïde.
En fait, la Terre n'est ellipso concentrique qu'en toute
première approximation. Aux effets topographiques des
fonds océaniques (Fig. 8) et de la surface continentale qui
introduisent des ondulations du géoïde à l'échelle de
quelques dizaines à centaines de Km, viennent s'ajouter des
ondulations de l'ordre du millier de Km reflétant des
hétérogénéités lithosphériques, et des ondulations à l'échelle
de plusieurs milliers de Km, dues à la circulation convective
dans le manteau. Ces ondulations du géoïde sont calculées
en comparant la valeur théorique de la pesanteur sur
l'ellipsoïde et la valeur mesurée rapportée à l'ellipsoïde.
2 - mesures de vitesse (effet Doppler)
3 - mesures angulaires (photographies sur fond d'étoiles)
La modélisation de la trajectoire nécessite de connaître les
paramètres suivants:
1 - la position des stations de mesure au sol;
2 - le champ de pesanteur;
3 - le freinage lié à l'atmosphère;
4 - Géodésie satellitaire
4 - la pression du vent solaire;
Les satellites artificiels ont été utilisés de 2 façons: en
mode passif, le satellite servit tout d'abord de réflecteur, la
télémétrie laser apportant dans les années 60 une précision
de la mesure de la position instantanée du satellite de l'ordre
du mètre; en géodésie dynamique, l'objectif est de
déterminer le mouvement du satellite par comparaison des
données de poursuite avec la trajectoire théorique, modèle
calculé à partir des équations de la mécanique Newtonienne.
Les données accessibles sont de 3 types:
1 - mesures de distance (télémétrie laser, Fig. 9a)
anomalies de grande longueur d’onde
5 - les déformations de la Terre liées aux marées,
terrestres et océaniques;
6 - le mouvement de l'axe de rotation de la Terre;
7 - l'attraction de l'ensemble des planètes du système
solaire.
Aucun paramètre n'est connu parfaitement, et la
géodésie dynamique consiste donc à opérer un ajustement
itératif des données au modèle théorique. L'utilisation
conjointe de plusieurs satellites sur près de 30 années a
Fig. 10: le géoïde terrestre , http://principles.ou.edu/earth_figure_gravity/geoid/index.htm
color Scale, Upper (Red) : 85.4 meters and higher;
Color Scale, Lower (Magenta) :-107.0 meters and lower
- 46 -
ENSM-SE, 2° A : axe transverse P N
Fig. 11 : Carte des anomalies à l’air libre sur les océans
calculées par inversion des hauteurs du géoïde, obtenues par
altimétrie spatiale, Géosat 1994, échelle en mgals
16/10/12
considère de nos jours que ces masses lourdes sont
d’anciennes plaques lithosphériques subductées vers la
couche D”. Compte tenu de la vitesse extrêmement faible
du phénomène, la morphologie actuelle reflèterait
l’histoire cumulée de plusieurs centaines de Ma.
Inversement, tous les types de structures à petite
échelle sont remarquablement identifiables sur les figures
9 et/ou 11:
1 - dorsales chaudes Sud-Atlantique et Indien;
2 - dorsale froide Nord-Atlantique ;
3-
failles transformantes mettant en regard deux
compartiments d'âges variés (et donc de structure
thermique différente);
4 - chaînes sous-marines de points chauds
5 - fosses océaniques, qui provoquent un déficit local
de masse (en bleu) encadré par deux anomalies,
celle bien marquée (en rouge) de l’arc et celle
moins marquée (en jaune) du côté océanique qui
souligne le ploiement de la plaque subductée
(Fig. 12).
6 - chaîne de collision (Alpes Himalaya)
7 - chaînes surmontant une zone de subduction (marges
actives = Andes et Rocheuses)
A une échelle encore plus réduite, l’altimétrie
satellitaire permet de mettre en évidence le mouvement
vertical synchrone des marées, lié au surpoids local de la
masse d’eau en mouvement dans les régions côtières
permis de proposer des modèles de plus en plus affinés du
champ de la pesanteur terrestre. L'analyse de la trajectoire
des satellites fournit une image très précise du géoïde
(Fig. 9). En effet, les ondulations du géoïde à l'échelle de la
centaine de km (flèches noires) traduisent très fidèlement la
topographie car la compensation isostatique d'une chaîne ou B - La séismicité
d’une fosse sous-marine par exemple, dépasse largement la
surface occupée par la chaîne ou la fosse. Il s'ensuit donc un
Les premiers enregistrements des soubresauts qui
excès de masse local (au droit de la chaîne) ou un déficit
agitent l'écorce terrestre datent de l'antiquité. Une stèle
local (au droit de la fosse), qui implique un éloignement du
centrale portant une boule, des grenouilles bouche bée
géoïde (vers le haut pour la chaîne). La figure 10 met en
accroupies autour, ont suffi à enregistrer le passage de l'onde
évidence d'une part le bourrelet équatorial (aplatissement
par la chute de la boule et la direction de sa propagation
polaire) et d'autre part les creux et bosses du géoïde à grande
avec la grenouille gagnante (fig. 13).
longueur d’onde (en violet dans la fig. 9). La déformation
De nos jours, on exprime l’intensité des séismes soit
maximum, très exagérée sur la figure, est en fait inférieure à
100 m pour une amplitude de milliers de Km! Ces à partir de l’enregistrement de l’ébranlement (échelle de
déformations de très grande longueur d'onde sont clairement Richter), soit à partir de leur impact observé sur le bâti et
indépendantes de la topographie et doivent donc avoir une les déformations naturelles (échelle de Mercalli).
origine très profonde. Elles traduisent nécessairement des
hétérogénéités de densité dans le manteau profond. On 1 - Les ondes émises par un ébranlement
Fig. 12 : effet du plongement d'une plaque
De manière extrêmement résumée, en dehors du
sismographe de Zhang Heng (Fig. 13) datant des premiers
Fig.13 : Sismographe de Zhang Heng (≈ 100 AD)?
http://www.gps.caltech.edu/~alex/subduction.htm
- 47 -
ENSM-SE, 2° A : axe transverse P N
Fig. 14a: modules d'élasticité
K=-dP/(dV/V)=ρdP/dρ
16/10/12
Tableau 1 : Relations entre constantes d’élasticité.
µ=dσ/d
siècles de notre ère, et qui ne représente qu’une
manifestation des dieux à s’ébrouer, et la capacité à
enregistrer une direction du mouvement, on peut dire que
John Michell, géologue et physicien anglais, présente la
première causalité physique des séismes en 1761:
« Les tremblements de terre correspondent à des ondes
émises par le déplacement de masses de roches sous la
surface ». En 1807, Thomas Young, lui aussi britannique,
suggère lui aussi que les séismes émettent des ondes qui se
propagent à des vitesses finies. En 1841, James Forbes,
physicien écossais, construit le premier sismomètre vertical,
capable de mesurer des mouvements verticaux du sol ; il
sera perfectionné par le volcanologue Luigi Palmieri en
1855. Puis en 1847, Hopkins fait la Première application au
globe Terrestre de la théorie des ondes élastiques qui vient
d’être fondée par Fresnel et Poisson : les tremblements de
terre sont le résultat de vibrations élastiques du sol. Le
premier sismomètre horizontal, capable de détecter des
mouvements horizontaux du sol, date de 1869, il est dû à
Frank Zöllner.
Le comportement élastique d’un solide homogène
(Fig. 14a) est complètement caractérisé par sa densité plus
deux constantes d’élasticité :
1 - le module d'incompressibilité K = ρdP/dρ
ρ
qui caractérise la variation de volume ou de densité du
milieu considéré en réponse à une variation de la
pression P;
2 - le module de rigidité
G = µ/ρ
ρ
où µ=dσ
σ/dγγ est le module de cisaillement qui
caractérise la déformation élastique (angle γ du milieu
considéré, sous l'action du cisaillement σ).
On utilise aussi communément le module de Young E, relié
au module de cisaillement par le coefficient de poisson
(tableau 1).
Fig. 14b: ondes de volumes, P et S
a - ondes de volumes
Provoqué quelque part au voisinage de la surface lors
d’un séisme, entre quelques dizaines de km de profondeur et
plus rarement quelques centaines de km, dans le domaine de
pression et de température dans lequel le matériau terrestre
conserve un comportement fragile, l’ébranlement du solide
terrestre en ce point sollicite son élasticité.
Incompressibilité et cisaillement sont alors la source de
deux ondes élastiques, respectivement une onde de
compression-dilatation et une onde de cisaillement. Ces
deux ondes vont se propager dans le corps de la planète (On
parle d’ondes de volume) en une enveloppe « sphérique »
(front d’onde) qui conserve sur l’ensemble de sa surface
l’énergie de l’ébranlement dissipée au point source.
L’amortissement de ces ondes est donc essentiellement lié à
l’augmentation de la surface du front d’onde et très peu au
déplacement de matière (Fig. 14b) en son point de passage :
1 - les ondes de compression dilatation sont
longitudinales, et traversent tous les milieux. Elles
correspondent à un déplacement des particules
parallèlement à la direction de propagation de l'onde,
et provoquent une variation de volume. Elles sont
dites ondes P, «premières» (car les plus rapides) et se
propagent à la vitesse :
Vp= [(K + 4/3G)]0.5
2 - les
ondes
de
cisaillement
(transversales)
correspondent à un déplacement des particules
perpendiculairement à la direction de propagation de
l'onde. Il s'ensuit une distorsion sans changement de
volume. Elles ne traversent pas les matériaux dont le
module de cisaillement est nul (liquides). Elles sont
dites ondes S, «secondes», et leur vitesse est
Vs= [G]0.5
(Vs<Vp).
b - ondes de surface
Lorsque, dans un corps fini, les ondes de volume
atteignent sa surface, il apparaît par interférences
- 48 -
ENSM-SE, 2° A : axe transverse P N
Fig. 14c: ondes de surface
Fig. 15 : Enregistrement du séisme de Santa Cruz 1989 par la
station de St Sauveur en Rue (Loire)
constructives deux types d'ondes qui se propagent dans une
épaisseur limitée au voisinage de la surface, et donc
nommées ondes de surface ou ondes L, «Longues» en
raison de leur faible vitesse (<Vs) (Fig. 14c):
1 - Les ondes de Love résultent d'interférences entre les
ondes S, et correspondent à une oscillation polarisée
de grande amplitude, dans le plan de la surface et
perpendiculairement à la direction de propagation de
l'onde;
2 - Les ondes de Rayleigh résultent d'interférences entre
les ondes P et S, et induisent une oscillation dans le
plan perpendiculaire à la surface, avec un déplacement
des particules selon une ellipse (houle).
Puisque les ondes sismiques se propagent à des
vitesses différentes, elles sont enregistrées en des temps
différents sur un sismographe situé en un point donné de la
Terre, lorsqu'il est atteint par le front de l'onde considérée.
Vp>Vs.
Les ondes P sont donc les Premières et les ondes S
les Secondes (Fig. 15).
Les ondes longues L ou R arrivent plus
tardivement. On notera que les ondes P ou S
peuvent apparaître doublées à la suite de
réflexions sur la surface terrestre (ondes PP ou SS,
voir plus loin).
16/10/12
profonde dont le mécanisme est indépendant du
fonctionnement des plaques. Nous ne reviendrons pas plus
sur ce schéma bien établi et largement connu.
A l’échelle régionale, la carte de la France des
séismes d’une seule année (Fig. 16a) prouve combien la
Terre est agitée de soubresaut, le plus souvent
imperceptibles mais quasi permanents. Elle montre aussi la
très forte inhomogénéité de localisation des épicentres, à
cette échelle. Focalisés dans les deux zones orogéniques
françaises, Alpes et Pyrénées, et l’axe Rhône –Rhin –Mer
du Nord qui témoigne de la déchirure de l’Europe au front
de l’arc alpin, les séismes jalonnent ici aussi des limites de
plaques continentales. Ces régions subissent chaque année
en moyenne au moins un séisme d’intensité égale ou
supérieure à 5, et quelques uns par millénaire, d’intensité
supérieure à 8 sur l’échelle de Richter (cf. $ Magnitude) qui
peuvent être dévastateurs. En France, on compte 1 séisme
d’intensité moyenne tous les 10 ans, et 1 séisme violent par
siècle. L’arc alpin est la zone la plus mobile du territoire
métropolitain. La figure 16b montre la relation étroite qui
existe entre la structure profonde de la chaîne des Alpes et
d’une part dans la distribution en carte des séismes et
Fig. 16a : carte de la séismicité en France pour 2004.
2 - Distribution des séismes
11/03/ 2011 au Japon et 26 / 12 / 2004 en
Indonésie: deux manifestations paroxysmiques,
respectivement 9.0 et 8.4 sur l’échelle de Richter,
de la relaxation des contraintes encaissées pendant
un laps de temps de quelques 102 ans par une
limite entre deux plaques. Dans les deux cas, le
point de relaxation est précis (zone de subduction)
et tous les séismes répliques qui suivront se
distribueront dans la même surface, en se délaçant
vers le Nord dans le cas de l’Indonésie. L’analyse
historique de l’ensemble des séismes enregistrés
depuis un siècle a en effet montré depuis
longtemps le caractère inhomogène de la surface
terrestre, comment les frontières de plaques sont
secouées en permanence par des séismes alors que
le cœur des plaques est beaucoup plus calme. La
séismicité intraplaque est en effet généralement
liée à un volcanisme dit « intraplaque » d’origine
- 49 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
On constate à partir des courbes temps vs distance
(Fig. 17a) que la vitesse moyenne des ondes de surface
est quasi constante (de l’ordre de 4.4 Km/sec) avec
l’éloignement de l’hypocentre (foyer du séisme). Par
contre, la vitesse moyenne des ondes de volume
augmente avec la distance au foyer, traduisant le fait
Fig. 16b : Séismicité du Sud-Est de la France
Fig 17a courbes temps vs distance
qu’elles traversent des domaines de plus en plus
« véloces ».
a - Rebroussement des ondes de volume
Si la Terre était constituée d’un matériau aux
propriétés homogènes et isotropes autour du foyer, le
front de l’onde créé par l’ébranlement serait sphérique
(vitesse constante, quelle que soit la direction à partir du
foyer). Mais il n’en est rien, car même si l’on considère
que la Terre est constituée d’un seul matériau, celui-ci
voit augmenter son poids volumique en raison de
l’accroissement de pression avec la profondeur. Donc
Rose , séismes historique ; rouge, séismes mesurés ; échelle colorée, profondeur
vers le bas, la vitesse moyenne de propagation croît avec
des séismes ; la coupe dans la croûte (Crt) et le Manteau (Mtl) suit le tracé
la distance au foyer, et cela signifie que le front de l’onde
fléché.
qui traverse des domaines de plus en plus profonds est de
d’autre part la profondeur de ces séismes. La plaque Ouest- plus en plus « en avance » sur le front sphérique. Il n’est
Européenne plonge sous la plaque italienne (appelée Apulie) donc plus sphérique mais ellipsoïdal (Fig. 17b à gauche).
engendrant des séismes de plus en plus profonds vers l’Est.
Ce type de structure correspond à la situation de collision de
Par analogie avec l'optique, on utilise la normale au
deux plaques, dans ce cas poussée par l’avancée de front d'onde pour définir le rai sismique, et la loi de
l’Afrique et la fermeture de la Méditerranée.
Descartes pour décrire le parcours de ce rai. Si la
Il apparaît aussi sur la carte de France un axe propagation de l’onde n’est pas sphérique, le rai sismique ne
Bretagne Massif-Cenral, qui témoigne d’une sismicité plus décrit pas une droite mais une courbe (Fig. 17b à gauche).
diffuse mais néanmoins bien réelle. Dans cette région la
magnitude des séismes dépasse rarement 4 ; la relaxation
des contraintes encaissées par cette partie Ouest du craton
européen est très largement guidée par des failles anciennes
profondes, héritées de l’histoire hercynienne de cette région,
qui a structuré l’écorce terrestre dans cette région du globe
durant l’ère Primaire.
3 - La propagation des ondes
Pour étudier l’effet de cette variation de vitesse avec
la profondeur, considérons une Terre constituée d’un
matériau aux propriétés sphéroconcentriques, qui sera
discrétisée pour la commodité du propos en une suite de
sphères homogènes emboîtées (Fig. 17b centre). Pour un rai
arrivant en P sur la surface sphérique de profondeur z sous
l'incidence i avec la vitesse V, on écrira qu'il se réfracte à la
vitesse V' sous l'angle r, tel que :
Sin i/V = Sin r/V'.
La figure 17b montre que
Fig. 17b : rais sismiques
- 50 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Fig. 18 : Caractérisation sismique de divers milieux : a) homogène ; b) hétérogènes, 1-régulier , 2-3 irréguliers.
a)
b)-1
b)-2
R sin r = R' sin i' = OQ
et donc
R sin i / V = R sin r /V' = R' sin i' / V'
La quantité R Sin i / V est constante le long du rai,
on l'appelle le paramètre du rai.
La figure 17b montre à droite que lorsque la vitesse
croît avec la profondeur, le rai est concave vers le haut. Au
point le plus bas (sin i =1) la valeur du paramètre de rai p est
égale à R/V.
Si l'on prend deux rais, PQ et P'Q', de paramètre p et
p+∆p, qui parcourent respectivement les distances
angulaires ∆ et ∆+ d∆, on a:
sin i= NP/PP'.
En posant dt, la différence de temps mis par les deux
rais sur leur trajet on écrit :
Sin i= Vdt/Rd∆
∆.Le paramètre du rai PQ s'écrit
alors :
p = dt/d∆
∆, pente de la courbe t= f(∆)
b - La fonction temps –distance des ondes
de volume
La figure 18 illustre à travers leurs courbes t-∆ les
divers trajets possibles de rais sismiques des ondes de
volume en milieu homogène, soit à vitesse constante (18a),
soit lorsque V augmente de façon constante (Fig. 18b1) ce
qui introduit le point de rebroussement pour chaque rai (↑).
La présence d'une zone d’accroissement de la vitesse
(Fig. 18b2, ―) conduit à un rebroussement précoce (↑) et
provoque l'apparition d'une région recevant le train d'ondes
anormalement tôt (↓).
Inversement, la présence d'une région à basse vitesse
(Fig. 18b3, ―) conduit à une incidence critique qui éloigne
Fig.19a : L’expression de la fonction temps-distance,
∆t = f(∆x), pour une onde issue de S dans le milieu à
vitesse V1, réfléchie sur l’interface de séparation avec le
milieu à vitesse V2 est une hyperbole admettant la fonction
linéaire temps distance de l’onde directe pour asymptote
deux rais infiniment voisins, l’un étant rebroussé vers le
haut (↓B), l’autre étant réfracté plus profondément avant
d’être rebroussé lorsque la vitesse du milieu est
remontée(↓C) ; Les rais un peu plus profonds, bénéficiant
d’une vitesse accrue seront un temps rebroussés un peu
avant C, et émergeront entre D et C puis au delà de C ; cela
laisse une zone d'ombre qui ne peut recevoir de trains
d'ondes partis de F.
Nous avons évoqué le cas d’une variation continue
des propriétés physiques, mais de telles variations peuvent
aussi être discontinues. Elles séparent des terrains dont les
impédances acoustiques reflètent des différences de
compressibilité et de rigidité des matériaux constitutifs. Sur
une telle discontinuité, comme en optique, le rai sismique
incident donne naissance à un rai réfléchi (Fig. 19a) et à un
rai réfracté.
Comme en optique encore, sous incidence critique et
dans les conditions de vitesse ad hoc (V milieu inférieur > V
milieu supérieur), le rai subit une réfraction totale (fig. 19b),
et voyage à l’interface « dans » la discontinuité à la vitesse
du milieu inférieur rapide, générant des ondes coniques.
Comme en optique enfin, les ondes réfléchies et
réfractées sont polarisées lors de leur rencontre de la
discontinuité.
En résumé, un ébranlement de l’écorce terrestre crée
deux ondes de volume, P et S, susceptibles d’être polariséesréfléchies et polarisées-réfractées chaque fois qu’elles
rencontrent un contraste d’impédance acoustique, c’est à
dire
une
variation
brutale
des
caractéristiques
Fig.19b : une onde issue de S dans le milieu à vitesse V1,
réfractée sous incidence critique génère une onde conique
qui voyage dans l’interface de séparation avec le milieu à
vitesse V2, à la vitesse V2.L’expression de la fonction
temps-distance, ∆t = f(∆x), est une droite tangente à
l’hyperbole temps-distance de l’onde réfléchie, au point
correspondant à la valeur d’incidence critique. En deça de
ce point, aucune onde conique ne peut être générée.
R e fle x io n
S
V1
V2
S
∆x
h
x
2d
∆t
b)-3
∆x
∆ x /V 1
V 2> V 1
- 51 -
∆ t ( I ) = 2 d ( I) / V 1
∆ x ( Ic ) / 2
∆ x (I)
R e f r a c ti o n
h
V1
d (Ic )
V2
∆ t (Ic ) = 2 d (Ic )/ V 1
+ [ ∆ x ( I) − ∆ x ( I c ) ] / V 2
Ic
d ( I)
I
V 2> V 1
ENSM-SE, 2° A : axe transverse P N
pétrophysiques du milieu (Fig. 18-b2-b3 et Fig. 19 a-b). Il
convient de ne pas confondre les caractéristiques
pétrophysiques avec les caractéristiques pétrologiques
(minéralogie) du milieu, car si une variation brutale de la
minéralogie peut se traduire par une variation importante de
l’impédance, elle ne l’impose pas nécessairement. C’est
néanmoins largement grâce à l’analyse poussée des ondes
sismiques, recherche d’hyperboles de réflexions, recherche
d’ondes coniques que l’imagerie du sous-sol proche
(quelques Km) permet aux pétroliers d’organiser
l’exploitation de la ressource, gaz ou pétrole. A l’échelle de
la Terre, l’ensemble des séismographes écoute notre planète
en permanence, rendant possible la modélisation de
l’intérieur de la Terre.
c – Le chant de la Terre : oscillations
propres
et de la structure interne de la Terre. La Terre résonne alors
comme une cloche, avec une période fondamentale (grave)
de 54 minutes, et des harmoniques qui décroissent jusqu’à
quelques secondes (quelques fractions de Hertz), et une
amplitude maximale de l’ordre du millimètre. On utilise
l'analyse en fréquence des oscillations libres de notre planète
comme un spectroscope pour en analyser les hétérogénéités.
d – Magnitude et Intensité d’un séisme
L’intensité d’un séisme est définie par les désordres qu’il
engendre. Echelles de XII degrés, les échelles de Mercalli,
puis MKS, puis échelle EMS 92 préfigurant de l'échelle
EMS 98 utilisée depuis janvier 2000 par le BCSF (Bureau
Central Sismologique Français), ces échelles expriment la
façon dont la secousse a été ressentie et quels dégâts ont été
observés (tableau 2).
Tableau 2 :
degré
I
II
III
IV
V
VI
VII
VIII
IX
X
XI
XII
Notons tout d’abord que, voyageant au voisinage de la
surface terrestre les ondes de Love et de Rayleigh ne
subissent pas d’augmentation de vitesse liée à la profondeur,
ce qui explique que leur vitesse est à peu près constante ; en
fait celle-ci dépend de la nature des matériaux traversés.
Relativement rapides dans les matériaux massifs comme les
roches de profondeur venues affleurer en surface (e.g.
granites les basaltes etc.), leur vitesse chute dans les
matériaux sédimentaires meubles, contenant de l’eau ou de
l’air ; la fréquence du signal s’abaisse, et son amplitude
croît, rendant ces ondes cisaillantes (Love) ou elliptiques
(Rayleigh) d’autant plus destructrices, dans les plaines
alluviales par exemple.
En second lieu, les ondes de surface sont guidées
entre la surface de la Terre et la base des couches
superficielles qui composent la lithosphère. Lors des
séismes forts, elles effectuent plusieurs fois le tour de la
terre, traçant des paquets d'ondes (fig. 20) se propageant en
un cercle qui s’agrandit à partir de l’épicentre. En interférant
entre elles, elles construisent des ondes stationnaires, qui
oscillent à des fréquences qui ne dépendent que de la nature
Fig. 20 : paquets d’ondes de surface progressives amorties
16/10/12
Secousse
imperceptible
à peine ressentie
faible
ressentie par beaucoup
forte
légers dommages
dommages significatifs
dommages importants
destructive
très destructive
dévastatrice
catastrophique
I, imperceptible - la secousse n'est pas perçue par les
personnes, même dans l'environnement le plus favorable
II, à peine ressentie - les vibrations ne sont ressenties que
par quelques individus au repos dans leur habitation,
plus particulièrement dans les étages supérieurs des
bâtiments.
III, faible - l'intensité de la secousse est faible et n'est
ressentie que par quelques personnes à l'intérieur des
constructions. Des observateurs attentifs notent un léger
balancement des objets suspendus ou des lustres.
IV, ressenti par beaucoup - le séisme est ressenti à l'intérieur
des constructions par quelques personnes, mais très peu
le perçoivent à l'extérieur. Certains dormeurs sont
réveillés. La population n'est pas effrayée par l'amplitude
de la vibration. Les fenêtres, les portes et les assiettes
tremblent. Les objets suspendus se balancent.,
V, forte - la secousse est ressentie à l'intérieur des
constructions par de nombreuses personnes et par
quelques personnes à l'extérieur. De nombreux dormeurs
s'éveillent, quelques-uns sortent en courant. Les
constructions sont agitées d'un tremblement général. Les
objets suspendus sont animés d'un large balancement.
Les assiettes et les verres se choquent. Le mobilier lourd
tombe. Les portes et fenêtres battent avec violence ou
claquent.
VI, légers dommages - le séisme est ressenti par la plupart
des personnes, aussi bien à l'intérieur qu'à l'extérieur. De
nombreuses personnes sont effrayées et se précipitent
vers l'extérieur. Les objets de petite taille tombent. De
légers dommages sur la plupart des constructions
- 52 -
ENSM-SE, 2° A : axe transverse P N
ordinaires apparaissent: fissurations des plâtres; chutes
de petits débris de plâtre.
VII, dommages significatifs - La plupart des personnes sont
effrayées et se précipitent dehors. Le mobilier est
renversé et les objets suspendus tombent en grand
nombre. Beaucoup de bâtiments ordinaires sont
modérément endommagés: fissurations des murs; chutes
de parties de cheminées.
VIII, dommages importants - dans certains cas, le mobilier
se renverse. Les constructions subissent des dommages:
chutes de cheminées; lézardes larges et profondes dans
les murs; effondrements partiels éventuels.
IX, destructive - Les monuments et les statues se déplacent
ou tournent sur eux-mêmes. Beaucoup de bâtiments
s'effondrent en partie, quelques-uns entièrement.
X, très destructive, Beaucoup de constructions s'effondrent.
XI, dévastatrice - La plupart des constructions s'effondrent.
XII, catastrophique - Pratiquement toutes les structures audessus et au-dessous du sol sont gravement
endommagées ou détruites
La magnitude d’un séisme quantifie l’énergie
dissipée au foyer du séisme, sur une échelle logarithmique,
échelle ouverte de Richter, qui utilise la hauteur de sa trace
du séisme sur un enregistrement normalisé. Il existe
plusieurs types de normalisations, utilisées en fonction de
Fig. 21 : Echelle de Richter ; un séisme de magnitude 0 laisse
sur un sismographe Wood-Anderson placé à 100 km de
distance une trace de 01-3 mm de hauteur ; il peut donc
exister des séismes de magnitude <0, et il n’y a d’autre limite
supérieure à cette échelle que celle des matériaux terrestre à
emmagasiner les contraintes. Plus la contrainte emmagasinée
est forte, plus l’énergie correspondant à sa relaxation durant
l’ébranlement sera forte, 10 sur l’échelle de Richter n’a
jamais été atteint à ce jour, mais cette échelle est ouverte
16/10/12
l’énergie dissipée, de la distance de l’épicentre, mais toutes
sont comparables dans leur principe (Fig. 21). Dans le cas
de cette figure, le séisme enregistré laisse une trace de 23
mm. Pour une distance à l’épicentre nulle la valeur de 23
mm donne une magnitude de 2.2. Si l’on suppose que
l’enregistrement a été fait à une distance de 400 km de
l’épicentre, la magnitude atteinte par ce séisme est de l’ordre
de 5.
La magnitude est calculée soit à partir de l'amplitude
comme précédemment, soit à partir de la durée du signal.
Son calcul nécessite plusieurs corrections : elles tiennent
compte du type de sismographe utilisé, de la distance entre
le séisme et le sismographe, de la profondeur du séisme et
de la nature du sol à la verticale du sismographe.. Les
différentes magnitudes utilisées sont :
La magnitude locale ML - on l'utilise pour des séismes
proches (dits séismes locaux) ; elle est définie à partir de
l'amplitude maximale des ondes P ; Elle est toujours
moyennée sur plusieurs stations en tenant compte des
corrections locales.
La magnitude des ondes de surface MS - elle est utilisée
pour les séismes lointains (dits téléséismes), dont la
profondeur est inférieure à 80 km. Elle se calcule à partir
de l'amplitude des ondes de surface.
La magnitude des ondes de volume M - elle est définie pour
les très gros séismes. Elle est calculée à partir d'un
modèle physique de source sismique et est reliée au
moment sismique m0 :
m0 = µ.S.D
avec: µ: rigidité du milieu ; D: Déplacement moyen sur
la faille ; S: Surface de la faille .
Il ne sera pas fait mention dans le poly des effets
morphologiques des séismes : failles, effondrements,
rejets, tsunamis... On pourra télécharger la présentation
ppt de 2004 construite à l’occasion du tsunami
(http://www.emse.fr/~bouchardon/enseignement/tsunami
-2004/tsu_0000.htm).
4 - Hétérogénéités terrestres : le modèle PREM
Pour établir précisément les trajets des ondes dans le
globe (c’est à dire les profils de vitesse), il est nécessaire de
disposer d'une relation entre l’incompressibilité, la densité,
la pression et la température. Pour les régions profondes,
que l’on peut considérer comme sphéroconcentriques en
première approximation, nous disposons d’une relation entre
incompressibilité, densité et pression, appelée équation
d'état d'Adams-Williamson. Avec cette relation établie en
1923, Adams et Williamson avaient pu montrer que compte
tenu des densités de surface, de la densité moyenne, et des
valeurs de K, la Terre devait être constituée d'au moins deux
couches de densité très différente. Elle prévoit qu'à la
profondeur z, la variation de densité dρ avec la variation de
profondeur dz est de la forme :
dρ
ρ/dz=gρ
ρ/Φ
Φ
Le paramètre sismique Φ est égal à K/ρ (K, module
élastique d'incompressibilité). Connaissant, gz, ρz et Φz à la
profondeur z, les sismologues sont en mesure d'établir les
profils des densités au sein de la planète.
0.001mm
- 53 -
ENSM-SE, 2° A : axe transverse P N
Fig 22 : Corrélations expérimentales entre vitesse des
ondes et la densité de divers éléments
16/10/12
Fig. 24a : modèle PREM
Mais à faible profondeur, la Terre est trop
hétérogène pour qu'une équation d'état entre ces divers
paramètres suffise à décrire les variations des ondes
sismiques.
On utilisera pour cette région d’une autre loi,
empirique, la Loi de Birch, qui relie directement la vitesse
des ondes à la masse atomique moyenne des roches
(indépendamment de leur composition minérale) et à leur
densité (Fig. 22) mesurées pour des corps purs dans des
conditions de pression variées. C’est aussi sur la base de ses
expériences à haute pression que Birch put confirmer dès
1961 que les vitesses sismiques atteintes dans le noyau, de
l’ordre de 10 km/sec étaient beaucoup trop faibles pour
correspondre, aux pressions considérées, à un matériau
mantellique. Par contre le Fer constituait un excellent
candidat pour la constitution du noyau.
discontinuités (Fig. 23 & 24a-b) :
1 - La discontinuité de Mohorovicic
séparant croûte
et manteau (CMB pour crust-mantle boundary), entre
10 et 70 km par une augmentation brusque de la
vitesse à la base de la croûte;
2 - La discontinuité de Gutenberg
séparant
manteau et noyau à 2900 Km par une chute brusque de
vitesse de 13,6 à 8,1 km/s;
Ainsi outillés de relations densité-vitesse, les sismologues
peuvent maintenant construire le modèle inverse du trajet
des ondes à travers la planète à partir des temps d'arrivée. Le
modèle PREM (Preliminary Reference Earth Model),
résume l'état de nos connaissances en la matière, en se
basant sur les variations de la vitesse des ondes en fonction
de la profondeur qui mettent en évidence plusieurs
Fig. 23 : relations vitesse des ondes - profondeur
- 54 -
Fig. 24b : courbes densité, pression dans le modèle PREM
ENSM-SE, 2° A : axe transverse P N
3 - La discontinuité de Lehmann
séparant noyau
et graine à 5100 Km par une augmentation rapide, de
9,5 à 11,2 km/s, précédée d’une petite diminution.
Unis, au Canada, en Australie, les épaisseurs
connues sont comprises entre 35 et 37
kilomètres.
2 - En France, son épaisseur est de l’ordre de 30 km
dans le Massif central et le Bassin parisien. Elle
chute à environ 20 km sous les fossés
d’effondrement (Limagne d’Allier, vallée du Rhin) ;
Ayant reconstitué ainsi les discontinuités majeures,
on estime les sauts de densité (et donc de composition) qui
en découlent, et l'on fournit enfin une appréciation de l'état
physique (fluidité) des divers milieux rencontrés. Le
comportement des ondes est à cet égard très pertinent. La
présence d'une infime fraction liquide (<<1%) aux joints des
grains d'un solide, ou le seul fait d'approcher de son point de
début de fusion (solidus), suffit à provoquer une diminution
de vitesse des ondes sismiques.
3 - Dans les zones de surrections de montagnes, en
revanche, l’épaisseur de la croûte augmente; elle est
estimée à 55 km dans les Alpes occidentales et
atteint 70 km dans la Bernina, l’Hindu-Kúch et dans
les montagnes de Kirghizie. Sous ces montagnes, on
met en évidence la remontée anormale à faible
profondeur de roches à grande vitesse de propagation
(7,2 à 7,4 km/s) comme la zone d’Ivrea dans les
Alpes occidentales. Elles pourraient représenter des
morceaux de manteau jalonnant la suture entre les 2
plaques qui donnent naissance à ces chaînes de
montagnes. Le relief terrestre résulte d’une part du
contraste de densité entre croûte et manteau, et
d’autre part des capacités des matériaux (croûte et
manteau) à se déformer. On admet en général que la
chaîne Himalaya n’est pas très éloignée de ce
maximum.
a - La Croûte Terrestre.
Les principaux résultats concernant la constitution de
la croûte ont été obtenus à partir des séismes proches de la
surface ou par les séismes provoqués (prospection sismique
des sédiments et sismologie expérimentale). Les forages
fournissent une observation directe sur les premiers
kilomètres ; guère plus de 1 km en milieu océanique, 4 à 5
km en milieu continental avec un record de 12 km atteint par
l’ambitieux projet soviétique (à l’époque) d’atteindre le
« Moho » sous la presqu’île de Kola. Les conditions P, T°
sont telles que l’on se situe là à la limite de résistance du
matériel de forage. Seuls les tirs expérimentaux ont pu
apporter des résultats précis sur la croûte océanique et sur
les divers segments la croûte continentale, boucliers anciens
et bassins sédimentaires, zones plissées modernes, marges
continentales actives et passives, arcs insulaires, etc.
En domaine océanique, sous une tranche d’eau
variant de 2.5 à 5 km, la croûte est mince. En effet, la
discontinuité de Mohorovicic se situe en moyenne à 10 ou
11 kilomètres au-dessous du niveau de la mer (pris en
référence), donc l’épaisseur de la croûte peut être
sensiblement inférieure à 5 Km, en particulier au droit des
dorsales, sous lesquelles le « Moho » peut remonter de façon
spectaculaire. La croûte océanique est constituée de 3
couches :
1 - des sédiments à faible vitesse (VP environ 1.7 à 2.5
km/s) dont l’épaisseur augmente en s’éloignant des
dorsales ;
2 - une couche basaltique à fort gradient de vitesse (VP
passe de 3.5 à 6.1 km/s) ;
3 - une couche de nature plus variée: gabbro, l’équivalent
largement cristallisé des basaltes sus-jacents ;
amphibolite, l’équivalent métamorphisé des gabbros
ou basaltes ; serpentine, péridotites transformées par
hydratation. La vitesse des ondes P augmente très
lentement (entre 6,4 et 7,1 km/s) dans cette 3° couche.
Dans la croûte continentale, sous les sédiments
lorsqu’ils sont présents, on trouve partout une vitesse
d’environ 6,2 km/s, que l’on attribue à des ondes coniques
propagées sous la limite supérieure du socle granitique. Les
résultats concernant la partie profonde de la croûte sont
beaucoup moins concordants. Toutefois, la vitesse moyenne
observée (environ 6,3 km/s) suggère encore une nature
granitique, avec des intrusions de roches à plus grande
vitesse, probablement de nature plus basaltique. La croûte
continentale est épaisse, avec de fortes variations :
1 - Dans les plates-formes continentales, aux États-
16/10/12
A la limite du continent et de l’océan, dans les
marges passives comme celles de l’Atlantique (pas de
volcanisme, pas de fosse), la discontinuité de Mohorovicic
remonte progressivement dans les marges continentales.
Dans les régions de marges continentales actives
(volcanisme et fosse sous-marine) à faible activité, ce
schéma simpliste d’amincissement crustal reste globalement
vrai : dans le golfe de l’Alaska par exemple, on observe le
« Moho » à 29 km près de la côte, puis à 23-25 km sous le
plateau continental, 13-15 km sous la fosse aléoutienne, et
9-11 km sous la plaine abyssale. Par contre cette
discontinuité disparaît sous les guirlandes d’arcs
volcaniques. Dans la marge active, des zones d’anomalies,
comme la bordure orientale de la sierra Nevada (7,2 à 7,4
km/s) récemment découverte par la réfraction sismique,
mettent en évidence la remontée de matériaux rapides.
b - manteau supérieur
Dans le manteau supérieur, les ondes coniques Pn qui
se propagent à sa limite supérieure (sous le réflecteur
croûte–manteau), ont une vitesse voisine de 8,2 km/s tant
sous les continents que sous les océans. Cela suggère que le
manteau supérieur est un matériau homogène. La réalisation
de grands profils sismiques à partir des explosions
nucléaires souterraines (îles Aléoutiennes, Nevada, Sahara),
à partir des tirs en mer, et à partir de séismes naturels, a mis
en évidence l’organisation en couches concentriques du
manteau supérieur et ses deux caractéristiques essentielles :
1 - Il présente entre 125-140 km et 235 km une couche à
faible vitesse mise en évidence par la diminution de la
vitesse des ondes P et S (Fig. 23 et Tableau 3). Elle est
appelée Low Velocity Zone (LVZ) ou asthénosphère
car considérée comme ductile (astheno = sans force).
En raison des conditions de pression et de température
qui y règnent, c’est dans cette région de la Terre que
les matériaux rocheux sont globalement le plus proche
de leur point de fusion. Ils peuvent même localement
- 55 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Tableau 3 :Vitesses et fréquences des ondes sismiques dans le manteau et dans le noyau.
fondre très partiellement (quelques %), et leur
viscosité est donc particulièrement faible. C’est donc
cette région du manteau supérieur qui permet la
compensation isostatique des variations de poids dans
la colonne rocheuse sus-jacente. Pour l’opposer à
l’asthénosphère, on nomme Lithosphère l’ensemble
de cette colonne rocheuse sus-jacente, à la fois plus
hétérogène21 et au comportement beaucoup plus
fragile. Une remontée de la LVZ (asthénosphère)
jusqu’au voisinage de la surface pourrait expliquer les
anomalies de vitesse dans la zone d’Ivrea, sous le
Massif central, ou encore sous les dorsales océaniques
et les guirlandes d’îles volcaniques (foyers à la base de
la couche). A l’inverse, la lithosphère à croûte
océanique froide et rigide plonge sous les continents à
partir des fosses océaniques.
2 - Sa vitesse croît ensuite rapidement jusque vers 670
km, mais par paliers successifs. Chaque palier
correspondrait alors à un assemblage de phases
minérales, et les sauts à des transitions de phases.
Celles-ci pourraient être de deux types. Jusqu’à 400
km environ, la structure de base des matériaux silicatés
resterait celle que l’on connaît en surface, et au-delà ils
acquerraient une structure plus dense. Toutefois,
l’élément de base des silicates que nous connaissons,
le tétraèdre SiO4, y serait conservé, nous y reviendrons
au chapitre 4. Cette zone est souvent appelée zone de
transition.
Rappelons que l’on appelle plaque lithosphérique la
partie située au-dessus de la LVZ. Si la partie supérieure de
la lithosphère a un comportement élastique, la partie
inférieure présente un comportement déjà plus ou moins
ductile. La Lithosphère associe donc :
1 - La croûte terrestre, issue du fractionnement du
manteau, de nature très variée selon son origine
21
Elle est composée de manteau supérieur plus rapide et de
la croûte (continentale ou océanique).
océanique ou continentale ;
2 - La partie sommitale du manteau, suffisamment
« froide » pour que ses propriétés mécaniques
permettent de le désaccoupler du manteau convectif
sous-jacent.
La limite inférieure de la lithosphère apparaît donc
bien moins comme une limite chimique que comme
l’isotherme de transition entre le manteau conductif (non
adiabatique) et le manteau convectif adiabatique (TBL pour
thermal boundary layer) et comme une limite rhéologique
entre le manteau convectif et le manteau lithosphérique
rigide (LAB pour Lithosphère-Asthénosphère Boundary).
Une telle limite est susceptible de varier en profondeur de
manière importante en fonction du flux de chaleur (venu du
manteau convectif) qui traverse la base de la lithosphère.
Toutefois, en raison même de son isolement souvent long
vis à vis du reste du manteau, le manteau lithosphérique (en
particulier sous-continental) est voué à une évolution
particulière, nécessairement liée étroitement à l’histoire de
la croûte sus-jacente. Au droit des continents surtout, on
parlera donc à juste titre de
manteau lithosphérique subcontinental,
par opposition au manteau supérieur convectif appelé
manteau supérieur asthénosphérique.
c - manteau inférieur
Nous entrons dans le manteau inférieur avec une
forte discontinuité située vers 670 km. Par rapport aux
transitions de phases mises en évidence dans le manteau susjacent, celle-ci fait apparaître un saut de densité (ρinf / ρsup ≈
1.1) et un saut de viscosité (νinf / νsup >10) beaucoup plus
importants. Pour les géochimistes, la composition chimique
des deux manteaux peut être considérée comme
significativement différente. Le manteau supérieur apparaît
de nature péridotitique22 alors que le manteau inférieur
22
Péridotite, roche constituée essentiellement de silicates
magnésiens dont la fusion partielle est à l’origine des
- 56 -
ENSM-SE, 2° A : axe transverse P N
semble avoir gardé au moins en partie des caractères
chimiques voisins de ceux des matériaux les moins
différenciés que nous connaissions, les chondrites.
Toutefois, cette différence de composition ne peut expliquer
à elle seule le contraste physique observé. Le manteau est
bien constitué de part et d’autre de la discontinuité à 670 km
essentiellement de Silicium et d’Oxygène, et il faut donc
que les silicates du manteau inférieur présentent une
structure beaucoup plus compacte (structure octaédrique dite
pérovskite, SiO6 cf. Chp. 4.C.1) que celle des silicates du
manteau supérieur (structure tétraédrique SiO4). Le rôle
séparateur de ce changement de phase est encore largement
discuté de nos jours, car il intervient directement dans le
mode de convection du manteau, soit à deux étages (deux
sphères emboîtées convectant de manière indépendante),
soit à un seul étage, et la distinction entre un manteau
supérieur et un manteau inférieur n’aurait alors pas de
signification majeure.
Deux couches caractérisées par des spectres de basses
fréquences ont été mises en évidence dans le manteau
inférieur :
1 - la première, entre 620 et 950 km, constitue l’interface
entre manteau supérieur et manteau inférieur (Fig. 23
& 24); elle se situe au voisinage de la profondeur à
laquelle disparaissent les foyers sismiques, en partie
sans doute dans la zone de passage de la structure
spinelle à la structure pérovskite. Le devenir des
plaques subductées, dont on perd la trace sismique à
cette profondeur, n’est pas clair ;
2 - la seconde, à la base du manteau, se manifeste par une
rapide décroissance des fréquences dominantes vers
une profondeur de 2850 km. Cette couche dénommée
« D’’ », est actuellement l’objet d’une attention
particulière. Elle reflèterait à la fois les interactions
entre noyau et manteau, et le stockage profond de
morceaux de plaques subductées.
Pour d’autres auteurs cette couche D’’ résulterait de la
séparation par gravité des matériaux denses générés dans
les premiers stades de la vie de la Terre. Nous avons noté
que la fin de la période d’accrétion - différenciation
coïncide avec le maximum thermique de notre planète :
collisions à grande vitesse, éléments radioactifs à vie
longue abondants et éléments radioactif à vie courte
encore présents. Comme pour la Lune (cf. Chp. 4.D.1.d),
la partie supérieur au moins du manteau (ou sa totalité ?)
était probablement un océan magmatique, en cours de
cristallisation ; comme sur la Lune, cette cristallisation
fractionnée à pu générer des continents de matériau
feldspathique léger, et à l’opposé des matériaux cristallisés
plus denses que le liquide. En sombrant vers le fond du
réservoir, ces matériaux solides soumis à pression
croissante pouvaient donner naissance à des assemblages
plus denses que le liquide, voir même que le manteau non
fondu. C’est dans ce type de scénario que certains auteurs
recherchent la naissance de la couche D’’ encore
mystérieuse.
16/10/12
d - Le Noyau
Le réseau d'observatoires séismologiques mis en
place à travers le monde à partir de la fin du XIX° permet de
connaître le temps mis par une onde sismique pour parcourir
une distance donnée. Dès 1906, Oldham constate que les
ondes S captées au delà de 14000 km de l'épicentre d'un
séisme sont en retard d'une dizaine de minutes sur le temps
prévu. Il en déduit qu'il existe une structure interne centrale
où les ondes sismiques se propagent moins vite. Mais le
phénomène sismique planétaire le plus marquant est
l'existence de la zone d'ombre créée par le noyau, mis en
évidence en 1912 par Gutenberg. Il observa qu’aucune
onde P n'est détectée par les sismographes situés à des
distances angulaires de l'épicentre comprises entre 105 et
142°, et parvint alors à estimer la profondeur du noyau à
2900 km. En effet, partant d'un foyer F (Fig. 25), les ondes P
arrivent directement en tout point situé à une distance
angulaire inférieure à 105°. Le rai correspondant à cette
valeur effleure le noyau. A peine au-delà, il est réfracté dans
le noyau sous l'angle limite, et émerge en surface à plus de
180°. Bien que le Noyau soit de très haute densité, les rais
sont en effet réfractés, car les ondes sont très ralenties par
l'état liquide du noyau. Pour des angles de plus en plus forts,
le ralentissement induit d'abord un rebroussement des rais
jusqu'à 142°. Ensuite, l'émergence est de nouveau croissante
jusqu'à 180°. La région 105-142° ne reçoit donc aucun
train d'ondes en provenance de F. En 1926, Sir Harold
Jeffreys constate que l'amplitude des marées terrestres
impose que la rigidité moyenne de la Terre, connue à travers
la mesure des vitesses de propagation des ondes sismiques,
est inférieure à celle du manteau. Il en déduisit que le noyau
devait avoir une rigidité nulle, et donc être liquide. La nonpropagation des ondes S dans le noyau est venue confirmer
l’état liquide du noyau.
Dans les années 30, le perfectionnement des
sismographes permet d'observer des ondes à faible
amplitude. Parmi celles-ci, les ondes notées PKIKP dans la
figure 25 sont incompatibles avec l'hypothèse d'un noyau
homogène. Dès 1936, Inge Lehmann en déduit l'existence
d'une discontinuité à l'intérieur du noyau, la graine (1220 km
de rayon). Les sismologues ont montré que le spectre des
modes propres des oscillations de la Terre décrites plus
avant (fig. 20) ne peut s'expliquer que si la graine est solide
basaltes.
- 57 -
Fig. 25: zone d'ombre créée par le noyau
ENSM-SE, 2° A : axe transverse P N
et légèrement plus dense que le noyau externe. La courbe de
vitesse des ondes P (Fig. 23) illustre bien cette structure
stratifiée du noyau:
16/10/12
Fig. 27: champ dipolaire théorique
1 - Dans le noyau externe liquide, la vitesse des ondes P
croît lentement ;
2 - Le contact noyau-graine (noyau externe - noyau
interne) est marqué par un petit ralentissement ;
3 - L’entrée dans la graine solide provoque un fort
gradient positif de la vitesse;
4 - Peut-être une autre discontinuité est-elle marquée par
une petite chute de vitesse, puis celle-ci croît
lentement jusqu’au centre de la Terre.
L’étude encore très incomplète des spectres d’énergie
montre également une structure stratifiée du noyau
(Tableau 3 et Fig. 23), ainsi que des corrélations
importantes entre les variations de vitesse des ondes P
et les spectres de fréquence de ces ondes.
C - Le magnétisme
Les aurores polaires, draperies de lumière mouvante
rose à vert bleuté visibles sous les hautes latitudes, ont
longtemps hanté l’imaginaire humain. Elles constituent la
première manifestation observable de l'activité magnétique
de la planète. On a pu montrer par satellite et par des
observations coordonnées aux deux pôles que ces
phénomènes y sont simultanés et partiellement symétriques.
magnétique terrestre est un dipôle et qu'il est interne à la
planète. Au début du XIX°, Gauss formule la théorie du
magnétisme, mettant en évidence la prépondérance du
champ dipolaire sur les champs multipolaires avec la
distance. A la surface de la Terre, 90% du champ est
assimilable à un dipôle, incliné de 11.5° sur l'axe de rotation
de la Terre (fig. 27).
En un point donné de la surface terrestre et à un
moment donné, le champ F est défini (Fig. 26) par sa
déclinaison D, son inclinaison I et son intensité, qui varie de
l'équateur au pôle, entre 33000 et 70000 nano Teslas
actuellement.
Relation entre Tesla, Oersted, et gamma
1 - le champ magnétique terrestre,
Restons quelques instants sur le champ dipolaire. Il
La boussole est un instrument connu en Chine au
pourrait avoir une origine externe tout aussi bien qu’une
début de notre ère, peut-être même au II° siècle avant J.C.
cause interne. En première approximation, on admet
Elle n'arrive en Europe qu'à la fin du XII°. Roger Bacon
qu'aucun champ électrique ne perturbe le champ terrestre.
(1216), puis Petrus Pérégrinus (1269), notent que si
Autrement dit, aucune ligne de courant ne recoupe la surface
l'aiguille aimantée pointe toujours dans la même direction, il
de la Terre, Gauss considère que le champ dipolaire de la
n'y a pas forcément un lien ni avec l'étoile polaire, ni avec
Terre considérée comme une sphère de rayon R, peut être
des masses de roches magnétiques, éparses sur la surface
dérivé du potentiel V, fonction qui satisfait aux équations de
connue de la Terre. Pérégrinus définit le concept de la
Laplace.
polarité magnétique. Au XVI°, l'observation de l'inclinaison
magnétique (Fig. 26, angle avec l’horizontale dans le plan
Le potentiel V, en un point de la sphère peut alors être
représenté par une série d'harmoniques sphériques de degré
du méridien magnétique) impose définitivement l'idée que
le champ magnétique n'est pas lié à une étoile mais à la
n et d'ordre m de la forme:
Terre elle-même. La non coïncidence des pôles magnétiques
avec l'axe de rotation de la Terre (déclinaison,
m
n
m
n+1} Cos mφ
φ
angle entre les directions des pôles magnétique et
V=RΣ
Σ∞ Σn Pmn(θ
θ)[ {(ge) n(r/R) +(gi) n(R/r)
n=1
m=0
géographique, déclinaison positive vers l’Est et
m
n
m
n+1
+{
{(he) n(r/R) +(hi) n(R/r)
}Sin mφ
φ]
négative vers l’Ouest, Fig. 26) était connue des
où : Pmn(θ) est la fonction harmonique sphérique de Schmidt;
chinois à l'époque où la boussole arrive chez
nous. Nous en refaisons la découverte à cette
θ et φ sont respectivement les latitude et longitude magnétiques;
époque, et Gilbert énonce en 1600 que le champ
g et h sont les coefficients de Gauss, pour les sources;
e et i sont respectivement externe et interne à la sphère.
Fig. 26: Le champ magnétique terrestre.
Gauss montra en 1839 non seulement que
l'approximation selon laquelle aucun courant électrique
extérieur perturbant le champ terrestre était satisfaisante,
mais qu'en outre les coefficients ge et he pouvaient être
considérés comme nuls pour rendre compte de l'essentiel du
champ dipolaire à la surface de la Terre. Le champ terrestre
pouvait donc bien être considéré comme d'origine interne.
- 58 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Fig. 28: a) champ magnétique terrestre comprimé et raccordé au champ solaire ; b) piégeage des particules dans les vortex (aurore)
2 - Le champ déformé de la magnétosphère
En s'éloignant dans l'espace, la magnétosphère (cf.
Chp. 5.C.2) est très fortement déformée (Fig. 28a). Elle est
confinée par la pression du vent solaire (particules chargées,
protons, électrons, ions H+, He2+, constituant un plasma
contenant en moyenne 10 particules/cm3) animé d’une
vitesse de quelques 300 Km sec-1dans le plan équatorial
solaire à 800 Km sec-1 au voisinage du pôle solaire. A
Fig. 29 : Enregistrement du 09 mai 2009 à 15h 01. le site
http://www.swpc.noaa.gov/pmap/index.html
montre (en léger différé = 2h30) l’état d’ionisation des
zones polaires. Plus la zone est rouge plus la chance de
voir une aurore est grande. La flèche rouge indique le
sens du midi solaire vrai.
l’image de l’onde de choc supersonique, le vent solaire
provoque une onde de choc sur la face avant de la
magnétosphère. Le vent solaire a aussi pour effet d’étirer le
champ magnétique solaire jusqu’aux confins de notre
système. Dans la magnétopause, limite d’influence de la
magnétosphère, les champs solaire et terrestre fusionnent.
On parle de reconnections des lignes de champ.
La déformation de la magnétosphère est permanente
et considérable. Elle s’étend à environ 65000 Km en
direction du soleil, soit environ 10 rayons terrestres
seulement, mais à plus de 1000 rayons terrestres du côté
nuit ! La “ densité ” de la magnéto gaine est de l'ordre de
1000 particules/cm3.
En temps ordinaire, l'essentiel du vent solaire est dévié par
la magnétosphère et les particules solaires ne parviennent
pas jusqu’à l’ionosphère terrestre. Lors des tempêtes
solaires, le flux de particules est considérablement accéléré.
Mesurée en 2001, la vitesse des électrons atteignait 750
Km.sec-1. Selon leur incidence, les particules sont soit
détournées par les lignes du champ terrestre soit piégées et
dirigées vers la corne polaire (vortex, fig. 28b), nourrissant
l’ovale auroral en particules (Fig. 29, degré d’ionisation des
ovales Nord et Sud au moment de l’écriture de ces lignes).
Si l’énergie des particules est suffisante (cas les vents
solaires issus d’éruptions) elles descendent jusque dans la
« basse » atmosphère. Elles y produisent de la lumière dans
l’ovale auroral, les aurores boréales et australes,
grossièrement symétriques et simultanées (cf. . Fig. 29), en
ionisant l'atmosphère très raréfiée au-delà de 70 Km
(ionosphère). Nous y reviendrons lors de la description de
l’atmosphère (Chp. 5.C.2).
Lors d'éruptions solaires particulièrement fortes, les
satellites et les systèmes électriques au sol peuvent être
endommagés (on parle d’électrons tueurs de satellites), les
compas et les liaisons radios.
3 - Le champ terrestre est actif
En 1634, Gellibrand découvrit que la déclinaison et
l'inclinaison
varient
lentement
avec
le
temps.
L'accumulation des relevés faits depuis lors a montré que la
position des pôles magnétiques terrestres a varié de façon
importante (plusieurs dizaines de degrés de longitude,
(Fig. 30). Cette variation séculaire du champ est trop
rapide pour être expliquée par un phénomène superficiel tel
que la dérive des continents. On a longtemps attribué la
- 59 -
ENSM-SE, 2° A : axe transverse P N
Fig. 30: variation séculaire du champ magnétique
16/10/12
(orientation dans le champ durant la chute vers le fond).
L’aimantation rémanente des matériaux ferromagnétiques
est effacée par la température (point de Curie). La T°
maximum du point de Curie des minéraux terrestre (silicates
ou oxydes) ne dépasse pas 770°C (Fe). Elle n’est que de
580°C pour la magnétite, principal minéral ferromagnétique
dans la croûte Terrestre. Compte tenu de la valeur du
gradient de T° terrestre, aucun champ rémanent ne peut
donc subsister au-delà de 25 à 30 Km de profondeur. Le
champ magnétique terrestre est donc actif, et lié à des
courants électriques profonds. Il existe donc une
géodynamo magnétohydrodynamique au cœur de la
planète. Le noyau représente à cet effet “LE ” candidat
idéal : le Noyau est un conducteur (Fer liquide) animé de
mouvements (courants de convection) plongé dans un
champ initial (champ solaire)
variation séculaire à un phénomène de précession du champ
dipolaire (rotation de l'axe du dipôle autour d'un axe
constant, à la manière d'une toupie) mais les mesures
obtenues sur des fours de potiers datés (depuis le début du
1° Millénaire en Europe) et conservés en place ne viennent
4 - Un champ magnétique auto-entretenu
pas s’aligner sur l’ovale espéré, infirmant cette hypothèse.
La variation séculaire n’est pas donc pas encore clairement L'idée d'un champ magnétique auto-entretenu fut proposée
expliquée de nos jours. En outre on a pu montrer qu'en tout d’abord par Larmor en 1919 pour expliquer le champ
Europe occidentale, le champ magnétique a régulièrement solaire. La dynamo hydrodynamique terrestre est le moyen
décru depuis le ~VI° siècle jusqu’à sa valeur actuelle, permettant la conversion de l'énergie cinétique tirée de la
perdant environ 50% de son intensité.
convection du noyau liquide — convection engendrée par la
cristallisation
fractionnée progressive du liquide Fe-Ni du noyau en graine
On sait depuis Pérégrinus que le champ propre des
solide
—
en
énergie magnétique via le fluide conducteur
matériaux observés en surface reflète le caractère
ferromagnétique de certains minéraux ferrifères qui les qu’est le Fe-Ni liquide du noyau. En effet, lorsque ce dernier
constituent. Contrairement aux substances diamagnétiques est en mouvement, il crée un champ magnétique, et à cause
ou paramagnétiques dont l’aimantation acquise sous l’effet de la turbulence, un courant est auto-induit dans le fluide. Si
d’un champ extérieur cesse avec ce champ, les corps la configuration permet à ce courant d'amplifier le champ
ferromagnétiques sont capables d'enregistrer le champ magnétique initial, le mécanisme est alors auto-entretenu
existant et de le conserver ensuite, sauf pour une valeur (voir wiki PN, Origine du champ magnétique terrestre,
faible de ce champ. L’aimantation J acquise par un corps W.Saifane 2010).
ferromagnétique est fonction de l’intensité du champ
Cette idée fut reprise par Elsasser (1946) puis par
appliqué H, jusqu’à saturation de l’aimantation Js (Fig. 31).
Bullard à propos du champ terrestre (1949). La dynamoL’aimantation acquise ne peut donc dépasser la valeur de Jc,
disque de Bullard (Fig. 32) en explique le principe : un
quel que soit H. Lorsque le champ appliqué H cesse,
disque conducteur tournant dans un champ magnétique
l’aimantation J décroît jusqu’à Jr, aimantation rémanente,
initial produit une force électromotrice; les charges, stockées
mais ne s’annule pas. On peut faire disparaître cette
à la périphérie du disque sont évacuées par une spire
aimantation rémanente en appliquant au corps aimanté un
coaxiale qui produit alors un champ qui renforce le champ
champ inverse, dit coercitif (Hc). En faisant varier le champ
initial. La résistance du circuit et le sens des courants induits
H entre deux valeurs identiques mais de sens opposé, on
(Lenz 1833) imposent une limite à l'accroissement du
obtient ainsi une courbe fermée d’aimantation appelée
champ, mais la dynamo produira un champ tant que le
hystérésis. Les champs que l’on mesure sur des roches
conducteur sera en rotation.
contenant des minéraux ferromagnétiques sont donc des
champs rémanents (fossiles), datant de leur cristallisation Dans une sphère fluide conductrice mais non convective en
(e.g. roches volcaniques) ou de leur sédimentation rotation et soumise à un champ initial il ne se passe rien car
Fig. 31 : Courbe
Ferromagnétiques
d’hystérésis
des
corps
la distribution de la conductivité est alors homogène. Par
contre, le cas d'une sphère convective introduit une
hétérogénéité. Le conducteur y décrira des boucles simples,
de la forme des cellules de
convection. Depuis les
Fig. 32 : disque dynamo de Bullard
travaux de F.H. Busse
(1970) sur les systèmes en
rotation rapide, on imagine
que la convection dans le
noyau se fait au moyen de
cellules parallèles à l’axe de
rotation (Fig. 33a). La
vitesse de rotation étant
maximum à l’équateur, ces
cellules ne sont pas des
cylindres mais des lobes
nord-sud enroulés par la
- 60 -
ENSM-SE, 2° A : axe transverse P N
rotation (Fig.33b). Le nombre des lobes est
proportionnel à la vitesse de rotation de la
sphère. Le schéma de la convection de
Busse montre, au sein de la cellule, les
lignes de déplacement du fluide. Le champ
magnétique étant gelé (piégé) dans le fer
liquide du noyau, il est entrainé par la
convection.
16/10/12
Fig. 34 : naissance d'un champ
toroïdal
dans
une
sphère
hétérogène en rotation
Il suffit que la vitesse du fluide soit
suffisante (x10 km/an dans le noyau) pour
que la force de Coriolis puisse enrouler le
conducteur, qui décrira alors des spires
tout en parcourant la boucle convective,
dessinant un tore (Fig. 34). La figure
montre comment les lignes de force d'un
champ initial poloïdal commencent à
s’enrouler (en haut à gauche puis à droite),
donnant naissance à un champ tore (en bas
à gauche). Dans ce tore parcouru par le
fluide conducteur naît alors un nouveau champ poloïdal (en
bas à droite) qui vient renforcer le champ poloïdal initial. La
dynamo auto-entretenue est alors activée.
Dans le Noyau terrestre, le champ dipolaire (90% du
champ) résulterait de ce champ toroïdal, lié à la rotation de
la Terre. Les 10% multipolaires du champ résulteraient en
grande partie de mouvements cycloniques variés dans le
noyau. On a longtemps pensé que la présence de la graine
solide reconnue au cœur du noyau liquide par le PREM était
indispensable au fonctionnement d’une telle dynamo. Cette
contrainte reposait sur l’idée que la convection du noyau
était engendrée essentiellement par le fractionnement des
éléments lourds (Fe, Ni, nous reviendrons sur la
composition du noyau au chapitre 4) dans le processus de
cristallisation de la graine au dépend du noyau liquide. Le
liquide situé au dessus de la surface de la graine
« fraîchement » cristallisée se trouve ainsi enrichi en
éléments légers (Si, O, S, H) par rapport au reste du liquide
et tend donc à convecter spontanément grâce à ce
changement
de
Fig. 33a : modèle de convection dans le densité
lié
au
noyau selon Busse 1970
changement
de
composition.
On
considère maintenant
au contraire, depuis
Sakuraba & Kono,
1999,
que
la
convection purement
thermique est un
moteur possible pour
notre dynamo, et qu’il
http://iopscience.iop.org/1367a fort bien pu présider
2630/9/8/306/fulltext
Fig. 33b : Cellules de convection de seul à la convection
Busse dans un modèle actuel de sphère du noyau terrestre,
même dans un noyau
en rotation
resté
entièrement
liquide durant les
premiers âges de la
Terre.
L’âge
magnétique connu de
la Terre (environ 3.8
Ga.) n’est donc plus
l’âge le plus ancien
admissible pour la
http://www.gla.ac.uk/schools/mathematicsstatistic
graine, et les modèles
s/research/maths/fluids-mhd/#
Fig. 35a, magnéto à double disque de
Rikitake (1958)
Fig. 35b, variations du courant avec le
temps
les plus récents de refroidissement du manteau et du noyau
suggèrent au contraire que la graine est relativement jeune et
n’aurait guère plus de 2Ga.
Si une dynamo auto-entretenue comme la dynamo de
Bullard peut maintenir un champ d'une polarité donnée, elle
peut fonctionner aussi avec la polarité inverse. La dynamo
simple-disque de Bullard présente un fonctionnement
constant et stable. Par contre une dynamo à double disque,
comme celle de Rikitake (Fig. 35a) montre des oscillations
du champ et inversions spontanées des pôles (Fig. 35b).
Depuis Brunhes au début du XX° siècle, on
connaissait des régions volcaniques anciennes dont le
Fig. 36 : structure symétrique et alternée du magnétisme
rémanent du plancher océanique Est Pacifique.
- 61 -
ENSM-SE, 2° A : axe transverse P N
Fig. 37 : taches solaires
magnétisme
rémanent
montrait
une polarité inverse
de celle du champ
actuel,
mais
ce
phénomène
d’inversion des pôles
a été clairement mis
en évidence sur terre
avec
l’exploration
des océans dans les
années 1950 et 60 (Fig. 36) qui a montré que le plancher
océanique est constitué d’une
succession de bandes
parallèles de polarité alternée, N-S puis S-N, etc.
L’inversion des pôles magnétiques terrestre n’a rien de
régulier. On a pu mettre en évidence des durées de polarité
très courtes de l’ordre de 100 000 ans et à l’opposé des
durées très longues entre deux polarités, e plusieurs dizaines
de millions d’années. On n’a encore aujourd’hui fort peu
d’idées sur les raisons qui président à une telle diversité de
la durée des polarités du champ magnétique terrestre. Les
mesures faites sur des piles de coulées volcaniques montrent
que la durée d’une inversion est de l’ordre de 5000 ans
environ et qu’elle s’accompagne d’un affaiblissement très
important de l’intensité du champ dipolaire, voir de sa
disparition. Le chemin suivi par les pôles magnétiques
durant une inversion est longtemps apparu erratique.
Cependant, quelques inversions récentes du champ terrestre
ont été bien enregistrées lors des épisodes volcaniques
contemporains. Ces séries volcaniques ont été abondamment
et précisément datées, et il résulte de ces études que les
pôles migreraient durant l'inversion en suivant des
longitudes privilégiées. Ce fait reflète peut-être les
mouvements convectifs externes du noyau. Nous y
reviendrons dans la description du fonctionnement du noyau
(Chp. 4.A.3).
Le Soleil présente un comportement similaire
organisé par le cycle solaire de 22 ans (2 x 11ans). Galilée
avait observé les taches solaires, avec moins de définition
que dans l’image de la figure 37. Sa lunette ne lui permettait
que d’imaginer des nuages flottant dans l'atmosphère du
soleil, obscurcissant un peu de sa lumière. En 1843, S. H.
Schwabe annonce23 que le nombre de taches solaires varie
de manière cyclique, atteignant un apogée à environ tous les
dix ans. R. Wolf passe plus de 40 ans à fouiller les archives
des observatoires astronomiques24 et parvient à reconstituer
l'histoire de ces variations jusqu'à 1745. Il révise alors la
période du cycle de Schwabe pour l'établir à 11 ans
(Fig. 38).
Leur nature magnétique sera établie en 1897, lorsque
Pieter Zeeman découvre qu’en présence d’un champ
magnétique fort, l’intensité de l'émission de lumière d’un
gaz surchauffé (émission aux longueurs d'ondes définies par
les éléments qu’il contient) est divisée en fonction de la
23
24
après 17 ans d'observations quotidiennes !
Tiré de Paul Charbonneau Département de physique,
Université de Montréal, Agence spatiale canadienne,
www.asc-csa.gc.ca
16/10/12
Fig.38 : Variation du nombre de taches solaires observées
http://www.asc-csa.gc.ca/fra/sciences/taches_solaires2.asp
force du champ en différentes longueurs d'ondes. Or les
couleurs de la lumière émise à partir des taches solaires
étaient "divisées" exactement de cette façon. Par ailleurs et
corrélativement, les orages magnétiques les plus puissants
ont lieu durant les années où les taches solaires sont les plus
nombreuses.
George Elery Hale confirma la vraie nature magnétique
des taches solaires en 1908 et il établit que :
1 - les grandes taches solaires apparaissent en paires
rapprochées, à peu près alignées dans la direction de
la rotation du Soleil ;
2 - les polarités des paires sont toujours opposées et quasi
toujours ordonnées de la même manière dans chaque
hémisphère;
3 - l'ordre des polarités est inversé d'un hémisphère à
l'autre;
4 - les polarités s'inversent d'un cycle à l'autre.
Il observa aussi que le champ est si puissant (3000
fois plus fort, près de la surface de la terre, que le champ
terrestre) qu’il ralentissait le flot de chaleur provenant de
l'intérieur du soleil, causant les taches plus sombres que le
reste du soleil.
En 1919 Sir Joseph Larmor proposa la théorie
suivante : les champs des taches solaires étaient dus à ces
courants dynamos. Il suggéra qu'une chaîne fermée de cause
à effet existait, dans laquelle le champ créé par ces courants
était aussi le champ qui les rendait possible, le champ dans
lequel le mouvement du plasma générait les courants
nécessaires. Beaucoup de caractéristiques de ces taches
solaires restent un mystère, mais l'idée de J. Larmor permit
l'ouverture d'une ère de nouvelle compréhension des
processus magnétiques dans le noyau terrestre.
En 1957, on observa que le soleil était en train de
subir une inversion de ses pôles. Le passage d'un état stable
à l'état stable inverse dura 18 mois. Le mécanisme de ces
inversions est complexe et encore mal compris, mais elles
sont la règle. Tous les 11ans à peu près, à l'approche du
maximum d’activité solaire, c'est-à-dire lorsque le nombre
des tâches est à son maximum, les pôles magnétiques
échangent leur place. Inversement, cette inversion est une
bonne indication que le maximum solaire est bien atteint. La
dernière inversion enregistrée se situe lors du pic du cycle
23, en 2001 et la prochaine devrait avoir lieu en 2012 mais
le cycle 24 est largement en retard (Chp. 5.B.1.c Fig. 19)
En 2007, D. Gubbins, A. P. Willis et B. Sreenivasan
ont montré que les variations latérales du flux de chaleur
- 62 -
ENSM-SE, 2° A : axe transverse P N
Fig. 39 a-b : champ quadripolaire observé à la surface
a) 1750
b) 1990
16/10/12
Fig. 39 c-d : champ quadripolaire modélisé par Gubbins et al
http://yakari.polytechnique.fr/people/willis/papers/pepi162_256.pdf
dans le manteau inférieur sont capables d’influencer
l’activité de la géodynamo. Le champ terrestre n’est pas
seulement dipolaire. Il existe aussi un champ quadripolaire
d’intensité beaucoup plus faible que le champ dipolaire, qui
occupe une position à peu près symétrique par rapport à
l’équateur. On définit donc 2 dipôles, tous deux symétriques
par rapport à l’équateur, appelés Sibérien et Canadien. Si
l’axe du champ dipolaire est largement bloqué par l’axe de
rotation de la Terre — et donc n’évolue que peu et très lentement
autour de cet axe — le champ quadripolaire évolue semble-t-il
avec une plus grande liberté, comme le montre La figure 39
(a,b) tirée des travaux de Gubbins et al.. Mais il reste
néanmoins relativement permanent autour de ses deux pôles
Sibérien et Canadien. Autre relative fixité dans le temps, on
observe qu’au cours des inversions du champ dipolaire, les
pôles Nord et Sud migrent en suivant un chemin préférentiel
bien enregistré par le volcanisme de la Terre, (cf. chp. 4).
Les auteurs ont donc pensé que de telles constances,
tant en longitude dans la position du quadripôle qu’en
chemin préférentiel du dipôle lors des inversions, doivent
résulter d’un manque de symétrie sphérique dans le manteau
car rien ne s’opposerait, dans le cas contraire, à une rotation
de ce quadripôle, ou bien à un chemin plus aléatoire du
dipôle en inversion. Dans ce travail, les deux dipôles
(Sibérien et Canadien) constitutifs de ce quadripôle sont
présentés dans une série d’animations, qui montre le flux
magnétique obtenu en faisant varier latéralement le flux de
chaleur dans le manteau. En considérant les variations
latérale de vitesse des ondes S — mises en évidence par la
tomographie sismique au sein du manteau inférieur au voisinage de la
limite manteau noyau — comme résultant de variations du flux
de chaleur, les auteurs obtiennent une modélisation
satisfaisante du champ quadripolaire actuel et de ses
variations entre 1750 et 1990 (Fig. 39-c-d). La paire
canadienne y apparaît fixe, alors que la paire sibérienne est
plus mobile, conformément à ce que suggère l’ensemble des
observations sur la même période dans la figure 39 a-b.
La morphologie du champ magnétique terrestre ne
dépendrait donc pas uniquement de la structure interne du
noyau et de la graine, mais aussi de la structure thermique
du manteau inférieur.
Les étoiles et les planètes ont des champs
magnétiques très variés. Le rôle de la rotation du corps
explique que le dipôle magnétique coïncide ou presque avec
l'axe de rotation du globe. Cette constatation a été faite sur
Terre comme sur les autres corps célestes émettant un
champ actif (Tableau 4).
Tableau 4 : champ magnétique des planètes et des étoiles
densité période de rayon (Km)
Astre
rotation
Soleil
Mercure
Vénus
Terre
Lune
Mars
Jupiter
Saturne
Uranus
Neptune
étoile magnétique
pulsar
quasar
voie lactée
5.3
4.95
5.52
3.6
3.95
1.33
0.69
1.56
2.27
27j
59 j
243j
23h 56’
27j
695000
2425
6070
6400
1740
24h 37’
9h 55’
10h 38’
10h 49’
15h 48’
10h
1’’
3395
71300
60100
24500
25100
2000000
qqs km
200 Ma
50000 a.u.
Champ
prévu
(gauss)
1
0.0035
0.001
0.0004
champ
observé
(gauss)
1
0.0020
nul ?
0.3
0.00001
0.06
14
5
1.8
1.6
103
1013
0.001
0.00001
0.0006
4
?
?
?
500-1000
?
0.0001-0.001
<0.00001
origine du champ
dynamo active
dynamo active
?
dynamo active
dynamo
ancienne ?
dynamo ancienne
dynamo active
dynamo active?
?
?
dynamo active
dynamo active
?
?
Sites WEB consultés
http://www1.gly.bris.ac.uk/~george/gjift96/gjift96.html#figs
http://www.space.com/scienceastronomy/gravity_map_030725.html
http://renass.u-strasbg.fr/
http://www.unb.ca/courses/geol1001a/lec-8.htm
http://antwrp.gsfc.nasa.gov/apod/ap011113.html
http://denali.gsfc.nasa.gov/research/earth_grav/earth_grav_med.jpg
http://sismalp.obs.ujf-grenoble.fr/sismalp.html
http://www.unb.ca/courses/geol1001a/lec-10.htm
- 63 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
http://www.unb.ca/courses/geol1001a/lec-13.htm
http://www.scecdc.scec.org/Module/module.html
http://www.pmel.noaa.gov/vents/acoustics/seismicity/seismicity.html
http://www.seismo.unr.edu/ftp/pub/louie/class/100/seismic-waves.html
http://web.ngdc.noaa.gov/mgg/image/images.html
http://lasker.princeton.edu/ScienceProjects/curr/waves/seismic_waves.htm
http://www.eas.purdue.edu/~braile/edumod/slinky/slinky.htm
http://mahi.ucsd.edu/Gabi/3dmodels.html
http://istp.gsfc.nasa.gov/earthmag/dynamos2.htm
http://www-istp.gsfc.nasa.gov/earthmag/demagint.htm
http://www.ggl.ulaval.ca/personnel/bourque/s1/magnetisme.terr.html
http://csep10.phys.utk.edu/astr161/lect/earth/magnetic.html
http://www.psc.edu/science/Glatzmaier/glatzmaier.html
http://www.spaceweather.com/glossary/imf.html
http://www-istp.gsfc.nasa.gov/Education/Imagnet.html
http://www.phy6.org/earthmag/sunspots_fr.html
http://www.ubka.uni-karlsruhe.de/cgi-bin/psview?document=/fzk/6797
http://www.didiersvt.com/cd_1s/html/c1/prem.htm
http://mahi.ucsd.edu/Gabi/rem.dir/rem.home.html
http://www.didiersvt.com/cd_1s/html/c1/prem.htm
http://homepage.oma.be/mvc/
http://www.esgt.cnam.fr/fr/surcharge.htm
http://www.astrosurf.com/luxorion/sysol-soleil-magnetique2.htm
http://www.swpc.noaa.gov/pmap/index.html
http://www.asc-csa.gc.ca/fra/sciences/taches_solaires2.asp
http://iopscience.iop.org/1367-2630/9/8/306/fulltext
http://www.gla.ac.uk/schools/mathematicsstatistics/research/maths/fluids-mhd/# http://www.gps.caltech.edu/~alex/subduction.htm
http://www.ladhyx.polytechnique.fr/people/willis/papers/pepi162_256.pdf http://principles.ou.edu/earth_figure_gravity/geoid/index.htm
http://yakari.polytechnique.fr/people/willis/papers/pepi162_256.pdf
quelques idées fortes
Quelques idées fortes :
Gravité
En 1798 Cavendish mesure G= 6.67 10
-11
SI et montre que la Terre est constituée de 2 couches
L’unité de pesanteur, le gal, équivaut à 10-2m.s-2 La pesanteur terrestre est de l’ordre de 980 gal :
Le fil à plomb (g) ne passe pas par le centre de la Terre, sauf aux pôles;
L’intensité du champ de pesanteur varie avec la latitude. ;
L’image du champ de pesanteur est l’image de la topographie, faible au droit des fosses, fort au droit des montagnes
Les hétérogénéités de masses volumiques dans la croûte terrestre sont compensées :
Cette compensation est de type hydrostatique, elle est appelée isostasie ;
Elle confirme la plasticité de la Terre
Séismicité
Un séisme émet au foyer des ondes de volume :
P, ondes de compression dilatation (longitudinales) elles traversent tous les milieux ;
S, ondes de cisaillement (transversales), et ne sont pas transmises par les liquides ;
En arrivant à la surface, P et S créent des ondes dévastatrices propagées en surface, dites ondes de Love et de Rayleigh
Discontinuité de Mohorovicic, sépare la croûte du manteau :
Croûte = constituée de silicate alumineux, SiAl ; Manteau = constitué de silicate magnésien, SiMg, alias SiMa ;
Croûte océanique : « Moho » à 5-10 km; Croûte continentale : « Moho » à 20-30km, jusqu’à 70 km sous les montagnes ;
Asthénosphère = LVZ dans le manteau = zone ductile débute vers 100 km et finit vers 250 km ;
Lithosphère = tout ce qui est au dessus de la LVZ ( et donc a un comportement fragile)
Discontinuité à 670 km sépare manteau supérieur et manteau inférieur :
Jusqu’à 900 km environ zone de transformation de la structure spinelle (ρ faible) à la structure pérovskite (ρ fort) ;
Couche D’’, Vers 2850 jusqu’a 2900km, résultant des interactions entre manteau et le noyau ;
Discontinuité de Gutenberg, à 2900km, sépare le manteau solide (silicaté) du noyau liquide (alliage fondu de Fe-Ni) :
C’est la coupure majeure de toutes les planètes rocheuses : sur terre : ρ manteau = 4 ; ρ noyau = 12 ;
Le ∆ρ très fort crée une zone d'ombre sismique en surface (pas d’ondes reçues entre 105 et 142°) ;
Le noyau ne transmet pas les ondes S, il est liquide
Discontinuité de Lehmann à 5100 km, sépare le noyau liquide de la graine (alliage cristallisé de Fe-Ni)
Magnétisme
En 1600 Gilbert énonce que le champ magnétique est un dipôle, et qu'il est interne à la planète :
le champ F est défini par :
Sa déclinaison D (angle entre les directions des pôles magnétique et géographique) ;
Son inclinaison I (angle avec l’horizontale dans le plan du méridien magnétique) ;
Son intensité, qui varie de l'équateur au pôle, entre 33000 et 70000 Nano-Teslas ;
90% du champ est assimilable à un dipôle, incliné de 11.5° sur l'axe de rotation de la Terre :
Aucun champ rémanent ne peut subsister au-delà de 25 à 30 Km de profondeur ;
Le champ terrestre est actif, il varie avec le temps (variation séculaire) ;
Le noyau ferreux liquide de la Terre fonctionne comme une géodynamo magnétohydrodynamique
la magnétosphère est déformée par la pression de vent solaire,
Elle s’étend à 10 rayons terrestres seulement côté Soleil, et à plus de 1000 rayons terrestres du côté nuit !
Le champ terrestre, comme le champ solaire, s’inverse ;
Le mécanisme de ces inversions est complexe et encore mal compris ;
L'intensité du champ décroît, s'annule durant l'inversion, puis augmente à nouveau.
- 64 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
CHAPITRE 4
Les enveloppes rocheuses de la Terre
Interfaces coloured
according to indices of
surfaces and a velocity
section in model PREM
Seismic Waves in Complex 3-D
Structures (SW3D)
A - Le Noyau Terrestre
Les météorites précoces formées dans la nébuleuse
solaire (les chondrites CI) et la photosphère solaire actuelle
nous enseignent qu’au moment de la formation de la Terre,
le rapport molaire du Fer au Magnésium était de l’ordre de
0.84. Dans l’hypothèse généralement admise d’une
nébuleuse chimiquement homogène au moment de la
formation du soleil et des planètes, ce rapport doit être aussi
celui de la Terre.
Partant des proportions massiques des éléments
majeurs du manteau:
O=50%; Si=22% ; Mg=22% ; Fe=6% e :
Mg=22%, Fe=6%
et des masses molaires des éléments :
mO=16, mSi=28, mMg=24.3, mFe=56
on constate que le rapport molaire du manteau Fe/Mg
= (6/56) / (22/24.3) n’est que de 0.1 environ. A Magnésium
constant, il manque donc une quantité importante de Fer
dans le manteau que nous pouvons essayer d’estimer :
1- la masse molaire moyenne du manteau (0.5*16 +
0.22*28 + 0.22*24.3 + 0.06*56) est de =22.8.
2- le nombre de moles de Magnésium NMg dans le
manteau s'écrit : NMg = Mg/mMg * Mmanteau (1)
Si l'on suppose que le rapport molaire Fe/Mg de la
Terre totale est égal à celui des chondrites (0.84), on en
mq
déduit que M Fe la masse manquante de fer est :
M
Mq
Fe
=
Mq
N *m
Fe
Fe

=

N
Terre
Fe
−
N
Manteau
x

Fe
m
Fe
on sait que
N
Terre
Fe
=
Terre
N
Mg
x
Chon
N
Fe
N
Chon
Mg
Or, puisque Mg est constant, on a
N
Terre
Mg
=
N
Manteau
=
Mg
N
Mg
donc on réécrit la masse manquante de fer du manteau
M
Mq
Fe
=
N


x
Mg 


N
Chon
Fe
N
Chon −
N


ChManteau
Fe
N
Mg
Manteau x
Mg


m
Fe
et en remplaçant de (1) NMg par Mg/mMg * Mmanteau on a :
M
Mq
Fe
=
M
manteau
∗ Mg ∗
M
Mq
m
=
M
ou M
Fe




Mg 

Fe
m
manteau
Mq
Fe
=
N
Chon
Fe
N
∗ 0.22 ∗ 56
Chon −
N


ChManteau
Fe
Mg
N
1 - Le noyau liquide
Sismiquement transparent pour les ondes S et
ralentissant fortement les ondes P, le noyau terrestre est à
l'état liquide (Chp. 3.B.4.d). La pression varie de 130 G.Pa
à la surface du noyau à 400 G.Pa au cœur du globe (1 G.Pa
= 10 000 atm.). L’estimation de la température dans le
noyau est encore de nos jours un point largement débattu.
On sait que le manteau est solide et constitué principalement
de pérovskite. On a pu extrapoler vers les très hautes
pressions qui règnent à l’interface manteau-noyau la courbe
de fusion de la pérovskite, qui fixe ainsi la limite supérieure
de la température au sommet du noyau à 5000°K. La
température à la limite entre le noyau et la graine,
considérée comme le point de fusion du fer à une pression
de 320 G.P, a pu être évaluée grâce à des expériences de
fusion par ondes de choc à 6000°K. Si l’on tient compte de
la présence de 10% environ d’éléments légers, on obtient
une température de l’ordre de 5000°K. Considérant alors
que la chaleur du noyau liquide est transportée par
convection, le gradient adiabatique donne pour la surface
du noyau une température de l’ordre de 3800°K. La
température au centre de la Terre serait de l’ordre de
6000°K. Une équipe du University College de Londres a
donné récemment (1999) des valeurs beaucoup plus élevées,
de l’ordre de 9900°K, fondées elles aussi sur des
extrapolations de la courbe de fusion du fer, voir 11500°
pour du fer pur. Le calcul ab initio des énergies libres du fer
liquide et solide à 330 G.Pa. (Alfé, Gillan et Price 1999)
donne une température de 6700 ± 600°K à la frontière
noyau-graine. Le débat n’est pas clos, mais la tendance vers
de plus hautes valeurs de la température du noyau tend à
montrer que la part de celui-ci dans le bilan thermique de la
Terre (chaleur initiale et chaleur latente) sera certainement à
revoir dans les années qui viennent.
Manteau
Mg


(0.84 − 0.1)
24.3
0.38∗M
environ 40% de la masse du manteau. Or, le rapport des
masses entre le noyau ferreux et manteau est de 0.48 et non
0.4. Mais le fer n’est pas le seul élément contenu dans le
noyau ; à partir de la composition des sidérites et en raison
des contraintes imposées par la géophysique on estime que
le noyau est aussi constitué de nickel en faible %, et
d'éléments légers (O, Si, ou S). D’après Allègre et al., 1995,
la composition du noyau serait la suivante : Fe=79%,
Ni=5%, Si=7%, S=2%, O=4%. Sa densité doit être comprise
entre 10 et 12, et il est conducteur de l’électricité.
manteau
La masse manquante de fer représenterait donc
On estime que la viscosité du fer fondu dans les
conditions régnant dans le noyau est peu différente de celle
que l'on obtient en surface. Elle serait donc du même ordre
de grandeur que la viscosité de l'eau ! Nous avons vu au
chapitre précédent que le Noyau fonctionne comme une
- 65 -
ENSM-SE, 2° A : axe transverse P N
Fig. 1 : Circulation dans le noyau liquide ; en jaune
les régions de vitesse maximum, en bleu l’interface
noyau-manteau, en rouge la limite noyau-graine.
Fig. 2 : Champ magnétique jusqu’à une distance de 2 rayons terrestres; en
bleu champ rentrant dans le manteau ; en orange , champ sortant. L’axe de
rotation est vertical et passe par le centre.
magnétohydrodynamique et que la force de Coriolis joue un
rôle important dans le développement de ce champ.
On sait que Coriolis n’est applicable qu’à un objet
animé d’une vitesse significative. Dans le noyau, les vitesses
de déplacement par convection seraient de l’ordre de une à
plusieurs dizaines de kilomètres par an. « Dynamo », le
modèle de convection sphérique en rotation et de calcul du
champ (dipolaire et non dipolaire) de Glatzmaier et Roberts
(1997 ; Fig. 1, et copie de l’animation du modèle sur
http://www.emse.fr/~bouchardon/) intégrant le rôle de la
graine solide conductrice, montre de larges courants
équatoriaux, tournant vers l’est au voisinage de la graine et
vers l’ouest à proximité du manteau. Le champ magnétique
simulé est majoritairement dipolaire (Fig. 2). Une transition
apparaît à la limite noyau-manteau, séparant un champ à
structure complexe produit par le noyau liquide du reste du
champ beaucoup plus régulier. Les structures non dipôles
obtenues par ce modèle au sein du noyau (et non en surface
comme dans les travaux de Gubbins et al. Chp. 4) se
décalent lentement vers l’ouest de 2°/an, suggérant que la
graine tourne légèrement plus vite que le manteau terrestre.
Pour Ken Creager ce différentiel de vitesse pourrait être très
petit <0.5°.
2 - La graine solide
16/10/12
provoquant une orientation des cristaux de fer ;
2 - soit un dépôt orienté de ces mêmes cristaux par le
champ magnétique du noyau.
Dans les deux cas, l’anisotropie observée résulterait du
mode de cristallisation du fer sous haute pression, stable
dans le système hexagonal compact (HCP, Fig. 3b),
axisymétrique. L'orientation préférentielle des cristaux peut
engendrer des variations fortes des propriétés élastiques
selon les directions. Pour S.I. Karato (1999), cette
anisotropie serait provoquée par les forces de Lorenz liées
au champ toroïdal qui, en comprimant de plus en plus la
graine (en direction de l’axe de rotation) depuis l’équateur
(où la force est nulle puisque les lignes du champ changent
de sens) vers le pôle de la graine (où les forces de Lorenz
deviennent maximum). En observant le comportement de
rais sismiques répétés au cours des 30 dernières années,
couplant une même région sismiquement active avec un ou
des observatoires de mesure, X. Song et P. Richards ont
mis en évidence une évolution temporelle de l’axe
d'anisotropie de la graine, traduisant une rotation de la
graine vers l’ouest de 1° par an. Le mécanisme et l’ampleur
de cette super-rotation de la graine par rapport au manteau,
et son existence même, sont encore largement débattus. Pour
Kenneth Creager, cette super rotation serait due au
mécanisme complexe de transfert d’énergie du noyau vers le
manteau, dont le modèle très fertile de géodynamo de
Glatzmaier et Roberts donne l’image suivante : le champ
magnétique généré dans la Terre génère à son tour un couple
de forces qui s’applique au noyau, imposant à la graine
Nous avons vu que la vitesse de transmission des rais
sismiques présente une zone interne plus
Fig. 3 : a) Vitesses de propagation dans la graine : zones lentes en rouge ;
rapide que son enveloppe plus lente. A la
zones
rapides en bleu. L'axe d'anisotropie de la graine (point rouge) n'est pas
fin des années 90, W.J. Su et A.M.
confondu
avec l'axe de rotation du globe. b) système HCP
Dziewonski ont découvert en analysant
précisément la distribution spatiale des
vitesses des ondes sismiques que la graine
présente en outre un axe d'anisotropie
incliné d'une dizaine de degrés par rapport
à l'axe de rotation de la Terre (Fig. 3a).
Les ondes P qui voyagent dans la graine
entre ses pôles seraient (même après
correction de l’aplatissement terrestre)
plus rapides de 5 secondes que celles qui
voyagent dans son plan équatorial, ce que
l'on pourrait peut-être attribuer à deux
causes possibles:
1 - soit une convection axisymétrique
a)
b)
- 66 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Fig.4 : Champ magnétique des planètes du système solaire
solide et au noyau liquide sus-jacent une co-rotation vers
l’ouest par rapport à la surface. Pour Glatzmaier et Roberts
ce mécanisme est l’analogue d’un moteur synchrone, pour
lequel le champ, transporté vers l’ouest par le fluide du
noyau agit comme le champ tournant du stator, alors que la
graine agit comme le rotor d’un tel moteur. Dans ces
simulations, la rotation différentielle engendrée est de 2°/an
à 3°/an, ce qui est en accord avec les observations
sismologiques.
Il convient cependant de rester critique, d'abord parce
que les données collectées sont limitées dans le temps et
donc ne couvrent qu'une fraction très petite de révolution de
la graine, et ensuite parce que les données les plus anciennes
(années 60) sont à la fois moins précises et moins
nombreuses. Ainsi, l'apparente inclinaison de l'axe
d'anisotropie pourrait provenir de la distribution irrégulière
des stations sismologiques et des séismes observés
(principalement issus de rides océaniques et de zones de
subductions). En outre, selon S. Tanaka et H. Hamaguchi
(1997) il est possible que la graine ne soit pas de symétrie
cylindrique. De plus, comme le souligne Annie Souriaux, la
rotation différentielle de la graine pose un problème
théorique: la forme de la graine doit être modelée par le
champ de gravité du manteau. Celui-ci étant hétérogène il
génère nécessairement des creux et des bosses à la surface
de la graine. Si celle-ci est bien en super rotation par rapport
au manteau, leur couplage gravifique doit engendrer la
disparition et la recréation simultanée de ces creux et bosses
(de quelques x100m tout de même)… En d’autres termes, si
la graine tourne plus vite que le manteau, elle doit adapter sa
forme au champ de gravité. Il faut donc que les "bosses" de
la graine fondent pour se recristalliser ailleurs, ou se
déforment par viscosité. Pour Laske et Masters (1999), cette
super rotation n’existerait pas, et ne serait qu’un artefact lié
justement aux hétérogénéités de la graine. Le noyau recèle
encore bien des mystères !
Il est à noter que parmi les champs magnétiques des
planètes du système solaire, seuls les champs actifs ont une
Fig. 5, échelle des polarités et
des temps durant 4.5 Ma
forte intensité (tab. 1 du
Chp. 3). Depuis, d'autres
analyses ont conduit à des
valeurs allant On constate
aussi (Fig. 4) que si
l’orientation du champ
dipolaire
est
souvent
proche de l’axe de rotation
de la planète, Uranus et
Neptune montrent un
champ d’orientation très
différente. La nature de
ces champs n’est pas
encore
bien
connue.
Constituée de fer quasi
pur, la graine résulte de la
cristallisation du noyau.
Les calculs laissent à
penser que 30 à 100 m3 de
graine
sont
ainsi
cristallisés chaque jour,
dégageant assez de chaleur
latente pour entretenir la
convection dans le noyau
liquide. En outre, le
liquide restant est enrichi par soustraction du fer en éléments
qui n'entrent pas dans la graine (fractionnement chimique).
Ces éléments plus légers que le fer doivent donc avoir
tendance à remonter vers la surface du noyau, libérant de
l'énergie potentielle de gravité. L'ensemble pourrait suffire,
même sans radioactivité (40K, § bilans énergétiques), à
entretenir la géodynamo. Une telle géodynamo peut
fonctionner dès lors que le noyau existe, ce qui expliquerait
que l’on ait pu observer l'existence de ce champ dans des
roches très anciennes, allant jusqu'à 3.8 Ga. (Ishua,
Groenland) et même 3.96 Ga. (Acasta, USA). En cas d'arrêt
de la convection dans le noyau, on estime à 10 000 ans
environ le temps de disparition du champ magnétique. Ce
temps correspond à la dissipation par effet Joule de l'énergie
disponible dans le fluide conducteur arrêté.
Fig. 6a : fréquence des inversions de polarité du champ
Crétacé
Jurassique
170
160
150
140
130
120
110
100
Paléocène
90
80
- 67 -
70
60
Eocène
50
Pléistocène
Pliocène
Miocène
Oligocène
40
30
20
10
0
ENSM-SE, 2° A : axe transverse P N
16/10/12
coïncidence relevée par Gubbins et al. (2007, Chp. 3) de la
trace des pôles parcourant des chemins préférentiels durant
les inversions découverts par C. Laj et al.(1991, Fig. 7b)
avec l’existence d’ondes sismiques S lentes dans le manteau
au voisinage de l’interface avec le noyau confirme le rôle de
la structure thermique profonde de la Terre dans le
phénomène des inversions du champ.
3 - Les inversions du champ terrestre
Les inversions du champ terrestre sont fréquentes. La
durée moyenne de stabilité est de l'ordre de quelques
centaines de milliers d'années, mais elle peut être beaucoup
plus courte (Fig. 5). Inversement, par deux fois au moins
(Fig. 6a), au Permien (limite Permien-Trias = 250 Ma.) et
au Crétacé (Limite CrétacéTertiaire =65 Ma.), la géodynamo a
Fig. 7a : état du champ magnétique terrestre lors d’une inversion, à t = 500 ans après le
“ oublié ” de permuter ses pôles
début de l’inversion, t=1000 ans et t = 1500 ans, d’après Glatzmaier et Roberts
pendant plusieurs dizaines de
millions d'années.
Les
inversions
bien
documentées du paléo champ de la
Terre apparaissent rapides (5000 à
15000 ans) et l’errance des pôles
magnétiques pendant cette période
montre clairement deux choses :
1 - Les pôles parcourent des
chemins
préférentiels,
découverts par C. Laj et
al.(1991, Fig. 6b) ;
2 - l’inversion s'accompagne d'un affaiblissement très
important du champ dipolaire.
La décroissance rapide de l’intensité du champ actuel
pourrait l’amener à zéro dans 2 à 3 milliers d’années,
suggérant que nous sommes en train de vivre le début d’une
telle inversion. En 1995, dans la simulation de G.A.
Glatzmaier et P.H. Roberts (Fig. 7a), la première inversion
est apparue à 36000 ans, la seconde à 120000 ans et la
troisième à 220000 ans. Comme dans les archives
géologiques, les inversions sont un phénomène rapide,
pendant lequel le champ non dipolaire devient
temporairement dominant. Enfin leur apparition apparaît
chaotique. Selon certains auteurs, les modifications
fréquentes des champs magnétiques de la graine et du noyau
tendraient à inverser le dipôle, mais selon des constantes de
temps très différentes, faible dans le noyau liquide et longue
dans la graine. Une inversion nécessiterait alors la
coïncidence de ces deux phénomènes. Nous avons vu au
chapitre 3 que le modèle « Dynamo », en prenant en compte
les échanges de chaleur du noyau avec le manteau, montre
qu’aucune inversion ne se produirait si le flux de chaleur
vers le manteau était constant. Les inversions modélisées
telles que celles à 120000 et 220000 ans l’ont en effet été
avec un flux de chaleur hétérogène, suggérant qu’en effet la
structure thermique du manteau inférieur joue un rôle
important sur la convection dans le noyau liquide sousjacent et corrélativement sur le champ magnétique. La
Fig. 6b : chemins préférentiels des pôles durant les
inversions
B - Le couplage Noyau-Manteau-Atmosphère et la
couche D"
Les modes de couplage du noyau avec du manteau
représentent donc un paramètre clef de la compréhension de
la machine Terre. Des variations dans le transfert de
l’énergie du noyau au manteau, mais aussi du manteau à
l’atmosphère vont ainsi se traduire par des échanges de
moment angulaire entre ces sphères concentriques, et
finalement se traduire par des variations de la durée du jour
terrestre. Mais celles-ci sont complexes.
Au lieu de 365 jours, l'année terrestre comptait 425
Jours au Dévonien, il y a environ 400 Ma. Ce
ralentissement de la rotation terrestre est dû en bonne
partie aux marées océaniques, qui freinent la Terre par le
biais du frottement au fond des mers peu profondes, et pour
partie aussi aux marées terrestres. L'application du principe
de conservation du moment angulaire au couple Terre-Lune
impose que le ralentissement de la Terre augmente la
distance Terre-Lune de quelques cm/an actuellement. En
dehors de cette tendance lourde, on observe avec les
horloges modernes très précises des variations
saisonnières25, mensuelles ou journalières qui sont elles
aussi attribuables en partie à des échanges de moment
angulaire entre atmosphère et manteau.
Il est intéressant de noter que les variations pluri
décennales de la longueur du jour apparaissent étroitement
corrélées cette fois avec la variation séculaire de la
déclinaison du champ magnétique, mais avec un décalage
de 10 ans environ. Le mode de couplage entre noyau et
manteau n'est pas encore clairement établi, mais on sait au
moins que compte tenu de la différence de viscosité entre
noyau et manteau, le couplage visqueux ne peut pas être
efficace. Reste le couplage électromagnétique par des
courants de fuite dans le manteau. Ils produiraient alors un
25
Les variations saisonnières apparaissent ainsi étroitement
corrélées aux vents zonaux (alizés, vents d'ouest).
- 68 -
ENSM-SE, 2° A : axe transverse P N
Fig. 8 : a) interface réactionelle entre manteau et noyau ;
16/10/12
b) altimétrie de la surface du noyau
champ secondaire, comme dans le moteur électrique de
Glatzmaier et Roberts. Mais le manteau qui est
essentiellement silicaté peut-il être suffisamment
conducteur ? L’observation en surface de soubresauts
magnétiques trouvant leur origine dans le noyau impose une
conductivité maximale de 10 siemens/m au manteau, il n’est
donc pas A PRIORI un bon stator. Par contre, sa base
dénommée26 couche D" (Fig. 8 a-b), est de nature très
différente et représente un excellent candidat potentiel pour
un tel couplage.
1 - Nature de la couche D"
Cette couche D" est identifiée par la séismologie
comme une région très hétérogène et discontinue, formant la
base du manteau quand elle est présente (Fig. 8a-b). Elle
apparaît solide mais à vitesse lente, à forte densité, et elle
donne des rais sismiques spécifiques, qui émergent dans la
zone d'ombre entre 103 et 120°. Son épaisseur ne dépasse
pas quelques dizaines de Km, exceptionnellement 200300Km, et sa topographie est tourmentée, avec des écarts de
plus de 100 Km pour 10° d’angle. L'existence de ces
hétérogénéités à la base du manteau est connue depuis une
quinzaine d'années, mais leur localisation exacte reste
imprécise. Selon les hypothèses, les caractéristiques
physiques globales de la couche D" ont trois origines
possibles :
1 - elles peuvent être liées à la convection du manteau ;
elles sont un héritage de plaques lithosphériques plongeantes
provenant de la surface ;
2 - elles résultent d'une contamination du manteau par le
fer du noyau.
donc être une région de la Terre extrêmement active. Il s’y
produirait une réaction de dissolution-recristallisation entre
les roches du manteau et le noyau externe liquide, laissant
un dépôt (solide) riche en métal à la surface du noyau. Les
expériences au laboratoire montrent que le fer en fusion
pénètre la roche silicatée par capillarité dans les joints des
grains minéraux. Dans la zone mouillée par le fer, les
oxydes de fer du manteau semblent se dissoudre
partiellement dans le fer liquide, augmentant ainsi la fraction
oxygène du noyau. Ces échanges chimiques pourraient
contribuer à fabriquer une pellicule (liquide?) enrichie en
Magnésium et en Oxygène dans le noyau au voisinage du
contact avec le manteau. Cette réaction lente de dissolution
serait rendue possible par un changement du type de liaison
de l’oxygène sous très haute pression, qui tend alors à
former des alliages métalliques conducteurs, au lieu des
traditionnels silicates isolants. Quelle serait l’ampleur de ce
phénomène dans la couche D"? Probablement quelques
dizaines de mètres, quelques centaines au mieux ! En effet,
la transmission des soubresauts magnétiques suggère que la
partie basale conductrice du manteau ne dépasse pas une
épaisseur de quelques x100 m au plus. Par conséquent, cette
imprégnation seule ne peut expliquer les 200 ou 300 Km
atteints par cette couche D". Les mouvements de convection
à la base du manteau tendraient localement à rassembler ces
dépôts conducteurs dans les ascendants (Fig. 8) ou
inversement à les disperser dans les descendants. Ils
constitueraient ainsi une couche discontinue plus ou moins
enrichie en matériau mantellique.
La couche D" serait alors un mélange constitué pour
partie de matériaux issus du manteau27 et pour partie de fer
métal issu du noyau. Les lithosidérites (pallasites) sont de
bons analogues possibles de cette région du globe. Un tel
mélange, bon conducteur, est à la fois capable de couplage
électromagnétique avec le noyau, et d’un transport de
chaleur beaucoup plus important que le manteau ordinaire.
En outre, la partie basale de la couche D" montre de
fortes incohérences entre ondes P et S, qui ne peuvent être
d'origine purement thermique. Elles peuvent par contre
témoigner d'hétérogénéités chimiques (présence de plusieurs
types de matériaux). Cette couche fine fortement
incohérente à la base de la couche D" pourrait être le produit 2 - Couche D", accumulateur de chaleur
de l'interaction chimique entre le fer liquide du noyau et
le manteau silicaté. L’interface noyau-manteau pourrait
Les estimations du flux de chaleur à la frontière
Noyau-Manteau sont très diverses, de 1.7 à 10 T.Watts. La
26
. La terminologie utilisée (couche D") est un héritage
historique du début du XX° siècle qui découpait la Terre en
couches A, B, C, D, E, F. Seule D" est toujours usitée par
les géophysiciens.
27
Le manteau inférieur serait constitué de silicates
(perovskite) et d'oxyde de magnésium (magnésio-wüstite,
MgO),
- 69 -
ENSM-SE, 2° A : axe transverse P N
valeur la plus faible était proposée par Stacey & Loper
(1984) afin d'avoir un noyau qui ne se refroidit pas trop vite
et ainsi obtenir une graine (supposée indispensable au
fonctionnement du magnétisme terrestre) âgée au minimum
de 4 Ga. L'interface noyau-manteau représente une
couche limite entre la convection mantellique et la
convection du noyau. La couche D" ne peut donc
échanger de chaleur que par conduction, et elle doit être le
siège d’un gradient de température élevé. Un tel gradient
peut provoquer des instabilités d’autant plus variées que la
couche D" présente de fortes hétérogénéités de conduction.
Cette région du globe jouerait alors un rôle clef dans la
stabilité de la dynamo terrestre, mais aussi dans la
convection du manteau inférieur. En effet, les zones de
mélange enrichi en fer, en constituant de véritables
accumulateurs de chaleur à la base du manteau, pourraient
engendrer la montée de panaches de matière surchauffée
(Fig. 8-9). S’ils sont constitués de matériau de la couche
D" de tels panaches seront beaucoup plus denses que le
manteau silicaté environnant et ne pourront pas s’élever
considérablement. Ils rejoindront rapidement la couche D".
On observe un autre indice de surchauffe à la base du
manteau. Il s’agit de poches de 40 Km environ que l'on ne
retrouve nulle part ailleurs dans le manteau, dans lesquelles
les vitesses des ondes sismiques sont localement réduites
d'au moins 10 %. Elles ne sont explicables actuellement
qu’en invoquant une fusion locale et massive.
Ces poches pourraient déclencher un panache
mantellique, sorte de colonne de matériau surchauffé, qui
amorcerait une traversée complète du manteau en quelques
dizaines de millions d'années seulement. Chaque panache
viendrait nourrir un volcanisme ponctuel et fixe dans
l’espace appelé volcanisme de point chaud28, pouvant
28 Ce volcanisme dit est aussi dit « intraplaque » parce que
non situé sur les limites des plaques. Le foyer volcanique
apparaît fixe dans le manteau. L’activité de ce foyer perce la
plaque sus-jacente et y construit un édifice volcanique, qui
sera transporté ensuite par la plaque en mouvement. Cela
conduit à la fabrication d’une chaîne de volcans dont le seul
actif se situe au bout de la chaîne comme dans le casde la
chaîne Hawaïe. C’est la raison pour laquelle on a toujours
cherché une origine profonde à ce volcanisme, indépendante
de la tectonique des plaques. Cette hypothèse est confortée
par la composition chimiques des laves de ce type de
volcanisme, qui est riche en alcalins, en accord avec une
origine à la fois profonde et obtenue par un un debut de
fusion d’un manteau « initial » c'est-à-dire non appauvri par
des fusions partielles antérieures.
Mais ce paradigme vacille face à de nouvelles approches
qui, depuis 2000-2001 avec Jillian Fouger, montrent que
souvent la signature géochimique profonde de ces laves
n’est corroborée en rien par des études sismiques mettant en
évidence le plume de manteau chaud ascendant, ou bien
encore que l’hétérogénéïté du manteau supérieur est telle
que la composition alcaline des laves n’est plus le garant
d’une origine profonde, ou bien enfin dans des condition de
contraste RedOx entre le manteau et les fluides (e.g. S. F.
Foley 2011, C. Gerbode et R. Dasgupta 2010…) qui le
traversent capables d’engendrer une fusion partielle.
L’oxydation d’un fluide (riche en CH4 ou H2) cause une
augmentation de l’activité de l’eau (aH2O) par réaction avec
16/10/12
Fig. 9 : schéma de couplage noyau-manteau, la couche D"
durer des dizaines de Millions d’années. Ce volcanisme est
donc complètement indépendant des mouvements
superficiels qui affectent la lithosphère terrestre. Il présente
en outre des caractères chimiques très particuliers,
facilement identifiables par rapport aux autres
manifestations volcaniques. Par deux fois dans l’histoire de
la Terre, des super-panaches ont donné un volcanisme d’une
intensité considérablement supérieure au rythme habituel,
produisant en quelques x100 000 ans un volume de lave
énorme, de l'ordre du million de km3. Il s’agit des trapps de
Sibérie, épanchés à la fin du Permien, et des trapps du
Deccan en Indes, mis en place à la limite CrétacéTertiaire. Ces deux épisodes volcaniques suivent
précisément les deux longues périodes de magnétisme sans
inversion, suggérant fortement un fonctionnement conjoint
du magnétisme dans le noyau, du transfert de chaleur du
noyau dans le manteau et des panaches qui quittent la
l’oxygène, ce qui a pour effet de faire chuter la température
de fusion du manteau environnant (à l’image de ce qui se
passé en subduction dans le prisme mantellique au dessus
de la plaque subductée). On appelle cette fussion hydrous
redox melting (HRM). Un second mode de fusion RedOx à
partir du carbonate (CO3) a été décrit récemment Recently,
a second redox melting mechanism (carbonate redox
melting; CRM). Reste l’apparente fixité des points chauds
alors que les plaques sur lesquelles ils se manifestent sont en
mouvement. Certains auteurs comme XXXX arguent de la
présence de zones de distension dans ces plaques, en
relation ou pas avec la convection mantellique sous-jacente,
car c’est bien la décompression qui induit la fusion partielle
du manteau, asthénosphérique ou bien lithosphérique.
- 70 -
ENSM-SE, 2° A : axe transverse P N
couche D". On tient peut-être là l’explication de
certains phénomènes géologiques d'ampleur
exceptionnelle comme les fameuses éruptions de
komatiites, laves anormalement chaudes qui
s'épanchèrent voici plusieurs milliards d'années, sur
plusieurs millions de kilomètres carrés?
16/10/12
Tableau. 1, minéralogie de péridotites du manteau supérieur
Composition
Minéral
(Mg,Fe)2SiO4
60 à 70%
et monoclinique
(Mg,Fe)2Si2O6
CaMgSi2O6;
total
25 à 30%
plagioclase
ou spinelle
ou grenat
CaAl2Si3O8
MgO(Al2O3,Fe2O3,Cr2O3)
Olivine
2 pyroxènes
1 phase Alumineuse
C - Le Manteau Terrestre
Orthorhombique i2
3 - les péridotites à grenat
La théorie des plaques lithosphériques ne nous dit
rien de la convection mantellique profonde. Les basaltes
échantillonnés en surface peuvent contenir des fragments du
manteau, dont ils sont issus par fusion partielle. Le manteau
terrestre nous est aussi accessible directement le long de
certaines failles transformantes océaniques à très fort rejet,
comme la fracture de Vema dans l’atlantique, et de manière
à peine moins directe dans les ophiolites. Ces dernières sont
des pans entiers de dorsale ou de plancher océanique, qui
sont venus s’échouer après un épisode tectonique majeur sur
la bordure des continents.
1 - Minéralogie du manteau
Quelle que soit leur origine, ces fragments nous
renseignent directement sur la minéralogie du manteau
supérieur, ou plus exactement de la partie supérieure (200
Km environ) du manteau supérieur (670 Km). Il s'agit de
péridotites, roches de densité 3.3, constituées de silicates
plus quelques oxydes, résumés dans le tableau 1.
Les enclaves de manteau rapportées à la surface par
les volcans montrent que dans les 200 premiers Km celui-ci
est soumis à des changements de phases qui ne concernent
que la phase alumineuse. On observe successivement :
% Poids
5 à 10%.
(Mg,Fe)3Al2Si3O12
au-delà de 60 Km.
La conservation de la masse implique que dans ces
transformations, la phase alumineuse n’est pas seule
concernée, et ces transformations modifient les proportions
des autres minéraux, olivine et pyroxènes, mais qui restent
stables. A plus grande profondeur, la sismique nous
enseigne que le manteau supérieur est encore le lieu de
plusieurs changements de phases qui intéressent cette fois
la phase minérale majeure du manteau, l'olivine
(Fig. 10).Elle passe tout d'abord de la symétrie
orthorhombique peu dense au système cubique plus dense.
Cette structure de l'olivine est dite « spinelle » proche de
celle du minéral spinelle, cubique lui aussi. Dans ces deux
structures de l'olivine, orthorhombique et cubique, le
Silicium occupe un site tétraédrique, où chaque atome de
silicium est entouré par 4 oxygènes. Vers 670 Km, l'olivine
Mg2SiO4 se transforme une seconde fois, en un mélange
ultra dense de deux phases, de la pérovskite, silicate
magnésien (Mg, Fe)SiO3, à Silicium en site octaédrique où
chaque atome de silicium est entouré de 6 oxygènes au lieu
de 4 (Fig. 10), et de la magnésio-wüstite (oxyde de
Magnésium MgO et de fer FeO). Cette discontinuité à 670
km sépare très nettement le manteau en deux parties,
Fig. 11 : discontinuités du manteau
1 - les péridotites à plagioclase dans les 30 premiers Km;
2 - les péridotites à spinelle
entre 30 et 60 Km;
Fig. 10 : structure pérovskite (d'après Hazen): Unité de
base, le cube est formé d'un gros cation métallique entouré
de 8 cations métalliques de petite taille (sommets), et de 12
anions non métalliques, constituant un site octaédrique
pour le petit cation
- 71 -
ENSM-SE, 2° A : axe transverse P N
manteau supérieur et manteau inférieur.
16/10/12
Fig. 12 : diagramme P,T du manteau supérieur
Le manteau inférieur
commence avec la
discontinuité à 670 km (Fig.11). Il apparaissait jusqu'à
récemment comme très homogène, à l'instar de
l'augmentation très lente de la densité et de la vitesse des
ondes, qui atteignent respectivement, difficilement 6 pour la
densité, et 6.6 km/s pour la vitesse des ondes S, au voisinage
de la discontinuité de Gutenberg (Fig. 11). Il faut remarquer
que les discontinuités qui marquent le manteau ne sont pas
comparables à la discontinuité entre noyau et manteau où le
saut de densité est supérieur au saut océan-lithosphère, et où
le contraste des viscosités est sans doute « comparable » à
celui de l'interface océan-lithosphère.
2 - Fusion partielle du manteau
b - Le manteau : 2 paramètres externes,
P & T, et
La fusion partielle du
Manteau
a - Le manteau en quelques paramètres
intensifs
On sait ainsi que le Manteau supérieur est un solide,
nommé péridotite, constitué de
4 phases solides majeures : Olivine
ol
Orthopyroxène opx
Clinopyroxène cpx
plus une phase alumineuse: Plagioclase
plg
Spinelle
sp
Grenat
gt.
Lorsque ces 4 phases sont présentes, la péridotite
porte le nom de lherzolite.
On sait aussi que la composition chimique du
manteau supérieur reste à peu près constante, quelque soit
l’assemblage des phases qui le constituent. Les principaux
constituants chimiques du manteau sont des oxydes, SiO2,
MgO, FeO, CaO et Al2O3, qui entre dans les phases
solides, silicates et spinelle. H2O est aussi un constituant de
système mantellique, mais son abondance très faible, de
l’ordre de 0.1%, justifie que l’on néglige ici les phases
minérales hydratées (contenant des groupements OH, e.g.
phlogopite).
Les trois phases minérales non alumineuses seront
toujours présentes, mais leurs abondances relatives varieront
avec la profondeur, en relation avec la phase alumineuse
présente. Ainsi:
1) lorsque 1 mole de plagioclase disparaît au profit d’1
mole de spinelle créé on a:
2 SiO2 1 Al2O3 1CaO
libérés
1 Al2O3
1 MgO
consommés
Le bilan apparaît donc équilibré en Al2O3, et le MgO
provient de la transformation d’une olivine en pyroxènes, et
l’on doit écrire la relation suivante
1 Plg + 2Ol = 1 Sp + 1 Cpx + 1 Opx; (1)
2) lorsque le spinelle disparaît au profit du grenat on a:
1 Al2O3
1 MgO
libérés
3 SiO2 1 Al2O3
3 MgO
consommés
Le bilan apparaît donc encore équilibré en Al2O3, etSiO2 et
MgO proviennent cette fois de l’orthopyroxène, et l’on doit
écrire la relation suivante
1 Sp + 2 Opx = 1 Gt + 1 Ol (2)
Les changements de phases décrits précédemment
par relations (1) et (2), ont un ∆V <0 de la gauche vers la
droite. Ils expriment la réponse du solide mantellique à
l’augmentation de pression avec la profondeur. Par ailleurs,
en dehors de l'eau qui est un corps aux propriétés physiques
éminemment particulières, le passage de l'état solide à l'état
liquide des matériaux terrestres se fait à ∆V croissant (La
pression "favorise" le solide). Dans un champ P, T, le
liquidas et le solidus anhydres du Manteau terrestre, connus
expérimentalement, ont donc une pente positive. Le choix
du solidus anhydre est justifié par la très faible quantité
d’eau contenue dans le manteau.
On appelle géotherme la relation température
profondeur(courbe P. T.). Si celle-ci était linéaire, c’est à
dire si l'augmentation de température avec la profondeur
était constante, et restait égale à la variation mesurée au
voisinage de la surface terrestre29, le point de fusion du
manteau serait très rapidement dépassé. Le manteau serait
entièrement fondu au delà de 100 Km, et la température au
cœur de la planète serait incompatible avec l’état physique
qui est le sien. En outre, la propagation des ondes sismiques
dans le manteau impose que celui-ci soit solide. Il faut donc
nécessairement que le géotherme terrestre soit courbé pour
ne pas recouper le solidus du manteau (Fig. 12). La courbure
du géotherme résulte de 2 phénomènes:
1 - en premier lieu, la lithosphère terrestre rigide (croûte +
sommet du manteau) ne transfert la chaleur que par
conduction30, alors que le manteau plus profond est un
solide “fluide” qui transporte la chaleur aussi par
convection; le gradient de température, fort dans la
lithosphère, s’affaiblit donc rapidement en entrant dans
le manteau convectif ;
2 - en second lieu, l'essentiel de la chaleur terrestre est
produite par Radio Activité, et ce de façon hétérogène;
29
de l’ordre de 30°/Km en moyenne et pouvant dépasser
100°/Km dans les rifts.
30
exception faite du transport de chaleur par advection dans
les zones de rift et de subduction (chapitre 1 et § suivants).
- 72 -
ENSM-SE, 2° A : axe transverse P N
la majeure partie des éléments à vie longue, U, Th, K
sont concentrés dans la croûte terrestre ce qui ne peut
que renforcer la courbure du gradient thermique.
Depuis 4.5 Ga., les volcans terrestres déversent à la
surface des dizaines de km3 de lave / an. Si ce liquide est
extrait du manteau par fusion partielle, on voit mal dans ce
qui précède comment le solide mantellique peut être capable
de produire des liquides magmatiques! Produire du liquide
impose donc une alternative :
1 - soit déplacer le géotherme terrestre jusqu'à recouper le
solidus du manteau ;
2 - soit déplacer le solidus du manteau jusqu'à atteindre le
géotherme....
Comment pouvons nous agir sur les paramètres de système
pour faire se recouper solidus et géotherme?
1 - Déplacer le géotherme signifie augmenter la T° à une
pression donnée, donc disposer de plus de chaleur que
ce dont le solide à l'équilibre dispose normalement. Ce
déséquilibre doit apparaître grâce au comportement de
fluide convectif du manteau à l'échelle géologique,
dont la dérive des continents est la manifestation en
surface. Si la vitesse de convection est suffisamment
lente, le solide ascendant mantellique dans une cellule
convective aura le temps "d’ajuster" son état aux
conditions environnantes, mais si la vitesse de
convection est suffisante pour que la diffusion de la
chaleur avec l'environnement ne soit pas complète, on
se rapproche des conditions d'une détente adiabatique
(sans échange de chaleur). Si une parcelle de manteau
s’élève dans les conditions considérées, elle sera alors
anormalement chaude et tendra à remonter vers la
surface, et cela d’autant plus vite que la différence de
densité avec le manteau environnant sera grande. Le
géotherme se trouve alors déplacé vers les hautes
températures. La fusion commencera lorsque la
parcelle de Manteau arrivera à une profondeur
suffisamment faible, et elle sera d’autant plus intense
que l’intersection du géotherme et du solidus sera
importante. La décompression adiabatique caractérise
les ascendants mantelliques (au droit des rides
océaniques par exemple) qui constituent des lieux
majeurs de production de magma. Nous y reviendrons
dans la description de la lithosphère océanique.
Fig. 13 : Tomographie sismique du manteau supérieur
16/10/12
2 - Déplacer le solidus jusqu’à recouper le géotherme
impose de modifier au moins 1 des paramètres
intensifs qui décrivent le système mantellique. Le
constituant H2O est le paramètre influent essentiel,
même si sa concentration dans le système est basse. En
effet, la pression partielle d'H2O peut modifier très
fortement la position du solidus. On remarque sur la
figure 12 la morphologie du solidus humide, très
incurvé vers les basses pressions (flèche 2). Mais pour
ce faire, il faut pouvoir justifier une introduction d'eau
dans le système. Inversement, si l'on y parvient, la
fusion partielle est assurée. Nous y reviendrons dans la
description de la lithosphère plongeante.
La géochimie affirme reconnaître deux réservoirs parents
distincts dans les produits du volcanisme:
1 - Le premier correspond aux basaltes d'origine profonde.
Ceux-ci montrent des rapports isotopiques proches de
ceux des chondrites (que l'on considère comme un
matériel non différencié n'ayant subi aucune
ségrégation). Le manteau profond qui donne
naissance à ce type de basaltes n'aurait donc pas
subi d'autre fractionnement que celui qui a séparé le
noyau du manteau lors de la constitution du globe. Son
caractère primitif n'aurait pas été considérablement
modifié depuis. Des études récentes des rapports
isotopiques de l'hélium, élément volatil et donc prompt
à se séparer du manteau pour rejoindre l’atmosphère31
montrent aussi que le rapport 3He/4He est
anormalement élevé dans ces roches volcaniques
d'origine profonde. Ce rapport apparaît proche de ce
qu’il devait être au début de l’histoire de la Terre et il
n’aurait que très peu évolué lui aussi depuis plusieurs
Ga. Inversement certains caractères chimiques
particuliers de ce volcanisme, qui par exemple
s’apparentent à un mélange avec des matériaux
sédimentaires, supposent que ce réservoir n'est pas
complètement isolé de la surface.
2 - Le second type correspond aux basaltes d'origine
mantellique plus superficielle. Leur composition
élémentaire et leurs rapports isotopiques sont très
différents des premiers et suggèrent que le manteau
superficiel dont ils sont issus a subi une histoire
beaucoup plus mouvementée, passant en particulier
par le fractionnement de la croûte continentale. De
densité considérablement plus faible que celle du
manteau supérieur, elle est donc très peu recyclée
depuis sa fabrication. Si l'on considère que la croûte
terrestre est le produit de la différenciation chimique
du manteau, la partie du manteau qui a donné
naissance à la croûte doit être corrélativement
appauvrie en éléments qui sont préférentiellement
incorporés dans la croûte. Cette soustraction a sans
doute marqué à jamais la composition du manteau
supérieur.
Une telle dichotomie des produits volcaniques tend
naturellement à laisser imaginer que ces deux réservoirs, si
différents, ont vécu indépendamment. Dans ces conditions,
la discontinuité à 670 Km paraît se comporter comme une
31
et ce d’autant plus qu’il s’agit d’un isotope léger (cf. §
VI).
- 73 -
ENSM-SE, 2° A : axe transverse P N
couche limite diffusive, séparant ces deux réservoirs qui
doivent donc nécessairement convecter séparément, au
moins en première approximation.
3 - La tomographie sismique du manteau supérieur
La tomographie sismique est probablement le
moyen d'investigation du manteau le plus puissant dont nous
disposons de nos jours. Il s'agit d'une méthode d'analyse des
données sismiques enregistrées par un réseau serré de
sismographes. Nous avons vu au paragraphe “ sismique ”
que l'inversion consiste ici à fabriquer un modèle de Terre
sphéro-concentrique radialement homogène, dont nombre de
paramètres ne sont pas directement mesurables (profondeur
des discontinuités, T°, P, K, µ, ρ...), mais pour lesquels les
valeurs attribuées satisfont au mieux les données mesurées
en surface (temps de trajet des ondes en particulier). La
tomographie donne, après inversion, une image du manteau
à une profondeur donnée en mettant en évidence des
variations latérales des vitesses de transmission des ondes
sismiques à la profondeur considérée, par rapport à la
moyenne prévue par le modèle.
Elle met ainsi en évidence dans le manteau
supérieur profond (Fig. 13) des zones plus rapides (en
bleue) et des zones plus lentes (en rouge) qui sont
attribuées à des écarts de T° caractérisant des mouvements
convectifs évidemment transverses sur les discontinuités
liées aux changements de phases préalablement évoquées.
Fig.14 : Tomographie sismique du manteau supérieur,
représentation 3D des zones chaudes (rapides dv/v <0) en
rouge, sous les rides océaniques principalement
16/10/12
a - Zones d’accrétion
Les cartes des vitesses à profondeur croissante de la
figure 13 montrent une très bonne corrélation entre la
position des régions lentes et chaudes en profondeur
(rouge foncé) et la présence des dorsales océaniques en
surface, qui sont les zones où les plaques lithosphériques
sont fabriquées en continu à partir du manteau, par
accrétion de lithosphère. La zone chaude correspondant à la
ride Est et Sud Pacifique reste marquée jusqu'à 600 Km de
profondeur. On peut donc dire que sous les dorsales
océaniques qui fonctionnent depuis longtemps avec une
vitesse d'expansion élevée (10 à 20 cm/an) comme la ride
circum-Pacifique ou Est-Pacifique, le domaine chaud
semble s'étendre jusqu'à la discontinuité de 670 Km
(manteau supérieur - manteau inférieur) mais pas au-delà.
Une dorsale ancienne mais lente comme la dorsale
Atlantique paraît correspondre à une “ déchirure ” au moins
localement moins profonde dans le manteau (Fig. 13-14).
Les petites ouvertures récentes, comme la mer du
Japon, correspondent à une anomalie thermique peu ou pas
marquée en profondeur.
b - Zones de subduction
Les cartes de la figure 13 montrent que les régions
rapides et froides du manteau correspondent, en surface,
en premier lieu aux masses continentales, et en second lieu
à la zone centrale de la plaque Pacifique. On remarquera
que la zone froide centrée sur la plaque Pacifique perd
progressivement son identité en descendant.
Seules les zones de subduction présentent des racines
froides profondes. Certes le réchauffement des plaques
subductées lors de l'enfouissement efface progressivement le
contraste de densité avec le manteau environnant, mais leur
signature sismique a pu être mise en évidence malgré tout
jusqu'à la transition à 670 Km(Fig. 15).
Si les rides sont le lieu d'âge zéro de la lithosphère,
les fosses (zones de subduction) ne constituent pas un lieu
isochrone. Le lieu de plongement d'une plaque résulte en
effet d'un ensemble de paramètres qui n’ont rien à voir avec
l’âge de la plaque en ce lieu, mais bien plutôt avec la nature
et la géométrie des plaques en contact avec elle :
Fig.15 : Tomographie sismique du manteau supérieur,
représentation 3D des zones froides (lentes) en bleu,
localisées à faible profondeur sous les continents, et à
grande profondeur en périphérie de l’océan pacifique
(zones de subduction)
1 - Leur nature intervient en effet car il existe un seuil de
densité en dessous duquel les matériaux sont trop
légers pour suivre une branche convective descendante
dans le manteau. Ainsi, les continents (densité
moyenne 2.7) ne peuvent être que très partiellement
recyclés, nous en reparlerons. Leur présence impose
alors à une plaque voisine de plonger à leur contact.
2 - La distribution (géométrie) des masses non recyclables
joue aussi un rôle prépondérant, car la Terre est une
surface fermée; tout mouvement en un point a donc
des incidences ailleurs. On l'oublie trop souvent à
regarder des projections planes.
Une coupe à travers une zone de subduction, comme
par exemple le NE de l’arc volcanique du Japon (Fig. 16)
montre que les foyers des séismes (petits ronds) sont répartis
sur trois régions:
1 - Du côté de la fosse océanique, les séismes sont
localisés à la partie moyenne et supérieure de la région
- 74 -
ENSM-SE, 2° A : axe transverse P N
Fig. 16 : coupe EW à travers l'arc du Japon
16/10/12
sur la zone de transition à 670 Km. En 1994,
Kawakatsu et Niu ont reconnu une nouvelle
discontinuité dans le manteau inférieur, à 920 km sous
la zone de subduction de Tonga. Cette discontinuité a
été observée depuis sous deux autres zones de
subduction (Japon-Izu Bonin, et Indonésie) à une
profondeur variant de 920 à 1080 Km. Le contraste
d’impédance
acoustique
que
révèlent
ces
discontinuités est lui aussi très variable. Trois
hypothèses sont envisageables pour caractériser cette
discontinuité :
1) un nouveau changement de phase ;
2) une hétérogénéité chimique dans le manteau
inférieur ;
3) plus probablement cette discontinuité correspond à
la base de la plaque subductée, stockée à une profondeur
pouvant atteindre ainsi 800 à 1000 km.
froide (en bleu sombre) identifiée comme l’extrados de
la plaque Pacifique plongeant sous le Japon. Cette
trace sismique est appelée plan de Benioff. Il est à
noter que le coin de manteau situé au-dessus de la
plaque plongeante est constitué de deux régions : le
4 - La tomographie sismique du manteau inférieur
manteau en contact avec la plaque plongeante est
refroidi par celle-ci ; cette région est surmontée par
Nous avons déjà mis en évidence le caractère
une région chaude (jaune à rouge) en relation étroite hétérogène de la couche D" à la base du manteau (frontière
avec le volcanisme en surface.
noyau-manteau) et, en corollaire, l’existence d’anomalies
2 - En sub-surface sous le Japon, les séismes en grand thermiques liées au mode de transfert de la chaleur du noyau
nombre témoignent de l'activité volcanique dans la vers le manteau. Les cartes tomographiques obtenues ces
croûte continentale de l'arc.
dernières années pour diverses profondeurs dans le manteau
3 - Du côté de la mer du Japon, on observe beaucoup de inférieur (e.g. Michael Gurnis et al, 2000, Fig. 18) nous
foyers sismiques peu profonds. Ceux-ci sont montrent que le contraste de densité définit deux zones
provoqués par la mise en place plus à l’ouest de petites chaudes équatoriales au voisinage du noyau. Ce contraste
cellules de convection dans le coin mantellique situé tend à s’effacer dans la partie médiane du manteau. On
entre la plaque plongeante et la lithosphère (Japon + remarque en effet qu'à cette profondeur deux « tuyaux »
mer du Japon). Cette “ mini ” convection provoque beaucoup plus étroits (en rouge) correspondent aux deux
dans cette lithosphère une distension très comparable à zones chaudes de la couche D". On remarque sur la figure
celle que l'on observe au droit des dorsales océaniques que le tuyau mantellique africain se situe à l'aplomb du
majeures. On appelle ces régions d'ouvertures plateau sud-africain. Ce haut plateau est anormalement élevé
océaniques mineures des bassins arrière-arc. Ces pour un vieux craton complètement érodé (environ 1000zones chaudes du manteau sous les petites mers 1200m au lieu de 300-400m en moyenne). Pour Michael
arrière-arc disparaissent rapidement en profondeur Gurnis et son équipe, la dilatation provoquée par le matériel
dans le manteau.
mantellique chaud serait à l’origine de soulèvements
Le comportement du plan de Benioff est différent d'une zone régionaux de grande ampleur. Ainsi la topographie de la
de subduction à une autre. Son angle de plongement varie planète serait largement marquée par la convection
considérablement (Fig. 17). Les zones de Benioff plongeant mantellique profonde. Le second conduit surchauffé, situé
vers l’E-NE sont à faible pendage et supportent des chaînes sous le Pacifique, correspondrait aux panaches équatoriaux
percent
en
orogéniques à double vergence alors que celles plongeant qui
Fig. 18 : cartes tomographiques du
vers l’Ouest sont à forte pente et les chaînes associées sont à surface le plancher
(e.g.
manteau inférieur
simple vergence. C. Doglioni 1999 voit dans cette océanique
différence un mouvement relatif d'est en ouest du manteau volcanisme
profond par rapport à celui des plaques lithosphériques, d’Hawaï).
provoqué par la rotation terrestre.
Le plus souvent, la plaque subductée vient s’étaler
Fig.
17 :
2
types
de
zones
de
- 75 -
subduction
ENSM-SE, 2° A : axe transverse P N
Dans les interprétations construites à partir de
l’ensemble des données (Fig. 19), les auteurs montrent
sur les coupes B et C que le matériel chaud qui remonte
ne dépasse pas la discontinuité à 670 Km. Par contre,
dans la coupe A, le panache chaud semble en connexion
avec le manteau supérieur chaud et très étiré vers le
nord-est. C’est ce manteau supérieur qui alimente à son
tour le volcanisme Est-Africain.
16/10/12
Fig 20 : a)Modèle Terra-Dynamo ; Les hétérogénéités de
transfert de chaleur à la surface du noyau paraissent guider la
convection dans le manteau, modèle à une couche. A la surface
terrestre, les zones froides apparaissent beaucoup moins diffuses
(réseau linéaire ou curvilinéaire bleu) que les zones plus chaudes
en vert à l’aplomb des panaches rouges dans le manteau.
Il apparaît ainsi que la discontinuité à 670 Km
est probablement franchie, au moins partiellement ou de
manière intermittente, par les panaches ascendants du
manteau inférieur, et qu’elle est aussi probablement
franchie par du matériel froid et dense stocké au fond
du manteau supérieur. Faut-il alors envisager que la
convection mantellique est à un seul étage ?
b) Modèle isovisqueux
c) Modèle à viscosité croissante
5 - Vers une convection à 1 ou 2 couches ?
Pour les géochimistes, la question est en effet
encore largement d’actualité. Nous avons vu que la
dichotomie de composition chimique entre volcanisme
d’origine profonde et volcanisme d’origine plus
superficielle paraît nécessiter une séparation ancienne
(plusieurs Ga.) en deux réservoirs mantelliques
distincts, l'un supérieur et l'autre inférieur. La discontinuité à
670 Km agissant alors comme une couche limite diffusive,
ces deux réservoirs devraient alors nécessairement convecter
séparément.
Pour les géophysiciens, cette séparation n’est pas
évidente et les opinions sont encore tranchées. Certains,
comme Glatzmaier et Roberts, estiment que les modèles à
une seule couche de convection, comme Terra-Dynamo
(Fig. 20a), « collent » mieux aux données sismiques que les
modèles à deux couches.
Deux observations clefs doivent être conservées en
mémoire :
1- Nous avons vu que la forme du géoïde est dominée par
des structures de grande longueur d’onde, 10 000 à
20 000 kms, qui sont considérablement plus grandes
que la hauteur possible des cellules convectives du
manteau (moins de 3000 km maximum pour un
manteau à une couche) ;
2- Les hétérogénéités de vitesses sismiques mesurées
dans le manteau sont
Fig. 19 : coupes tomographiques
elles aussi de grande
du manteau inférieur
longueur d’onde
Ces deux faits sont en
contradiction avec les
résultats des modèles de
manteau iso visqueux, qui
montrent des cellules
convectives aussi peu
larges
que
hautes
(Fig. 20b). Par contre les
modèles de manteau à
viscosité
croissante
(Fig. 20c) présentent des
cellules étalées beaucoup
plus
conformes
aux
structures gravifiques et
sismiques évoquées. En
plus,
les
branches
plongeantes des cellules
acquièrent
une
morphologie en feuillets plus comparables aux plaques
plongeantes que les panaches froids plongeants des modèles
isovisqueux. Outre le chauffage interne du manteau par
radioactivité et son chauffage basal hétérogène (et mal
connu) par la couche D”, il existe de nombreux autres
paramètres qui peuvent modifier la convection, rappelons le
comportement cassant de la lithosphère continentale qui
vient localement jouer le rôle de couvercle, la viscosité qui
peut varier brutalement, les changements de phases qui
accompagnent l’augmentation de pression avec la
profondeur. Confortant ce point de vue, on a mis en
évidence pour la première fois dans les années 90 dans
l’Ouest Pacifique sous la fosse des Kouriles et sous le Japon,
des zones froides dans le manteau inférieur qui paraissent
relier zone de subduction dans le manteau supérieur et
couche D".
Les simulations, effectuées depuis les années (19971998) à partir des résultats de la tomographie viennent
conforter cette hypothèse. La figure 21 montre par exemple
l’iso-surface limitant le domaine des ondes P à vitesse 0.5%
plus grande que la moyenne, pour tout le manteau (supérieur
et inférieur) de la région allant du Japon à l’Est de la Chine.
Cette surface iso-vitesse décrit la subduction de la plaque
océanique Est-Pacifique au niveau des fosses des Kouriles,
du Japon et de l’arc Izu-Bonin. Le modèle rend compte
d’une part de l’accumulation de matériel subducté en une
flaque plate située sur la zone de transition entre manteau
supérieur et manteau inférieur, et d’autre part de la présence
d’un pont étroit de
matière froide dans
Fig. 21 : Simulation tomographique
le manteau inférieur
du manteau Est Pacifique
qui met en relation
la discontinuité à
670 Km et une sorte
de cône de déjection
s’étalant
sur
la
couche
D",
dénommé
« cimetière »
des
- 76 -
ENSM-SE, 2° A : axe transverse P N
Fig. 22a : plaque subductée sous l’Ouest du lac Baïkal
16/10/12
Fig. 23a: convection à deux étages de Paul J. Tackley
plaques enfouies. Récemment, une zone froide a été
identifiée sous la Sibérie (Van Der Voo 1999 ; Fig. 22a) à
l’Ouest du lac Baïkal jusqu’à 2500Km de profondeur. Elle
est interprétée comme les restes d’une plaque océanique
ancienne qui, dans la collision des blocs qui formèrent
progressivement l’Eurasie, fut subductée en lieu et place du
Lac Baïkal pendant 50 Ma. au moins à la fin du Jurassique
(Fig. 22b). Cette découverte suggère donc que la trace des
plaques subductées dans le manteau inférieur persisterait au
moins durant 150 Ma., peut-être plus ?
Ainsi donc, des exemples de plus en plus nombreux
de plaques modernes et anciennes plongeant dans le
manteau inférieur sont rapportés. Ces plaques vont rejoindre
la couche D", qui apparaît d’une part, ainsi qu’on l’a montré
plus avant, comme le parent des ascendants mantelliques
profonds (les panaches), et d’autre part comme le cimetière
des plaques océaniques subductées.
Il est toutefois très probable que les descendants
mantelliques ne franchissent pas aisément la discontinuité à
670 Km. Dans un article Récent paru dans Nature P. J.
Tackley 2008 confirme que les modèles de convection sont
toujours d’actualité (Fig. 23c) et suggèrent que les plaques
relativement froides (en bleu) sont soit défléchies sur cette
discontinuité (tireté). On observe en effet clairement que les
plaques subductées n’offrent pas un contraste de densité
suffisant avec leur manteau environnant (en tous cas les
plaques à vitesse sismique lente) pour traverser la
discontinuité. Elles viennent donc s’étaler à la profondeur de
700 Km. D’autres, au contraire traversent bien la
discontinuité et sont renvoyées vers la CMB. Les morceaux
accumulés dans ces cimetières bleus sont de l’ancienne
lithosphère, donc un matériau issu de la fusion partielle du
manteau. Or le produit de l’extraction des matériaux fusibles
est enrichi en alcalins. Donc la CMB s’enrichit en matériaux
Fig 22b : paléo-reconstructions de la Sibérie (SIB) et des
blocks adjacents, a) au Jurassique Supérieur et b) au Crétacé
Inférieur, montrant la subduction de l’océan Mongol-Okhotsk
sous la marge Sibérienne. EUR, Europe; KAZ, Kazakhstan;
MON, Mongolia; NCB and SCB, North and South China
blocks; INC, Indochina; and SH, Shan-Thai block.
lithosphériques donc certains sont des reliquats réfractaires
pauvres en alcalins et d’autres sont au contraire très enrichis
en alcalins. Ce matériel est figuré en rouge orangé dans la
figure 23a. Il donne naissance à des panaches chauds et
légers de matériel marqué par sa grande richesse en alcalins
(mantle-plumes en rouge), qui vont remonter vers la surface
et alimenter le volcanisme alcalin de point chaud. Leur trajet
peut être direct jusqu’à la surface (plumes primaires), mais
les panaches peuvent aussi être bloqués sous la discontinuité
à 670 Km et alimenter des plumes secondaires.
On sait que le contraste entre les deux réservoirs
résulte principalement de la transformation de phase,
olivine ↔. pérovskite + magnésio-wüstite.
Aussi, dès 1994, on a cherché comment la transition
de phase à 670 Km pourrait jouer un rôle de clapet
intermittent. Les modélisations du transfert de chaleur dans
le manteau prenant en compte cette transition de phase
(Fig. 23b) ont alors montré qu’en fonction de la pente de
l'équilibre des phases (pente de Clapeyron), on peut
envisager plusieurs modes de distribution des isothermes
(parties droites des sphères de la figure) et des cellules de
convection (parties gauches). Entre les deux extrêmes que
sont, a) la convection unique à travers les deux manteaux
pour une pente nulle, et c) la convection à deux étages
découplant complètement le manteau inférieur du manteau
supérieur pour une pente très forte de l’ordre de – 4.106
Pa/°K, il peut exister b) des modes de convection à deux
étages de cellules capables d'échanges intermittents, pour
des valeurs de la pente de l’ordre de – 2.106 Pa/°K – 3.106
Pa/°K tout à fait comparables à celles qui ont été obtenues
lors de travaux expérimentaux sur cette transformation de
l’olivine en pérovskite D’après ces modèles, le manteau
supérieur froid stagne et s’accumule sur la discontinuité,
qu’il franchit spontanément lorsque l’accumulation est
suffisante. Lorsque cette quantité critique est atteinte, il se
produit une avalanche de ce manteau supérieur froid
jusqu’au fond du manteau inférieur, et un nouveau cycle
recommence. Pour les auteurs, la durée de ces cycles
pourrait être comparable aux cycles de construction des
super continents (Pangée(s)), de l’ordre de 400 à 500 Ma.
En résumé :
1 - La trace froide de la plaque subductée peut être suivie
jusqu'à 650-700 Km, zone de transition pérovskite,
voir plus de 1000 km, ce qui suggère des
complications dans cette transformation;
2 - L'angle de plongement de la plaque est souvent
brutalement modifié à cette profondeur, témoignant
ainsi de la « flottabilité » importante de cette plaque
- 77 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
sur le manteau inférieur ; La zone de transition D - La valse à trois temps, l’Adéen, l’Archéen, et les
constitue donc bien une couche limite (conductive et
Temps Modernes
donc à fort gradient thermique) ;
3 - Le déplacement de l'équilibre de phase initial,
résultant de cette accumulation de matériau froid et
dense pourrait permettre un changement de la pente de 1 - L’Adéen, une naissance tourmentée
l’équilibre, déclenchant une avalanche de matériau
Rappel : la grande majorité des astrophysiciens
lithosphérique (plaque subductée) dans le manteau
s’accorde
à penser que durant sa prime jeunesse, la Terre,
inférieur suivie d'un retour à la normale ; le rôle de
datée
de
4.55
Ga. par C. Pattierson en 1953, a grossi par
couche limite de la zone de transition est donc
transgressé au moins localement, et la convection accrétion à froid, selon un scénario d’évolution de la
mantellique, certes à deux couches, admet des nébuleuse que nous emprunterons à D. Bockelée-Morvan et
discontinuités de cette couche limite, dans le temps J. Crovisier (1993) et à A Brahic (1999).
et/ou dans l’espace ;
4 - La couche D" constituerait le cimetière de ces plaques
a - Scénario d’une accrétion à froid en
subductées, matériau hétérogène mélange de manteau
moins de 10 Ma ?
lithosphérique appauvri et réfractaire, et de matériau
crustal relativement enrichi en éléments alcalin et
Résumons les 3 étapes développées au chapitre 2.D :
hygromagmatophiles32 ; elle s’enrichirait en outre des
produits de réaction entre la base du manteau et le
1 - Le stade nébuleuse aurait été initié à l’occasion de la
noyau métallique liquide ;
traversée d’un bras de notre galaxie (la Voie Lactée)
5 - Les hétérogénéités de la couche D", en agissant sur le
par un nuage interstellaire. La compression qui en
transfert de chaleur du noyau vers le manteau,
résulte aurait provoqué la fragmentation du milieu en
régiraient le fonctionnement de la dynamo terrestre et
globules de Bok et l’effondrement de ces globules.
la dynamique des panaches mantelliques profonds
L’un d’entre eux était la nébuleuse ancêtre commun de
générateurs d’épisodes volcaniques paroxysmiques ;
notre Soleil et des planètes.
6 - Le transfert des panaches chauds du manteau inférieur
2 - Le stade proto-Soleil, passage de la nébuleuse à
au manteau supérieur est complexe; une partie
l’étoile, implique une concentration de la matière à
seulement du matériel du panache est transférée vers le
laquelle tout s’oppose : la température du gaz qui
manteau supérieur; cette partie semble entraînée dans
s’élève ; le champ magnétique qui s’intensifie ; la
la convection mantellique supérieure (au moins dans le
vitesse de rotation du nuage qui s’accélère. Les
cas de l’Afrique). En surface, le volcanisme des points
observations des pouponnières d’étoiles comme la
chauds reste géographiquement fixe sur de longues
nébuleuse d’Orion, et les modèles théoriques nous
périodes alors que les plaques sont mobiles, dessinant
montrent qu’à ce stade, l’étoile émet un jet de plasma
ainsi par exemple les chaînes de volcans d'âge
bipolaire représentant une perte importante de matière
régulièrement croissant du Pacifique. Un tel schéma
et de moment cinétique, ce qui rend l’effondrement
suggère que la géométrie des cellules convectives du
possible. Cet effondrement donne une étoile très
manteau supérieur reste stable au moins pendant le
lumineuse, et concentre rapidement la matière en un
même laps de temps ; la géométrie de ces cellules est
disque équatorial. Pour les objets suffisamment
alors indépendante de celle des plaques sus-jacentes,
massiques comme notre Soleil, l’effondrement
sauf dans les branches descendantes qui, pour
gravitaire s’arrête lorsque la pression est assez forte et
certaines, coïncident nécessairement avec les zones de
donc la température assez élevée pour permettre le
subduction.
démarrage de la fusion de l’hydrogène en Hélium
(Ensuite, tant qu’il restera de l’hydrogène
Fig. 23b : simulation de la convection dans le manteau;
à consommer, l’état de notre Soleil sera
a) modèle à une couche; b) modèle mixte;
c) modèle à deux couches
stationnaire). Mais l’étoile perd à ce
moment de sa luminosité, et l’arrêt de
l’effondrement se traduit donc aussi dans
le gaz restant, par la chute de la
température, et en cascade par la
condensation de ce gaz en particules
(grains). Près du Soleil se sont retrouvés
condensés les composés réfractaires de
Ca, Al, Mg, Ti, apparus les premiers en
dessous de 2000°K. Ensuite, les silicates
se sont condensés entre 1400 et 1000°K, puis les
32
On appelle élément hygromagmatophile tout élément qui,
sulfures et les oxydes métalliques et, vers 300°K, est
engagé ans un processus de fusion partielle du manteau ou
apparue la glace d’eau. Enfin aux alentours de
de la croûte, présente un coefficient de partage D entre le
quelques x10°K sont apparus des grains méthane.
solide et le liquide très faible : D<<1. Autrement dit, ces
Dans ce disque en cours de refroidissement avait lieu
élément présentent une grande affinité (comme les alcalins
des réactions chimiques dont la nature diffère avec la
dans la fusion du manteau) pour les liquides magmatiques.
température, et donc aussi avec la distance au soleil.
Donc lors de la cristallisation fractionnée les éléments
Les compositions, minéralogique et chimique, du
hygromagmatophiles se concentrent dans les derniers
système solaire actuel sont le reflet de cette
liquides.
différenciation première, conséquence directe de la
- 78 -
ENSM-SE, 2° A : axe transverse P N
variation
de
température
dans
le
disque
protoplanétaire.
3 - Le stade d’accrétion des planètes est décrit à travers
les modèles théoriques comme un événement très bref,
moins de 100 Ma. La condensation chimique que nous
avons évoquée au stade B ne permet pas de dépasser
une taille d’objet supérieure à quelques x.Cm. Sans
instabilités gravitationnelles locales, nous en serions
encore à ce stade, mais fort heureusement, celles-ci
provoquent rapidement la constitution d’agglomérats
de grains de x.100m, les planètésimaux (moins de 10
Ma. selon Lugmaier et Shukolyukov 1998). Les
collisions entre planètésimaux fabriquent des
embryons planétaires de x.100 Km à quelques x.1000
Km. Les collisions provoquent tantôt la fragmentation
des corps, tantôt leur fusion. Ce sont elles qui ont
finalement donné aux planètes internes au moins leur
axe et leur période de rotation initiaux. C’est bien sous
l’égide d’Ades, en cette époque “ infernale ” de
l’Adéen que commence la vie de notre planète, qui
atteint sa masse actuelle entre 4.51 et 4.45 Ga.
(Halliday 2000), et voit se différencier son noyau en
moins de 30Ma ! (Yin et al. et Klein et al. 2002).
Le cas des planètes géantes gazeuses est
probablement différent. Il paraît difficile d’obtenir des
planètes de cette taille par accrétion, et certains imaginent
dans un scénario complètement différent qu’elles résultent
directement d’effondrements gravitaires précoces au sein du
disque protoplanétaire. En outre, l’existence d’un très grand
espace, plus de 500.106 Km sans planète entre Mars et
Jupiter33 peut laisser à penser que Jupiter a été formée très
tôt, et que sa très grande influence gravitaire aurait alors
interdit la fabrication de corps importants dans cette région
de l’espace, d’où une planète Mars très petite par rapport à
la Terre, et une ceinture d’astéroïdes qui n’ont jamais réussi
leur accrétion entre Mars et Jupiter. La localisation des
objets les plus froids, les comètes, dans la ceinture de
Kuiper et le nuage de Oort aux confins du système solaire
fait de ces objets des planètésimaux qui ont échappé à
l’attraction des planètes géantes en formation.
En 1995, C. J. Allègre, G. Manhès et C. Göpel ont
précisé ce scénario général. Partant de la datation précise
des corps les moins différenciés (donc les plus proches des
planètésimaux connus) les inclusions réfractaires de la
chondrite CI de Allende, on donne pour âge du début de
l’effondrement de la nébuleuse solaire une fourchette de
temps très étroite, 4.568-4.565 Ma. Or certaines
achondrites basaltiques qui sont des météorites
différenciées et donc ne peuvent provenir que de corps
rocheux ayant déjà subi une fusion partielle et une
ségrégation, sont à peine plus jeunes, de 8 Ma. seulement !
Il faut alors imaginer que notre scénario de formation des
embryons planétaires à partir des planètésimaux peut se
dérouler en moins de 8 Ma., un laps de temps extrêmement
court. Il aura fallu que l'augmentation de la pression et de la
température34 du corps en cours d’accrétion aient été
33
alors que les 4 planètes internes sont confinées dans un
rayon de 230.106 Km seulement.
16/10/12
suffisantes pour amener ces embryons planétaires jusqu’à
l'état liquide (ou à son voisinage).
b - Un vernis météoritique et cométaire
tardif pour la Terre
Par similitude, on peut certainement rapporter la
différenciation dans la Terre du noyau métallique à cette
période hautement dynamique de l’accrétion planétaire, en
raison sans doute de la forte densité du fer, mais aussi de
l’état possiblement entièrement liquide auquel cet épisode
tumultueux avait amené la Terre. Observé à travers les
informations de la géochimie du manteau, cet épisode de
fractionnement majeur dans notre planète paraît avoir eu
lieu avant la fin de la phase d’accrétion planétaire. En effet,
lorsque l’on mesure (depuis les années 70) les rapports des
abondances en métaux nobles à leur teneur en fer dans les
roches du manteau, remontées par les volcans ou exhumées
par la tectonique, on constate qu’elles sont plus proches des
rapports chondritiques qu’elles ne devraient. Si la
différenciation avait eu lieu strictement après la phase
d’accrétion, l’affinité de ces métaux vis à vis du fer étant
variable (c. à d. la similitude de comportement avec le fer),
cela aurait dû engendrer une ségrégation différentielle de ces
métaux dans le noyau en cours de différenciation ? Ainsi, les
métaux à affinité forte (e.g. Ir) ont dû être entraînés avec le
fer dans le noyau, et inversement les métaux à affinité plus
faible (e.g. Pd) ont dû « enrichir » le manteau ? Reprenant
les évaluations du fer manquant dans le manteau actuel du
début de ce chapitre, les rapports mesurés de ces métaux au
fer dans le manteau, et enfin les mêmes rapports dans les
chondrites supposées représenter la composition de la Terre
avant la différenciation, les géochimistes concluent à un
enrichissement du manteau, post-différenciation, qui
représente le mélange du manteau déjà différencié avec 0.5
à 1% de matériel chondritique. On appelle « vernis tardif »
l’héritage géochimique de cette période « finale » du
bombardement météoritique et cométaire postérieure à la
différenciation du noyau terrestre. C’est à cette période que
l’on rapporte le rôle essentiel joué par le bombardement
météoritique dans la composition de l’océan.
c - Mise en place du système solaire
L’accrétion récente des planètes, encore plongées
dans un disque de gaz et de poussières, est un processus
relativement instable. La masse du « cocon » de poussière
et de gaz restant en fin de phase d’accrétion des planètes —
et qui va continuer à s’accréter principalement à l’étoile naissante
— est suffisante pour entraîner un rapprochement des
planètes géantes déjà partiellement formées vers la
proximité même de l’étoile. Pour Aurélien Crida
(Observatoire de la Côte d’Azur), sur les plus de 250 exo
planètes connues de nos jours, on observe que la plupart
sont ainsi des géantes qualifiées de « Jupiters chauds »,
c'est-à-dire formées loin de l’étoile et rapprochées ensuite
par interaction avec le disque gazeux. En effet, Au moment
de leur formation, les planètes ou les protoplanètes sont
« immergés » le disque de gaz, et ils interagissent avec lui.
Leur masse créée une onde spirale de densité (Fig. 24a) qui
repousse le gaz, plus fortement vers l’extérieur de son orbite
34
Augmentation qui résulte à la fois de l'accroissement de
taille et de la quantité d'énergie cinétique emmagasinée sous
forme de chaleur lors des collisions.
- 79 -
ENSM-SE, 2° A : axe transverse P N
Fig. 24a: Interactions Planète-Disque, : un objet massif
perturbe le disque de gaz et crée une onde spirale de densité
http://www.oca.eu/crida/index.html
que la vers l’intérieur. En réaction la planète est poussée
vers le Soleil. Ce processus, appelé migration planétaire,
explique la formation de nombreuses planètes géantes
extrasolaires, qui ne peuvent s’être formées sur leur orbite
basse actuelle car il n’y avait pas assez de matière dans le
disque de gaz à ce niveau. Elles sont nécessairement nées
plus à l’extérieur avant de commencer leur migration, vidant
le disque de gaz et la migration s'est arrêtée où on les
observe.
Les simulations récentes menées par l’auteur et A.
Morbidelli et al suggèrent que cette étape n’a pas eu lieu
dans le système solaire parce que Jupiter, la plus massique
des deux géantes Jupiter et Saturne, est sur l’orbite la plus
basse. Dans le cas inverse, Jupiter aurait poussé Saturne
avec elle même dans une position beaucoup plus chaude.
Que serait-il advenu des planètes rocheuses internes ?
L’éjection du système de l’une ou plusieurs d’entre elles
devient alors tout à fait probable.
Le bombardement cométaire déjà évoqué pour la fin
de l’accrétion terrestre a semble-t-il joué un rôle primordial
dans le positionnement final des planètes. Selon le model
proposé par ces auteurs (model de NICE, 2006, 2007), au
départ, l’ensemble des 4 géantes est plus proche du Soleil et
la ceinture de comètes de Kuiper est, elle aussi, beaucoup
moins éloignée que de nos jours(Fig. 24b-a). De ce fait, les
géantes captures nombre de comètes, qu’elles absorbent ou
dévient vers l’intérieur du système ; seuls Jupiter et le Soleil
ont une masse suffisante pour les renvoyer vers l’extérieur,
voire en éjecter une partie hors du système. Chaque fois
qu’une comète est catapultée vers le Soleil, la conservation
du moment cinétique de la planète en cause lui impose un
léger déplacement vers l’extérieur. Chaque comète expulsée
16/10/12
par Jupiter tend au contraire à la déplacer vers l’intérieur.
Selon les auteurs, le déplacement des planètes les auraient
conduites à se situer un temps (Fig. 24b-b) en résonance 2 :1
(Jupiter faisait alors 2 tours pendant que Saturne en faisant
1); cette résonance confère une excentricité croissante aux
orbites des 2 planètes, perturbant ainsi celles de Neptune et
d’Uranus. Initialement plus interne qu’Uranus, Neptune va
ainsi dépasser Uranus et acquérir une excentricité
temporairement maximale. C’est donc l’ensemble des
interactions comètes-planètes durant la phase de nettoyage
du disque stellaire qui aurait conféré aux orbites des planètes
les caractéristiques qu’on leur connaît (Fig. 24b-c), et
repoussé le reste de la ceinture de Kuiper de 15-30 UA à 3850 UA, alors que les planètes gazeuses passaient
respectivement de 5.5 à 5.2 UA pour Jupiter, 8 à 9 UA pour
Saturne, de 13 à 30 UA pour Neptune et de 16 à 19 UA pour
Uranus.
L’excentricité temporairement extrême acquise par
Neptune au cours de cette période aurait déclenché une
avalanche de 1016 tonnes de comètes, pour l’essentiel
catapultées vers les planètes rocheuses et le Soleil. Une telle
avalanche aurait duré de 30 à 100 Ma. et aurait aussi vidé
partiellement la ceinture d’astéroïdes située entre Jupiter et
Saturne. On retrouve la trace de cet
épisode de
bombardement d’astéroïdes sur la Lune ; grâce aux roches
collectées par les missions Apollo, il est daté à 3.9 Ga., soit
700 Ma. après la formation de système Solaire. Ce
bombardement cométaire et météorique est aussi observé sur
Terre, dans la géochimie du manteau terrestre (vernis tardif,
§ D1b), mais aussi dans l’abondance de l’eau sur notre
planète.
d - Terre-Lune, le couple infernal
Pour W. Hartmann et D. Davis (1975), reprenant une
hypothèse émise par R. Daly en 1946, c’est encore durant
l’Adéen que le couple Terre Lune a été créé vers 4.5 Ga.
lors d’une capture violente d’un météore. Dans cette
hypothèse, l’impact d’un météore de la taille de Mars sur la
Terre serait à l’origine de ce couple. L’intérêt de cette
théorie est de rendre mieux compte des contraintes
géochimiques: leurs manteaux présentent des points de
similitude troublant et des différences importantes. Les
autres scenarii proposés à ce jour sont moins performants :
1 - Pour Georges Darwin (fils de Charles) la Lune était
née de la fission de la Terre, arrachée au Pacifique en
raison d’une rotation trop rapide. Trois objections
peuvent être faites à cette théorie: l’orbite lunaire est
inclinée de 5° sur le plan équatorial de la Terre; le
moment cinétique du
couple Terre Lune
Fig. 24b : migration des planètes du système solaire selon le modèle de NICE
n’est pas assez élevé
http://www.futura-sciences.com
pour expliquer une
instabilité de rotation;
d’où viennent les
différences chimiques
entre Terre et Lune ?
- 80 -
ENSM-SE, 2° A : axe transverse P N
2 - La capture douce de la Lune par la Terre : l’objection
de l’orbite lunaire disparaît ; deux mécanismes sont
possibles, soit une orbite initialement très rasante qui
permet la dissipation de l’énergie cinétique en marées
énormes et donc la capture de la Lune, soit l’existence
préalable d’une première « Lune » autour de la Terre,
permettant un échange de moment avec la Lune lors de
sa capture et de l’éjection de la première « lune ».
Mais nous n’avons aucune trace de cette première
« lune », et quid des similitudes chimiques entre Terre
et Lune.
3 - Les deux planètes, sœurs jumelles, auraient grandi
simultanément. Mais formées dans le même
environnement par un processus similaire, on
comprend très mal les différences chimiques de leurs
manteaux.
Reste donc la capture violente d’un météore de la
taille de Mars ! Pour qu’un scénario de ce type soit possible,
les contraintes que cela impose à son orbite initiale
suggèrent un objet d’une telle taille devait être déjà
différencié au moment de l’impact, probablement en un
noyau métallique et un manteau silicaté. Depuis une
décennie, on envisage le scénario suivant (Fig. 25a) :
1 - à t=0
premier impact ;
2 - à t=12’
Les noyaux restent individualisés, mais
les manteaux fusionnent ;
3 - à t=45’
Le météore déstructuré rebondit ; Il est
alors constitué d’un mélange des manteaux des 2 corps
et de son noyau;
4 - à t=1h20’
une fraction du noyau s’est réindividualisée et se prépare à retomber sur la protoTerre ; le reste est satellisé autour de la proto-Terre ;
5 - à t= 4h07’ deuxième impact ; le noyau du météore
va s’intégrer au noyau terrestre et augmenter la masse
volumique moyenne de celle-ci ; la Lune va renaître de
l’accrétion des fragments restés en orbite. La nature
ferreuse du noyau lunaire est encore largement
discutée, il pourrait aussi être silicaté.
16/10/12
Fig. 25b : Un océan de magma aurait enveloppé la lune.
7 - Les continents lunaires (par opposition aux mers
basaltiques plus récentes) paraissent constitués de
matériaux silicatés alumineux riches en alcalins
(Na, K, le feldspath). Globalement légers, ces
continents de feldspath pourraient avoir été séparés
par flottation, très tôt, à partir d’océans magmatiques
(Fig. 25b). Un océan de magma aurait enveloppé la
lune. Durant les 100 Ma. de sa cristallisation, les
feldspaths, légers auraient constitué la croûte lunaire,
les actuelles montagnes de la Lune. A l’opposé, olivine
et pyroxènes seraient venus sédimenter au fond du
réservoir, constituant progressivement le manteau
lunaire. Sa fusion partielle ultérieure aurait donné les
basaltes, constituant alors les mers lunaires, plus
récentes et moins constellées d’impact .On imagine
que ces océans ont pu être créés soit par la catastrophe
soit en conjonction avec la séparation du noyau
lunaire, qui permet la récupération d’énergie
gravitationnelle.
8 - Lors de la phase d’accrétion des planètes, les objets
plus petits ont été rassemblés à froid. Ils ne pouvaient
être que peu ou pas différenciés, et contenaient donc
une part non négligeable d'éléments volatils. Ceux-ci
ont dû être incorporés en solution dans le manteau des
planètes durant cette période. Mais la fin très chaude
de cet épisode de l’histoire précoce des planètes
telluriques fut très propice au dégazage du manteau.
Au paragraphe “ histoire de l’atmosphère ” du chapitre
V, on montrera, grâce à l'étude isotopique des gaz
neutres, qu’en effet l’essentiel de l'atmosphère
terrestre s’est différenciée du manteau très tôt,
avant 4.4 Ga. et de façon brutale. Le reste des
volatils dissous dans le manteau continue encore à
rejoindre l’atmosphère, mais sur un tout autre rythme.
6 - A supposer qu’ils aient été solides au moment de
l’impact, on imagine que 65% de l’ensemble des 2
corps aurait pu fondre. la proto-Lune perd dans cette
aventure une grande partie de son noyau au profit de la
Terre, mais elle perd aussi dans le cosmos de une
partie de ses constituants volatils en raison la chaleur
dégagée ; elle présente de ce fait une surabondance des
constituants réfractaires par rapport à la Terre. Cette
perte d’une partie de la masse initiale la plus légère est 2 – L’Archéen, une convection mantellique rapide et
probablement reflétée dans la masse volumique des komatiites, chaleur oblige…
moyenne un peu élevée du couple Terre-Lune (cf.
introduction).
Dès lors que la Terre fut différenciée en noyau,
manteau et atmosphère, le gradient de pression dans le
manteau
est
devenu
Fig. 25a, scénario d’une collision en 5 clichés : le noyau du météore rebondit avec un mélange
comparable à ce qu’il est
des 2 manteaux. Le mélange reste sur orbite (future Lune), alors qu’une partie du noyau
aujourd’hui. Par contre, le
retombe sur Terre.
géotherme
était
considérablement plus
chaud. La température de
la surface de la géosphère
était celle son atmosphère
de l’époque, c'est-à-dire
une
atmosphère
t=0
t=12’
t=45’
t=1h20’
t=4h07’
Echelles des tailles et distances des corps non respectées
vénusienne, dense et
- 81 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
composée principalement de CO2 dont la température très qu’elle n’a dû démarrer significativement que vers 2.7 Ga.
élevée par effet de serre pouvait atteindre 400 à 500°C au Jusque là la convection devait être la plus forte et le
lieu des 13°C actuels. On peut penser que la vitesse de recyclage da la croûte dans le manteau devait être très
circulation dans les cellules convectives précoces (vers 4.3 important. Néanmoins nous connaissons des morceaux de
Ga.) dans ce manteau très fluide, permettait, sinon continents plus âgés (e.g. Isua, 3.8 Ga.), mais d’autant plus
l’existence d’océans magmatiques comme il a pu en exister rares qu’ils sont plus anciens.
sur la Lune, au moins l’extraction très active par fusion
partielle et flottation des mêmes matériaux silicatés
alumineux riches en alcalins, donnant des embryons de 3 - Le début des temps modernes vers 2 Ga.
croûte continentale.
1 - En résumé, après une naissance tourmentée,
commencée à l’Adéen par une agrégation froide et
Mais les conditions de température en surface vont se
achevée dans une débauche d’énergie, concentration
rapprocher très vite de celles que nous connaissons
du fer dans le noyau, tumulte des collisions de
aujourd’hui, puisque l’on sait que la précipitation de
météores, naissance du couple Terre-Lune, la Terre
l’océan s’est produite vers 4.1 Ga. ; les sédiments marins
inaugure avec le refroidissement de sa surface et la
les plus anciens jamais trouvés (Isua au Groenland), datés de
naissance de l’océan, un mode de fonctionnement
3.8 Ga., attestent de la précocité de l’océan terrestre.
toujours d’actualité : extraction des matériaux
Néanmoins, la radioactivité mantellique plus abondante à
fusibles, par fusion mantellique partielle d’une part,
cette époque imposait une température interne plus élevée,
et par introduction d’eau dans le système mantellique
et en outre une grande partie de l’énergie initiale était encore
d’autre part. Même si les modes de fonctionnement
disponible. Quel pouvait être l’état de ce manteau
de l’Archéen vont évoluer dans le détail, tous les
“archaïque” ? La géochimie des komatiites, roches
ingrédients de la tectonique des plaques moderne
volcaniques (sortes de basaltes très magnésiens) connues
sont réunis, et l’extraction des matériaux crustaux
à une exception près seulement dans des terrains très anciens
peut démarrer. Avec la fin des komatiites, vers 1.7
(entre 3.5 à 1.7 Ga., Archéen), impose que le manteau dont
Ga., on peut considérer que la période archéenne
elles sont issues était à cette époque environ 200° plus chaud
prend fin. Néanmoins, le dernier épisode
que le manteau actuel. En effet ces roches, qui trouvent leur
komatiitique connu, mis en place durant un
origine dans la fusion partielle de ce manteau vers 250 Km
volcanisme de point chaud classique il y a 90Ma
de profondeur, témoignent d’un taux de fusion de 30%
seulement, nous montre malgré tout que des
environ. De nos jours la chaleur disponible à cette
panaches profonds anormalement chauds peuvent
profondeur ne permet pas de dépasser un taux de quelques
peut-être encore venir heurter la lithosphère.
% (en tous cas moins de 10%) et induit un volcanisme
chimiquement bien différent. On atteint de nos jours les
30% de fusion du manteau à des profondeurs bien moindres,
moins de 100 km, et la composition des laves qui en E - La croûte terrestre et la lithosphère, interaction
résultent (basaltes des rides océaniques) est encore plus entre manteau et atmosphère
éloignée de celle des komatiites. La température des
éruptions de komatiites était de l’ordre de 1700°c contre
Rappelons la distinction opérée entre croûte et
1200 pour les basaltes modernes, et la fluidité des laves était lithosphère :
beaucoup plus grande.
1 - la croûte, océanique ou continentale est héritée du
fractionnement du manteau. Elle est mécaniquement
On en conclue que la tectonique des plaques que
rigide et transporte la chaleur par conduction, mais
nous connaissons devait être très différente à cette époque,
aussi par advection grâce aux liquides qui y circulent.
et que vers 2 Ga. la convection (et le mouvement des
plaques) était encore certainement environ 10 fois plus
2 - la lithosphère comprend la croûte plus la partie
rapide que les plaques d’aujourd’hui. Si la contribution de
mécaniquement rigide du manteau sous-jacent. Ce
ce type de volcanisme à la création de la croûte terrestre
manteau lithosphérique est complexe puisqu’il a
précoce, en particulier en domaine océanique, a
souvent subi des extractions partielles ayant donné la
probablement été essentielle à cette époque, elle a presque
croûte sus-jacente. Il est en outre traversé (Fig. 26)
totalement disparu de nos jours. Quant à l’extraction de la
par des magmas
en provenance du manteau
croûte continentale, A PRIORI non recyclable, nous verrons
asthénosphérique convectif situé en dessous ou de
plumes plus profonds, qui vont alimenter des plutons
crustaux ou le volcanisme à la surface de la Terre. A
l’exception des magmas, le manteau lithosphérique et
la croûte profonde ne transportent la chaleur du
manteau convectif que par conduction.
Fig. 26 : Advection magmatique au sein de la lithosphère
1 - Croûte et lithosphère continentale, une mémoire
longue, mais effaçable
http://faculty.weber.edu/bdattilo/parks/plume_cont.jpg
Parce que le premier constituant (70% environ) de la
croûte terrestre est océanique et perpétuellement recyclé
dans le manteau (en moins de 200 Ma. actuellement), c’est
la croûte continentale,
constituée essentiellement de
- 82 -
ENSM-SE, 2° A : axe transverse P N
matériaux légers théoriquement non recyclés dans le
manteau qui va nous fournir les principales archives.
Les fragments très anciens sont exceptionnels, d’une
part parce ce que les premiers continents, partis de rien, ont
vu leur taille s’accroître progressivement (fig. 27), et d’autre
part parce que s’ils n’ont pas été recyclés dans le manteau,
ils peuvent avoir été « réinitialisés » comme par exemple
lors des collisions entre plaques continentales. Les
ensembles rocheux les plus anciens connus, Isua et Acasta,
sont de tous petits fragments, et leur âge ne dépasse pas 4.03
Ga. D’autres noyaux de croûte continentale ont donné des
âges qui s'étendent entre 4.03 et 2.5 Ga., période appelée
archéenne.
Dans des roches légèrement plus jeunes, situées dans
l’ouest Australien, des zircons (silicates de Zirconium) ont
donné un âge de 4.2 Ga. Ils sont donc plus âgés que les
roches qui les contiennent, ils sont « hérités ». Dans ces
minéraux, le rapport Hf/Lu (Hafnium/Lutécium) est utilisé
pour traduire le caractère continental (riche en Hf) ou au
contraire mantellique (riche en Lu) de leur milieu d’origine.
En effet, on sait que Hf présente une grande affinité
chimique avec les éléments constitutifs de la croûte
continentale, il est lithophile, alors qu’à l’inverse Lu n’est
pas lithophile et donc tend à rester dans le manteau. Donc,
dans les premiers âges de la Terre, tant que le processus de
cristallisation fractionnée n’avait pas commencé le rapport
Hf/Lu du matériau initial homogène est partout le même.
Par contre avec le fractionnement de la croûte terrestre et la
séparation en deux réservoirs distincts, manteau et croûte du
matériel initial, le rapport Hf/Lu de l’un grimpe très vite (les
petits bouts de croûte continentale formés) quand celui de
l’autre décroît lentement (l’ensemble du manteau un peu
modifié). Les zircons cristallisés dans l’un ou l’autre des
deux réservoirs présenteront donc des rapports Hf/Lu très
différents. Ensuite, ce caractère est quasiment inaltérable et
ineffaçable. Les zircons étudiés en Australie par M.
Harrison et J. Blichert-Toft ont ainsi été recyclés dans des
roches plus récentes qu’eux, et ils témoignent de l’existence
d’une croûte terrestre âgée de 4.2 Ga. au moins, soit à peine
quelques 200 Ma. seulement après la fin de l’accrétion
terrestre. Les premiers embryons de continents se seraient
donc formés très tôt après la naissance de la Terre, estimée
16/10/12
quant à elle à 4,56 milliards d'années. Mais les rapports en
Hf/Lu des zircons de cette époque sont irréguliers,
chaotiques,
suggérant
de
multiples
débuts
de
fractionnements suivis de ré-homogénéisations locales et redifférenciations donnant ces premiers zircons conservés. Ce
n’est qu’à partir de 3.8 Ga. environ que la tectonique des
plaques que nous connaissons aujourd'hui semble se mettre
en place. Le rapport Hf/Lu des zircons augmente alors
graduellement, prouvant qu’une extraction généralisée,
progressive et largement irréversible cette fois se met en
place à partir du manteau. Le système paraît avoir trouvé
son rythme et sa pérennité. Parallèlement, les premiers
lambeaux de croûte peuvent être conservés (noyaux
archéens). Ceux qui étaient apparus préalablement, dans un
milieu très chaud, turbulent et violent, ont tous replongé
dans le manteau ou ils ont été recyclés.
Les premiers noyaux continentaux conservés se
retrouvent au cœur des boucliers archéens (plages violacées
de la figure 27) et occupent une surface bien inférieure à la
surface actuelle des continents. En outre, leur répartition
actuelle n'a évidemment rien à voir avec celle qu’ils
occupaient à l’époque. Ils sont constitués par 3 grands
ensembles de roches :
1 - les roches vertes (greenstone belts) qui forment des
ceintures de laves constituées de komatiites (évoquées
plus haut), de basaltes et d’andésites ; ces ensembles
volcaniques présentent à la fois des caractères de
roches de dorsale océanique et des caractères de
roches des zones de subduction.
2 - les roches granito-gneissiques, qui proviennent de la
transformation métamorphique de granites et rhyolites
et/ou de schistes argileux ;
3 - les roches sédimentaires, qui témoignent de l'altération
et de l'érosion par l'eau et/ou le vent d'anciens massifs
rocheux dès cette période ; la roche sédimentaire la
plus ancienne date de 3,8 Ga. (Isua, Groenland).
Reprenant Pierre André Bourque de l’Université de
Laval (Québec) nous dirons qu'il est fort probable que des
mécanismes comme ceux qui sont associés à la tectonique
des plaques de nos jours ont joué un rôle comparable dès
cette époque:
Fig. 27 : l’âge de la croûte continentale ; les ronds représentent les pointements connus de komatiites
- 83 -
ENSM-SE, 2° A : axe transverse P N
Fig. 28 :
4 - fusion partielle du manteau produisant des laves de
dorsale et de zone de subduction;
16/10/12
croissance des continents
5 - métamorphisme dans des zones de subduction pour
produire les terrains granito-gneissiques;
6 - altération des premières roches formées, érosion et
dépôt conduisant aux premières roches.
Les estimations de volume de la croûte
continentale constituée à cette époque reculée (Fig. 28)
sont encore très controversées. Les informations sont
fragmentaires, difficilement déchiffrables, et encore
moins aisément interprétables en termes de reconstitution
géotectonique.
a - Des blocs ceinturés
Si la période archéenne correspond à la formation des
premiers noyaux continentaux à la surface de notre planète,
la période suivante, le Protérozoïque, correspond à la
croissance des masses continentales autour de ces témoins
de l’époque Archéenne, qui se retrouvent ainsi souvent
bordés de « ceintures » d’âge décroissant (Amériques Nord
et Sud et Australie en particulier).
Les terrains les plus récents notés 0-250 Ma.
constituent deux types de ceintures orogéniques : l’une est
coincée entre les blocs plus anciens Nord-Européen et
Afrique-Arabie-Inde ; l’autre occupe une situation périPacifique tout à fait remarquable
Dans le premier type, dénommé ceinture
orogénique de collision, ce sont des pans entiers de la
mémoire continentale qui sont un jour repris dans l’étau
d’une collision continentale comme celle qui crée les Alpes
ou l’Himalaya actuellement. Lors d’un tel processus, deux
blocs continentaux s’affrontent et leurs bordures
comprimées se déforment et se chevauchent. Dans les
parties profondes de la croûte sur-épaissie par cette
collision, le métamorphisme et la fusion partielle viennent
alors effacer largement les traces de l’histoire continentale
antérieure. Quant-aux parties superficielles de l’édifice
montagneux, elles sont alors largement soumises à l’érosion,
et la mémoire continentale s’émiette ici dans les rivières et
les océans qui bordent la nouvelle chaîne.
Dans le second type, dénommé ceinture orogénique
de marge continentale active, les mêmes agents,
métamorphisme et fusion partielle en profondeur, érosion en
surface sont aussi en action. Dans les chaînes montagneuses
qui surplombent des zones de subduction en bordure de
continents (les marges actives des continents Nord- et SudAméricain par exemple) se fabriquent depuis 200 Ma.
environ des chaînes de montagnes qui remodèlent ainsi les
bordures préexistantes de ces continents (les Rocheuses et
les Andes par exemple). Mais parallèlement, c’est aussi
principalement dans ces zones de subduction que de la
croûte continentale nouvelle est susceptible de se former
encore de nos jours (cf. § lithosphère et subduction). Il faut
toutefois noter que les études récentes et détaillées de ces
régions (dans les Andes par exemple) suggèrent à l’inverse
qu’une fraction non négligeable de la base des continents
puisse être scalpée par la plaque plongeante et entraînée
avec elle dans le manteau. Le bilan de matière n’est
décidément pas facile à évaluer.
La croissance des continents s'est faite surtout durant
le Protérozoïque, entre 2.5 Ga. et 600 Ma., et l’on est à peu
près certain que le volume des continents n'a finalement que
peu varié durant les derniers 400 Ma. (Fig. 28). Cela signifie
donc que les processus d’extraction des matériaux fusibles
et légers du manteau terrestre sont maintenant globalement
compensés par les processus d’introduction de ces mêmes
matériaux dans le manteau.
Il a souvent été observé que le Protérozoïque
inférieur vient recouper des blocs archéens. On a tout
d’abord pensé que les formations protérozoïques sont
venues s'ajouter autour de ces noyaux archéens, mais on
considère de nos jours que cet Archéen formait de grands
noyaux qui ont été fragmentés en microcontinents déplacés
par la tectonique des plaques. Les matériaux protérozoiques
se sont donc déposés dans des océans entre ces
microcontinents, puis le puzzle se serait à nouveau
rassemblé, coinçant les matériaux protérozoiques dans de
nouveaux continents plus grands.
Vers 1.0 Ga. à 800 Ma., l’ensemble des continents de
l’époque allait se trouver suffisamment rassemblés pour
qu'on ose parler d'un méga continent, sorte de Pangée de
l'époque, que l’on a appelé Rodinia , et l’océan mondial qui
l’entourait, Mirovia. La valse des continents, leur
rassemblement, leur déchirure et leur écartement ont donc
certainement déjà l’allure qu’on leur connaît aujourd’hui.
b
- Une hétérogénéité
horizontale
verticale
et
Nous avons décrit la surface terrestre (croûte
continentale en particulier) comme le résultat de l’extraction
de matériaux à partir du manteau. Cette notion, qui
d’ailleurs est valable aussi pour la croûte océanique, est
basée sur un processus de fractionnement chimique qui
enrichit l’un en appauvrissant l’autre. Mais la mécanique
terrestre couple largement produits et producteurs et
introduit une dichotomie rhéologique bien différente.
Rappelons qu’elle oppose le manteau convectif (et
particulièrement ductile dans la région de la LVZ,
asthénosphère) à la couche limite conductive et rigide
reconnue comme la lithosphère, indépendamment de tout
caractère chimique. La partie sommitale du manteau, trop
froide et donc rigide, appartient à la lithosphère dont elle
constitue la base. Quant-aux produits de fractionnement du
- 84 -
ENSM-SE, 2° A : axe transverse P N
manteau, croûte continentale et croûte océanique légères, ils
constituent le sommet de la lithosphère. La lithosphère
constitue, entre le manteau et l'atmosphère, un équivalent de
la couche D" entre le noyau et le manteau, avec les points de
similitude essentiels suivants:
16/10/12
Fig. 29 : fusion de l’asthénosphère par décompression
adiabatique au droit d’une dorsale
1 - la lithosphère est une couche thermique limite
(transport de la chaleur par conduction);
2 - la croûte montre une grande hétérogénéité
horizontale (océanique, continentale, nature et âge
dans les continents);
3 - la lithosphère reflète les interactions entre le
manteau supérieur et l'atmosphère.
Ajoutons à ces critères de similitude avec la couche
D" les caractères propres à la lithosphère :
1 - la stratification verticale de la croûte océanique et la
grande jeunesse du domaine océanique ;
2 - le déplacement relatif des pièces du puzzle (plaques
lithosphériques) qui la constituent, mais s’agit-il bien
là d’une spécificité de la lithosphère;
1: péridotite source solide
minéraux cristallisés)
2: péridotite source en
partie fondue
e
2 – Croûte et lithosphère océanique Une mémoire
courte de 200 Ma.
De nos jours, c’est au droit des dorsales océaniques
ou des rifts continentaux (grandes fractures qui séparent des
blocs) que la croûte nouvelle est formée. Sous ces structures,
du manteau supérieur en cours d'ascension subit une
décompression adiabatique. On retrouve donc, à une
profondeur donnée, du manteau « anormalement » chaud par
rapport à son environnement.
a - La lithosphère océanique est issue de
la fusion du manteau dans les zones
d'accrétion
Le resserrement vers le haut des isothermes se traduit
dans la figure 12 (§ 4.C.2.b) par un géotherme terrestre très
décalé vers les hautes températures (flèche 1), que l’on
retrouve en pointillé rouge dans la figure 29.
Lors de la chute rapide de pression que subit le
manteau (adiabatique donc sans perte de chaleur ou presque)
il franchit son solidus (sec), ce qui provoque sa fusion
partielle. Ce processus donne naissance à un liquide silicaté
qui monte vers la surface et nourrit la croûte terrestre.
La figure 12 montre les champs de stabilité du solide,
péridotites à plagioclase ou à spinelle ou à grenat selon la
profondeur. Au-delà du solidus débute le domaine de
l'équilibre solide + liquide (Fig. 29). La pente négative du
solidus sec signifie que la pression favorise l'état solide. La
f
b
Néanmoins, la différence de densité qui oppose
croûte continentale et croûte océanique conduit à un
comportement radicalement différent dans le temps :
Il nous faut maintenant aborder l’extraction des
matériaux mantelliques qui fabriquent ainsi la lithosphère.
4: péridotite résiduelle
issue de 2
d
c
a
1 - La mémoire continentale est effaçable, mais le
matériau continental reste très largement piégé en
surface ;
2 - La mémoire océanique est courte, et le matériau
océanique retourne rapidement dans le manteau.
3: basalte issu de 2
minéraux a, b et cstructure holocristalline
liquide magmatique
entre cristaux
Verre, microlithes et
phénocristaux structure
hémicristalline
structure holocristalline
http://svt.ac-dijon.fr/schemassvt/article.php3?id_article=187
composition chimique du liquide est différente de celle du
manteau parent car, dans le manteau parent polyphasé
(olivine, pyroxènes, et phase alumineuse cf. tableau 1), les
minéraux les moins réfractaires sont ceux qui portent les
alcalins et l’aluminium, clinopyroxènes plus grenat ou
spinelle. A l’opposé, les plus réfractaires sont les silicates
magnésiens, orthopyroxène et surtout olivine. Une fois le
solidus franchi, le trajet du système dans le plan PT° se
rapproche du liquidus, ce qui signifie que le taux de fusion
augmente (zone rouge Fig. 29). Les 2 petits cartouches
gauches de la figure 29 montrent ce phénomène, mais ne
rendent pas en compte de la plus ou moins grande fusibilité
des différentes espèces, et donc de la différence de
composition entre le liquide formé et le résidu solide.
Rapidement, tout le clinopyroxène et le grenat ou le
spinelle de la lherzolite sont fondus ; la péridotite
mantellique résiduelle n’est alors plus constituée que de
minéraux réfractaires, l’orthopyroxène et l’olivine, on
appelle cette péridotite une harzburgite. Inversement, le
liquide formé dans cette fusion présente une composition
chimique très marquée par celle des minéraux fondus
préférentiellement (cf. Chp. 4.E.3.a). Si le ∆T° au dessus du
solidus augmente encore, la fusion des minéraux réfractaires
commence, en engageant prioritairement l’orthopyroxène
dans ce liquide ; lorsque tout l’orthopyroxène a disparu, la
péridotite est devenue monominérale, on la nomme dunite,
elle est extrêmement magnésienne.
Au liquidus, tout le solide étant fondu, la
composition du magma serait identique à celle du manteau
lherzolitique parent. Plus on déplace le géotherme vers les
hautes températures et plus le début de la fusion commence
profondément, et plus le trajet du système s’approche du
liquidus. La composition très magnésienne des komatiites
s’explique de cette manière, par une fusion profonde et un
taux de fusion très élevé. C’est aussi ainsi que la croûte
océanique actuelle prend naissance par fractionnement
chimique à partir du manteau, mais à des taux de fusion
et à une profondeur moindre qu’au premier jour de la Terre.
- 85 -
ENSM-SE, 2° A : axe transverse P N
Fig. 30a : croûte océanique
Au droit d’une dorsale
océanique, les magmas arrivent
presque en continu jusqu'à la
surface en ligne directe du manteau
sous-jacent anormalement chaud.
Ils fabriquent la croûte océanique
(Fig. 30a), constituée depuis la
surface d’abord de basaltes en
coussins (pillow lavas, Fig. 30b),
puis d’une séquence de dykes
d’alimentation (filons entrecoupés).
En dessous on observe (Fig. 30a)
les
roches
plutoniques
de
composition similaire aux laves,
qui sont un ensemble de chambres
magmatique initialement situées
sous la ride. Ces chambres ont
lentement cristallisé en gabbros de
plus en plus évolués vers leur toit
(cristallisation fractionnée, Chp. 3.E.3.a), tout en
fractionnant des laves plus ou moins variées. Enfin la base
de la série est constituée de péridotites mantelliques variées,
lherzolites fertiles qui ont donné par fusion partielle des
reliquats réfractaires, harzburgite et dunites. Ces péridotites
peuvent être lardées de pos chromifères, résultant d’une
lente ségrégation du chrome.
Au droit de la ride on peut considérer que l'isotherme
1200°C qui constitue grossièrement la limite entre
lithosphère et asthénosphère arrive pratiquement à
l'affleurement. Il n'y a donc quasiment pas de lithosphère au
niveau des dorsales. Seule la croûte est présente. La couche
limite conductive est réduite ici à pratiquement rien, et une
bonne part du transfert de la chaleur du manteau vers
l’hydro-atmosphère se fait ici par advection, au niveau de la
16/10/12
dorsale. Le gradient thermique est très fort, et l’évacuation
de la chaleur est largement facilitée dans la croûte solide par
la mise en place d’une cellule convective aqueuse
(Fig. 31a), qui constitue une seconde entorse au transfert de
chaleur seulement conductif dans la couche limite. A 1000m
de profondeur la T° d’ébullition de l’eau est de 310°C ; elle
est de 370°C à 2000m et de 410°C à 3000m
(http://www.divediscover.whoi.edu/vents/). En de nombreux évents,
la température de l’eau dépasse la valeur du point critique
218 atm, 375°C.
La mise en place de ce thermosiphon est rendue très
aisée par le grand nombre de fractures ouvertes qui
accompagne l’énorme distension à laquelle est soumise cette
zone tiraillée entre les deux plaques. Cette circulation d’eau
supercritique lessive la croûte et le manteau sous-jacent,
l'hydrate en transformant par exemple la péridotite du
manteau en serpentinite, lui échange du Sodium contre du
Calcium, et lui emprunte du Soufre, du Fer, du Manganèse...
Très riches en métaux et en soufre, les sources très chaudes
précipitent brutalement au contact de l'eau de mer des
sulfures et des oxydes ou hydroxydes qui opacifient l'eau,
leur donnant leur nom de fumeurs noirs, et construisent des
cheminées sur le fond de l'océan (cf. poly LDC). On a pu les
observer au cœur des rides océaniques depuis une quinzaine
d'années environ (Fig. 31b). Ils rejettent des quantités
considérables d'eau dont la température peut atteindre ou
dépasser 350°C. L’énergie disponible est utilisée par une
chaîne alimentaire complexe depuis des archéobactéries
extrêmophiles pouvant vivre à des T° allant jusqu’à 105°C
et très mal à l’aise en dessous de 85°C., jusqu’à des
organismes supérieurs, mollusques, crustacés parfaitement
adaptés, en passant par les célèbres vers vestimentaires
Riftia (cf. Poly LDC).
L’enveloppe de l’anomalie de concentration en Fe et
Fig. 30b : a droite et au centre, éruption sous-marine sous faible tranche d’eau ; la lave refroidie en surface (noire) par l’eau (noter
l’ébullition) craque sous l’effet de la poussée de la lave chaude. La fente (rouge) sert alors de filière pour l’extrusion de nouveaux
coussins noter les stries laissée par l’extrusion ; à faible profondeur le refroidissement brutal de la lave est souvent accompagné
d’une explosion des gaz contenus ; à grande profondeur, sur les rides (à droite) la pression empêche cette expression des gaz.
Fig. 31 : a) lessivage et hydratation de la croûte et du manteau au droit des dorsales; b) fumeur noirs; c) anomalie du rapport
(Al+Fe+Mn)/Al., http://www.whoi.edu/oceanus/viewArticle.do?id=2400 http://earthsci.org/mineral/energy/geomin/geomin.htm
a)
b)
c)
- 86 -
ENSM-SE, 2° A : axe transverse P N
Fig.32 : panache enrichi en 3He
Mn (Fig. 31c) dans l'océan montre clairement d'une part la
coïncidence avec la ride Est pacifique (pointillé), et d'autre
part l’influence des courants sur son étalement (flèches
grises).
Les mesures effectuées sur les isotopes de l’hélium
(He) sont, elles aussi, très significatives (Fig. 32). Si
l’isotope 4He est fabriqué par radioactivité (par irradiation
du Be e du Li), 3He, lui, est formé par photodissociation à
très haute altitude et il est alors rapidement perdu dans le
cosmos car très léger, ou bien il est originel. En fait,
l’Hélium est si léger que la Terre en perd toujours un peu
dans le cosmos. Donc 3He de la haute atmosphère n'interfère
pas avec l'hélium contenu dans la basse atmosphère ou
l'océan. Or on constate que les sources qui jalonnent les
rides océaniques contiennent une quantité anormalement
élevée de 3He. Elles apportent la preuve que le manteau
contient encore pas mal du gaz originel, et que le dégazage
continue. En outre la taille importante du panache (Fig. 32,
vue en coupe) montre encore l’importance de
l’hydrothermalisme dans la chimie de l’océan.
L'enrichissement en 3He hydrothermal est mesuré en
comparant le rapport isotopique 3He / 4He de l'eau à celui de
l'atmosphère. Les différences mesurées sont importantes et
significatives, mais en toute rigueur, il devrait être tenu
compte du fractionnement des isotopes de l'hélium au cours
de l'évaporation.
En s’éloignant de la ride, la plaque dérive, se
refroidit, et les interactions océan-lithosphère deviennent
rapidement négligeables. La croûte n’évolue plus que fort
peu, elle épaissit progressivement par-dessus, avec les
sédiments qui viennent la recouvrir lentement, mais elle
reste peu épaisse (<10km). L’isotherme 1200°c plonge en
s’éloignant de la ride et la lithosphère épaissit. Elle dépasse
16/10/12
ainsi rapidement l'épaisseur de la croûte, dont la nature
détaillée n'est pas évoquée ici (cf. poly LDC), et incorpore
progressivement la partie sommitale du manteau (accrétion
de manteau devenu froid). Ce manteau est partiellement
différent du manteau initial car si la croûte est enrichie en
matériaux fusibles empruntés au manteau, la fraction du
manteau qui l’a produite est en revanche rendue plus
réfractaire. On est donc amené à conclure que la
lithosphère (croûte + manteau) n'est pas globalement
différente du manteau primaire sous-jacent, en tout cas en
domaine océanique.
Le refroidissement de la lithosphère avec la distance
à la ride et donc avec le temps (Fig. 33) est parfaitement
corroboré par le flux de chaleur mesuré (cf. carte Fig. 5 in
Chp. 1.D2). La contraction qu’il implique mène
inévitablement à une inversion de densité, la lithosphère
devenant plus lourde que le manteau sous-jacent. C’est
semble-t-il pour un âge de l'ordre de 150 à 200 Ma. que cette
inversion devient patente. Elle
est alors susceptible
d'engendrer une branche descendante d'une cellule de
convection ? En tous cas, aucun plancher océanique plus
Fig. 33 : âge du plancher océanique croissant symétriquement avec la distance à la ride.
186 150
120
90
50
25 0 Ma
http://www.ngdc.noaa.gov/mgg/fliers/96mgg04.html
- 87 -
ENSM-SE, 2° A : axe transverse P N
vieux que 180 à 200Ma n’a jamais été échantillonné.
b - La lithosphère plongeante provoque la
fusion du manteau dans les zones de
subduction et fabrique de la croûte
continentale
L’introduction d'eau dans le système mantellique
caractérise toutes les régions qui, en surface, correspondent
au plongement d’une plaque océanique, que ce soit au droit
des guirlandes d'îles comme le Japon, ou au droit des
“marges” continentale dites actives comme la cordillère des
Andes. La tomographie sismique du manteau dans les zones
de subduction (Fig. 16, § 4.C.3.b) montre qu'il existe un coin
de manteau entre la croûte de l'arc et la plaque plongeante.
Durant la descente, en se réchauffant et en se comprimant, la
plaque libère l'eau d'hydratation qu'elle avait emmagasiné au
voisinage de la dorsale, hier ou 180 millions d'années plus
tôt, bien plus encore que pendant les millions d’années
passées au fond de l’océan... C'est cette eau qui provoque la
fusion partielle du manteau sus-jacent lorsqu'elle le
traverse car, sous forte PH2O le manteau subit un
abaissement important de sa courbe solidus (Fig. 12,
§ 4.C.2.b)). Rappelons que la morphologie du solidus
humide est très incurvée vers les basses pressions (flèche 2
in fig. 12), recoupant largement les géothermes
continentaux, ancien ou récent, et plus encore le géotherme
océanique au niveau des dorsales.
16/10/12
Fig. 34 : Les sédiments marins de la plaque plongeante sont
rapidement scalpés par la plaque sus-jacente et fortement
tectonisés en grossissant le prisme d'accrétion.
Une partie des sédiments restés solidaires sont sous-charriés
avec la plaque plongeante sous le prisme ; ils peuvent ensuite
venir s’accréter au prisme par sous placage ou au contraire être
subductés avec la lithosphère dans le manteau.
http://www.cnrs.fr/cw/dossiers/dosgeol/01_decouvrir/02_subduction/04_subdu
ction_plaques/01_terrain/03a.htm
la subduction de la plaque s'accompagne de frottements
intenses qui arrachent des fragments au soubassement de la
plaque supérieure. Ces fragments du soubassement seront
enfouis avec la plaque dans le manteau, avec les quelques
lambeaux de sédiments qui auront échappé à ce rabot et
seront restés solidaires de la plaque. Ils retournent avec elle
au manteau.
Seule donc une infime partie des sédiments portés
par la plaque ou des fragments arrachés à l'arc réussira à
atteindre le manteau supérieur. Toutefois, cette petite
fraction modifiera (faiblement mais significativement) sa
composition chimique et celle de ses produits de fusion
partielle. C'est à travers ce processus que l'on imagine la
contamination de la couche D" que nous avons envisagé
plus avant.
L'analyse des roches volcaniques des zones de
subduction ainsi que l'expérimentation montrent que les
produits de la fusion mantellique hydratée sont très
différents de ceux qu'engendre la fusion par
décompression adiabatique du manteau quasi sec sous
les dorsales. Au lieu de basaltes, qui contiennent 40 à 45%
de SiO2, on obtient des andésites et des diorites, qui 3 - Le fractionnement magmatique
contiennent 50 à 60% de SiO2.
Deux types de diagrammes de phases suffisent à
Le fractionnement des éléments lithophiles, légers illustrer clairement le fractionnement des magmas (Fig. 35),
comme Si, Na, K ou lourds comme U, Th, est alors dans l’espace de la composition représentée par 2
maximum. Ces produits sont en outre de faible densité constituants A et B en fonction de la température T°.
(d#2.8 au lieu de 3 pour les basaltes). Ils ne peuvent plus
être recyclés dans le manteau et donnent naissance à de la
a - Le processus de fractionnement (cf.
croûte continentale, dont la composition chimique moyenne
peut être assimilée à celle des diorites, roches intermédiaire
TP Axe GP)
entre les basaltes, liquides quasi indifférenciés, et les
granites, qui constituent le terme le plus évolué de ce
Aux hautes T° considérées, le système magmatique
fractionnement.
est généralement entièrement liquide (monophasé) quelque
soit la concentration, et aux basses T° considérées, le
La plaque subductée et déshydratée commence sa
système est entièrement solide; il peut alors être polyphasé
descente par le scalp de la majeure partie des sédiments qui
si les constituants A et B représentent des corps purs non
viennent s’ajouter au prisme d’accrétion de l’arc ou de la
miscibles, ou monophasé si les corps représentés par A et B
marge active (Fig. 34). Les sédiments, de densité très basse
(1.8 à 2.2 environ) et de cohésion faible, qui s'étaient sont miscibles en toutes proportions (solutions solides).
déposés sur la plaque au fond de l'océan quittent ici la
plaque océanique qui les portait et viennent s'accréter à la
plaque supérieure au niveau de la fosse. La plaque
subductée continue sa descente et enfouit alors avec elle les
stigmates chimiques de son contact avec l'atmosphère, mais
une partie de l’eau contenant du CO2 et du CH4 est libérée.
Cette eau circule au voisinage du plan de subduction pour
venir alimenter une ligne de sources chaudes jalonnant le
front accrétion au fond de la fosse (cf. Poly LDC). En outre
Entre ces deux états, initial et final, ces diagrammes
nous montrent les domaines des compositions possibles pour
le liquide et pour le solide. Ces domaines sont limités
chacun par une courbe, lieu des points où la composition est
fixée par la température. Ces deux courbes sont :
1 - le liquidus, qui limite vers les basses températures le
domaine des compositions possibles à l’état liquide;
- 88 -
ENSM-SE, 2° A : axe transverse P N
Fig35 : Diagrammes de phases X vs. T° :
a) corps purs A & B
16/10/12
b) solution solide complète A - B
2 - le solidus, qui limite vers les hautes températures le
domaine des compositions possibles à l’état solide.
Ces deux courbes sont toujours disjointes, sauf aux points
d’abscisse A et B qui illustrent la cristallisation des corps
purs représentés par A et B, et éventuellement en un point
singulier de composition A/B défini, eutectique ou
extremum. L’espace situé entre liquidus et solidus est donc
un espace de composition impossible, tant pour le liquide
que pour le solide.
Imaginons un liquide L0 de composition initiale C0, à
la température T0(Fig. 35). Si la température s’abaisse, le
liquide L0 rencontre le liquidus à la température T1. Débute
ici la cristallisation du solide, dont la composition Cs0 est
définie par le solidus. La composition de l’ensemble du
système étant inchangée (C0), et le solide formé ayant une
composition (CsT) différente de celle du liquide initial (C0),
la composition nouvelle du liquide (ClT) s’écrit :
q.CsT + (1-q).ClT = Cte (ici C0 ), où q et 1-q sont
respectivement les masses de solide et de liquide.
La cristallisation du liquide ClT reprendra lorsque la
température sera à nouveau descendue et recoupera le
liquidus pour cette composition. La cristallisation d’un
liquide peut donc être schématisée comme une suite
d’incréments.
Arrêtons-nous un instant sur la composition du solide
formé à chaque incrément :
1 - Dans le cas des corps purs (A et B non miscibles,
Fig. 35a), la composition du solide est fixe, soit A soit
B ; La composition du liquide évolue avec la quantité
de solide formé, jusqu’à avoir la composition de
l’eutectique E.
2 - Dans le cas des solutions solides (Fig. 35b), la
composition du solide total est à chaque instant
(chaque T°) celle du solidus ; elle varie donc avec le
degré de cristallisation (i.e. la température). La
cristallisation à l’équilibre impose donc dans le cas des
solutions solides que le solide total formé réagisse à
chaque incrément avec le liquide, pour donner un
nouveau solide. Le rééquilibrage de la concentration
du solide magmatique est rarement complet dans les
magmas, en raison des vitesses de diffusion des
éléments dans le solide. La composition du dernier
liquide Cf, dépassera alors largement la composition
prévisible (celle qui correspond à la température
Tfc L0.
Les deux cas conduisent donc à une évolution de la
composition de la fraction liquide magmatique au cours de
la cristallisation. Dans le cas de la fusion du manteau par
exemple, les minéraux les moins réfractaires (les premiers à
fondre) seront différents en fonction de la profondeur (cf.
Chp. 4.C.2). Mais qu’il s’agisse de spinelle ou de grenat, les
deux sont riches en éléments alcalins et le liquide formé sera
donc prioritairement enrichi en ces élément. Ensuite, le taux
de fusion augmentant le volume de liquide formé augmente
sans nouvel apport en alcalin. Il s’opère donc une dilution
qui conduit vers des laves (basaltes) d’abord alcalines puis
de moins en moins alcalines (tholéiites). Si pour une raison
ou une autre il est opéré une séparation de tout ou partie de
cette fraction liquide, on peut prélever toute une gamme de
liquides de concentrations variées entre Ci et Cf , ou de
mélanges liquide + solide en proportions variées. Ce
processus intervient naturellement chaque fois qu’une
fracture au toit de la chambre magmatique permet à une
portion du magma de migrer, ou bien lorsque par
accumulation du solide formé, il n’y a plus de contact entre
l’essentiel du solide et le liquide restant. Cette évolution
« en route » vers la surface (terme anglais), donne dans la
croûte tout un ensemble de roches cogénétiques, plutoniques
et/ou volcaniques
b - Depuis quand le fractionnement de la
croûte continentale à partir du manteau
supérieur fonctionne-t-il?
Si les processus terrestres sont capables d'opérer un
fractionnement des isotopes des éléments très légers, les
différences de masse entre les isotopes d'un même élément
lourd, 87Sr et 86Sr par exemple, sont insuffisantes pour que
les processus géologiques comme la fusion partielle ou la
cristallisation les fractionnent. Mais une partie du 87Sr est
d'origine radiogénique, elle provient de la désintégration du
- 89 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Fig. 36: Evolution du rapport isotopique 87Sr / 86Sr ; a) dans la croûte continentale, b) dans le manteau
a)
b)
Le point de départ de la droite d'évolution de la valeur moyenne terrestre, BABI
(Basaltic Achondrite Best Initial) est la valeur initiale estimée de la Terre au temps T0 . La zone grisée balaye le champ
possible de l'évolution, de 87Sr / 86Sr mininum à maximum.
Attention aux changements d'échelle
87
Sr / 86Sr.
Rb (87Rb → 87Sr β
et le rapport 87Sr / 86Sr ne
cesse d'augmenter avec le temps, depuis la formation du
système Terre, partout où il y a du Rubidium. La première
utilité d'une relation linéaire de ce type est bien sûr d'offrir
un chronomètre. La radio chronologie exploite ainsi bon
nombre d'autres transformations de ce type, telles que:
238
40
U→206Pb ; 235U→207Pb, 176Lu→176Hf ;
K→40Ar,
40
40
138
138
138
138
K→ Ca ;
La→ Ce,
La→ Ba.
composition comme le mélange d’un manteau déprimé avec
une once de sédiment recyclé dans ce manteau par la
subduction. Nous sommes là aux confins de la cuisine des
géochimistes. EM II représente quant-à lui un manteau
lithosphérique (i.e. un manteau mécaniquement solidaire de
la croûte) très riche en éléments lithophiles (comme Rb),
résultant probablement d'imprégnations par des liquides
magmatiques en route vers la surface.
Parmi ces paires radiogéniques certaines présentent
des contrastes de propriétés chimiques entre père et fils que
l'on utilisera pour tracer les processus géologiques dans le
temps. Par exemple, la paire d'éléments 87Rb→87Sr
(colonnes I et II du tableau périodique respectivement) est
très sensible aux processus de fusion et de cristallisation; Rb
a une affinité beaucoup plus forte que Sr pour le liquide ou
les volatils. Si le Rubidium a une grande affinité pour les
liquides magmatiques, la fusion mantellique appauvrit donc
le manteau solide (Rb/Sr = 0.03 in Fig. 36a) au profit du
liquide. Arrivé dans la lithosphère, ce liquide commence sa
cristallisation. Celle-ci concentre encore le rubidium dans
les derniers liquides, légers et à composition de granite, qui
sont stockés dans la croûte continentale (Rb/Sr = 0.17 in
Fig. 36a). On qualifie un tel élément d’hygromagmatophile
ou de lithophile. Avec le temps, le rapport 87Sr / 86Sr de la
croûte terrestre augmente donc inexorablement plus vite que
celui du manteau (Fig. 36a) et de la moyenne terrestre.
Inversement, celui du manteau voit sa croissance d'autant
plus ralentie. Partant des valeurs mesurées aujourd'hui et
dans des matériaux relativement anciens, provenant de la
croûte continentale (Fig. 36a) et du manteau supérieur
(Fig. 36b), on peut estimer que la construction massive de la
croûte continentale et l'appauvrissement du manteau
supérieur ont commencé vers 2.7 Ga. . Dans la figure 36,
depleted mantle (3) reflète la valeur moyenne du manteau
supérieur asthénosphérique actuel. Le manteau EM I
(Enriched Mantle I) qui se situe sur la droite moyenne n’est
en fait enrichi que par rapport au manteau supérieur actuel;
il est donc proche d’un manteau n’ayant jamais été modifié
(appauvri) par la fusion partielle responsable de la naissance
de la croûte continentale (Primary Mantle issu de BABI).
Mais il porte aussi quelques caractères chimiques de certains
sédiments profonds qui permettent d’interpréter sa
L’étude récente du Manteau Lithosphérique SubContinental (SCLM en anglais) a montré qu’en tout point de
l’écorce continentale, son âge est corrélé à celui de la croûte
sus-jacente (e.g.). Cette observation confirme que
l’extraction de la croûte, qui se fait à partir du manteau,
s’accompagne d’une accrétion du manteau sommital local.
Nous avons vu que cette extraction de magma du manteau
résulte de la fusion partielle de ce dernier, et qu’en fonction
du taux de fusion, la minéralogie résiduelle du manteau
évolue :
87
1 - A des taux faibles, les phases calciques, alcalines et
alumineuses, le clinopyroxène et le grenat (ou le
spinelle, cf. tableau 1) sont encore présents
2 - A taux élevé, seules restent les phases les moins
fusibles, l’olivine et le orthopyroxène ; ces phases sont
des solutions solides de fer et de magnésium, olivine =
SiO4 (Fe-Mg)2 , Opx = Si2O6 (Fe-Mg)2 , qui comme
tous les silicates ferromagnésien admettent le
magnésium comme pôle de haute T° et le Fer comme
pôle de basse T°. La fusion croissante, à température
croissante de ces minéraux conduit donc à un solide
résiduel de plus en plus magnésien.
Au terme de la fusion partielle qui fabrique la croûte susjacente, il reste donc un manteau appauvri en matériel
entrant dans le liquide.
Suzanne O’Reylly et al 2001 ont mis en évidence
que la nature du manteau lithosphérique varie
considérablement avec l’âge de l’écorce, et qu’une
distinction importante doit être faite entre lithosphère
ancienne (archéenne) et récente. Un saut dans la
composition chimique moyenne est bien marqué entre le
manteau subcontinental très magnésien des régions à croûte
- 90 -
ENSM-SE, 2° A : axe transverse P N
archéenne, et celui des régions à croûte de la période
suivante (Protérozoïque), qui semble en effet beaucoup plus
calcique et alumineux (Fig. 37) ; ce contraste est peut-être
encore plus marqué pour les régions “jeunes”, d’âge
Phanérozoïque (les âges où la vie est abondante, <600 Ma.).
Les auteurs ont remarqué à travers l’étude des enclaves de
manteau remontées par les laves que les péridotites les plus
capables de donner des liquides magmatiques, dites
« fertiles » ; sont d’autant moins abondantes que l’âge de la
croûte terrestre qui supporte les volcans est ancien. Les
conduits volcaniques des volcans qui éjectent de telles
enclaves en faible proportion ramonent donc un manteau au
caractère appauvri (« depleted »), ce qui signifie qu’il a subi
une fusion partielle importante caractérisée par son déficit
en Na, Ca, Al par rapport à la lherzolite type, dite fertile.
Les harzburgites dans la figure 37 sont des roches très
« déplétées » selon cette terminologie. L’asthénosphère
commence lorsque la ductilité du manteau s’affirme, ce qui
correspond à la « molt péridotite » de la figure. Certaines
péridotites subcontinentales montrent en outre un
enrichissement anormal en alcalins et terres rares légères
(La..Sm), qui résulte de la percolation de magmas et/ou de
fluides venus du manteau asthénosphérique, en route vers la
surface. Ce processus d’échange avec la roche environnante,
qui tend à équilibrer chimiquement le liquide ou le fluide
avec le solide qu’il traverse, s’appelle métasomatisme. La
production de fluides ou de magmas dans l’asthénosphère
étant liée à la convection, il s’agit là d’un phénomène
pérenne qui a d’autant plus de chances d’avoir marqué la
lithosphère de son empreinte que celle-ci est ancienne. Sur
ce point, La figure 37 oppose clairement le manteau
subcontinental phanérozoïque aux manteaux lithosphériques
plus anciens.
Nous avions noté plus avant qu’aux temps archéens
le manteau supérieur fertile (Lherzolite composée d’olivine,
16/10/12
orthopyroxène clinopyroxène plus une phase alumineuse, cf.
§ C1 Minéralogie du manteau p 57-58) subissait une fusion
partielle beaucoup plus intense que celle qu’il subit de nos
jours en raison de la grande énergie thermique disponible, et
que ce taux élevé s’exprime dans un volcanisme
komatiitique (à la fois très chaud et magnésien) très différent
du volcanisme basaltique moderne. Pour produire les
basaltes modernes, les fractions fondues d’olivine et
d’orthopyroxène sont faibles par rapport à celles qui sont
engagées dans le processus de fusion partielle qui conduit
aux komatiites. Il en résulte donc un liquide
proportionnellement plus calcique, plus alcalin, plus siliceux
(voir les compositions des deux minéraux prépondérants qui
fondent en premier, le clinopyroxènes et la phase
alumineuse, au § C1) et par soustraction moins magnésien.
A l’opposé, puisque le manteau qui a donné naissance au
komatiites fondait beaucoup, il conduisait vers un résidu
solide très appauvri (harzburgites et dunite). En outre le
résidu solide des komatiites présente un rapport Mg/Fe fort,
car en équilibre avec le liquide à une température très
élevée, qui favorise le solide magnésien et le passage du fer
dans le liquide.
Un tel manteau lithosphérique possède donc un poids
volumique remarquablement faible par rapport au manteau
normal (plus riche en éléments lourds Fe et Ca), et il reste de
ce fait très solidement arrimé à la croûte sus-jacente, et
vieillit avec elle. Inversement, le manteau subcontinental des
régions les plus jeunes est rapidement plus dense que le
manteau asthénosphérique, et très facilement entraîné par le
manteau convectif, en particulier dans les régions de rift ; un
tel manteau « délaminé » rejoint alors le manteau convectif
et laisse place à du manteau plus jeune, peu déplété et peu
ou pas métasomatisé. On parle de délamination, à l’image
des composites vieillissants comme les plastiques des
coques de bateaux
Fig.37 : Logs géochimiques vertical (en km) dans le manteau lithosphérique subcontinental, datant de de l’archéen
(Sibérie et Canada), du protérozoïque et du phanérozoïque ;
On appelle lherzolite fertile des péridodites riches en Orthopyroxène et phase alumineuse (grenat), donc les moins
réfractaires, par conséquent capables de donner naissance à des liquides magmatiques par fusion partielle.
Le reliquat de cette fusion, dépourvu de phase alumineuse est appelé harzburgite, plus ou moins appauvrie en clino puis
en orthopyroxène, elle est appelée dunite lorsqu’elle n’est plus composée que d’Olivine.
Les fractions métasomatisées figurées en rouge représentent la fraction du manteau lithosphérique (rigide,
tectoniquement associé à la croûte continentale sus-jacente) qui a subi des modifications de composition par réaction
avec les liquides magmatique issus de la fusion partielle du manteau (y compris d’origine asthénosphérique venant du
manteau sous-jacent.
- 91 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Sites WEB consultés
http://www-lgit.obs.ujf-grenoble.fr/users/hcnataf/Cours_MMGE/G9.html
http://www.tcd.ie/Geology/Courses/ewf/
http://www.ggl.ulaval.ca/personnel/bourque/intro.pt/planete_terre.html
http://quake.mit.edu/~castle/FallAGU98/abs.html
http://www.geo.uu.nl/~bijwaard/movie/movie.htm
http://visearth.ucsd.edu/VisE_Int/platetectonics/frontpagegeol.html
http://www.seismo.unr.edu/ftp/pub/louie/
http://volcano.und.nodak.edu/
http://volcano.und.nodak.edu/vwdocs/vwlessons/hot_spots/introduction.html http://www.seismo.berkeley.edu/seismo/Homepage.html
http://geollab.jmu.edu/fichter/Wilson/PTRC.html
http://www.ruf.rice.edu/~leeman/
http://vulcan.wr.usgs.gov/Volcanoes/MSH/NatMonument/framework.html
http://www.pgc.nrcan.gc.ca/geodyn/cascadia.htm
http://www.ig.utexas.edu/research/projects/nankai/news/news.html
http://explorezone.com/archives/99_08/04_earth
http://www.geo.lsa.umich.edu/~crlb/
http://www.ldeo.columbia.edu/margins/Home.html
http://geo.lsa.umich.edu/~crlb/COURSES/270/Lec13/Lec13.htmlquake_subduction.htm
http://greenwood.cr.usgs.gov/pub/open-file-reports/ofr-99-0132/
http://publish.uwo.ca/~wrchurch/
http://www.astrosurf.com/lombry/sysol-soleil-magnetique.htm
http://www.psrd.hawaii.edu/May03/SolarSystemTrigger.html
http://volcano.und.nodak.edu/vwdocs/glossary.html
http://walrus.wr.usgs.gov/tsunami/cascadia.html
http://pubs.usgs.gov/publications/text/dynamic.html
http://ees5-www.lanl.gov/IGPP/PlanetInt.html
http://www-istp.gsfc.nasa.gov/earthmag/
http://www.seismo.unr.edu/ftp/pub/louie/class/100/interior.html
http://www.seismo.unr.edu/ftp/pub/louie/class/100/plate-tectonics.html
http://www.seismology.harvard.edu/projects/3D/
http://ees5-www.lanl.gov/IGPP/g6172icb1.html
http://perso.ens-lyon.fr/gregoire.deback/projetst/modelisation.html
http://www.es.ucsc.edu/~glatz/geodynamo.html
http://www.geo.ucalgary.ca/~wu/SeisTomogSAW12D.html
http://www.ac-nice.fr/svt/aster/sismo/tomosism/tomograf.htm
http://www.le.ac.uk/geology/art/gl209/lecture1-12.html
http://www.gps.caltech.edu/~gurnis/Movies/movies-more.html
http://www.es.mq.edu.au/GEMOC/oreilly/4Dlithmap.html
http://mahi.ucsd.edu/Gabi/3dmodels.html
http://www.ggl.ulaval.ca/personnel/bourque/intro.pt/planete_terre.html
http://baudolino.free.fr/Noyau/
http://www.oca.eu/morby/
http://seis.karlov.mff.cuni.cz/
http://faculty.weber.edu/bdattilo/parks/plume_cont.jpg
http://www.cnrs.fr/cw/dossiers/dosgeol/01_decouvrir/02_subduction/04_subduction_plaques/01_terrain/03a.htm
http://www.ngdc.noaa.gov/mgg/fliers/96mgg04.html
http://www.whoi.edu/oceanus/viewArticle.do?id=2400
http://earthsci.org/mineral/energy/geomin/geomin.htm
http://www.divediscover.whoi.edu/vents/
- 92 -
ENSM-SE, 2° A : axe transverse P N
quelques idées fortes
16/10/12
Quelques idées fortes :
Noyau
Graine solide, reconnue seulement depuis 1936, axisymétrique :
orientation des cristaux de fer par convection axisymétrique ? ou par dépôt orienté par le champ magnétique du noyau ?
30 à 100 m3 de graine cristallisée/jour = chaleur latente qui permet la convection dans le noyau liquide.
Le noyau liquide sismiquement transparent pour les ondes S :
limite entre le noyau et le manteau : P= 130 G.P ; T°= 3800°K ;
limite entre le noyau et la graine : P= 320 G.P ; T°= 5000°K ;
Centre de la Terre : P= 400 Gpa ; T°= 6000°K.
Noyau fonctionne comme une magnétohydrodynamique, Les inversions du champ terrestre :
La durée moyenne de stabilité entre 2 inversions est de l'ordre de quelques x100 000 ans, elle peut être beaucoup plus courte
elle peut être beaucoup plus longue, plusieurs x10 Ma ; avant la limite Permien-Trias et avant la limite Crétacé-Tertiaire.
la couche D"
Produit de l'interaction chimique entre le fer liquide du noyau et le manteau silicaté.
Solide mais à vitesse lente, à forte densité, et elle donne des rais sismiques spécifiques qui émergent dans la zone d'ombre ;
Topographie tourmentée : épaisseur très variable, de quelques x10 km à 200-300 km.
Couche limite entre la convection mantellique et la convection du noyau,
Zones épaisses =accumulateur de chaleur à la base du manteau ;
Déclanche des panaches mantelliques si longue accumulation = volcanisme de point chaud
trapps de Sibérie, à la fin du Permien, trapps du Deccan en Indes, à la limite Crétacé-Tertiaire
Manteau inférieur
Composition chimique proche de celle des chondrites = indifférencié, et minéralogie très compacte.
Pas de fractionnement important car ne donne que les basaltes des points chauds.
échanges intermittents avec le manteau supérieur :
Subduction d’une plaque dans le manteau inférieur vers la couche D" ;
Traversée de la discontinuité 670 Km par des panaches chauds en route vers la surface
Manteau supérieur
Compostion chimique et minéralogie et de péridote = fortement différencié :
Péridotites à plagioclase
dans les 30 premiers Km;
Péridotites à spinelle
entre 30 et 60 Km;
Péridotites à grenat
au-delà de 60 Km.
Autres phases minérales plus compactes en profondeur
Fractionnement important :
Tous les volcanismes autres que les points chauds ; T
toute l’extraction de la croûte continentale (SiAl)
Domaine de convection ordinaire des plaques lithosphériques = volcanisme de 3 types
Décompression adiabatique peu profonde (<80-100 km), fusion partielle « à sec, HT° » dans les rides océaniques (ou rifts)
Décompression adiabatique profonde(>80-100 km), fusion partielle HT° « à sec, HT° » dans les points chauds
Fusion partielle « hydratée, BT° » à profondeur croissante dans les zones de subduction
Croûte
Croûte océanique :
Fusion dans les rides océaniques, transport et hydratation du plancher océanique, disparition dans les fosses ;
Durée de vie maximum d’un fond océanique = 200 Ma (mémoire courte)
Croûte continentale :
Fusion dans les zones de subduction, matériaux légers et hydratés peu recyclables ;
Durée de vie très variable : jusqu’à 4 Ga (cratons)
Mémoire effaçable par érosion ou par métamorphisme (ceinture orogénique de collision ou de marge continentale active)
Histoire de la Terre
L’Adéen, une naissance tourmentée datée de 4.55 Ga.
Planètes formées en moins de 10 Ma ? ou quelques x10 Ma ?
Le couple Terre-Lune fabriqué par capture violente d’un météore déjà différencié de la taille de Mars ?
Archéen, (3.5 Ga. A 1.7 Ga. ) une convection mantellique rapide et un géotherme élevé
l’extraction très active par fusion partielle et flottation = embryons de croûte continentale
Le début des temps modernes vers 2 Ga
Fonctionnement de la tectonique des plaques prend un rythme comparable à celui que nous observons
- 93 -
ENSM-SE, 2° A : axe transverse P N
- 94 -
16/10/12
ENSM-SE, 2° A : axe transverse P N
16/10/12
CHAPITRE 5
L’enveloppe gazeuse de la Terre
le couple atmosphère - hydrosphère
Josephine Wall
« Sadness of Gaïa »
Nous tenterons ici une description sommaire de la
sphère des vapeurs, condensées ou non, le couple
hydrosphère-atmosphère. Cependant, avant de décrire
l’atmosphère de notre planète et d’envisager son histoire,
nous devons nous interroger sur les conditions mêmes de
l'existence d'une atmosphère sur les planètes telluriques:
1 - la première condition est bien évidemment qu’elle fut
créée un jour, soit lors de l'effondrement de la
nébuleuse solaire, soit par dégazage des enveloppes
rocheuses, soit encore par bombardement cométaire;
2 - la seconde condition est que la planète concernée ait eu
une pesanteur (et donc une masse) suffisante pour
retenir une atmosphère.
A ces 2 conditions essentielles de l’existence d’une
atmosphère viennent s’ajouter d’autres considérations,
relatives à l’état de l’atmosphère, P, T° en particulier. Parmi
les principaux paramètres qui régissent l’état d’une
atmosphère, citons:
1 - la distance au soleil;
2 - l’extraction continue de volatils par le biais d’une
tectonique encore active susceptible de limiter ou
d’annuler les pertes vers le cosmos;
3 - la vitesse de rotation de la planète (ou de son
atmosphère en cas de super-rotation comme pour
Vénus 60x plus rapide que la planète elle-même) qui
limite les écarts de température jour - nuit;
4 - l’orientation de l’axe de rotation sur le plan de
l’écliptique (susceptible de variations importantes) qui
peut engendrer une durée du jour égale à la durée de la
révolution...
A - Composition de L’atmosphère Terrestre actuelle
La connaissance du champ de pression de
l’atmosphère terrestre est récente. Après le décès de Galilée,
en reprenant ses expériences non achevées sur des colonnes
d’eau, E. Torricelli mit en évidence en 1644 que le poids de
l’air maintient à niveau le mercure d’une colonne. B. Pascal
en déduisit que la pression de l’air devait décroître avec
l’altitude, ce qu’il fit mesurer en 1648 entre ClermontFerrand et le sommet du Puy de Dôme.
masse se répartit comme suit :
50% contenus dans les 5.5 premiers Km;
75%
«
« les 10
«
« ;
90%
«
« les 16
«
« ;
99%
«
« les 31
«
« .
A 200 Km de la surface terrestre, la pression n’est
plus que de 10-7mbar, et l’on peut considérer que vers 500
à 1000 Km, la densité de l’atmosphère est suffisamment
faible pour que des molécules gazeuses puissent partir
vers le cosmos sans qu’un choc avec d’autres molécules
les renvoient vers l’atmosphère. On entre là dans
l’exosphère, domaine où la physique des gaz ne
s'applique plus, et où chaque molécule se comporte
comme une particule balistique.
L’air est un mélange de gaz. Cette intuition de
Descartes fut rapidement confirmée. Auparavant, l’air
était considéré comme une substance homogène, ce qui
rendait complexe l’explication de la pluie, souvent
considérée par les anciens comme un des états possibles
de l’air.
Le tableau 1 montre que les constituants gazeux
essentiels de l’atmosphère sèche, exprimés en volume,
sont le dioxyde d’azote (78%) et le dioxygène (21%).
L’argon (0.9%) et le dioxyde de carbone (0.035%),
pourtant 3° et 4° constituants respectivement, sont déjà
très minoritaires.
Par comparaison avec la composition de
l’atmosphère des autres planètes telluriques (cf. planche
hors texte, planétologie comparée en fin d’introduction),
celle de notre hôte apparaît à la fois ordinaire par la nature
des constituants (N2, O2, Ar, CO2), et singulière par les
teneurs de ces constituants. Ces similitudes et ces
différences reflètent l’évolution particulière de notre globe
(cf. § Histoire de l’atmosphère terrestre). La comparaison
avec l'atmosphère des géantes gazeuses montre des
différences encore plus radicales. Celles-ci apparaissent
Partant du champ de pression on estime la masse de
l’atmosphère (à l’équilibre hydrostatique) à 5.13 1018 kg, ce
qui est de l’ordre de 1.10-6 de la masse Terrestre.
Si la masse volumique de l'air était constante, et si sa
répartition autour du globe était homogène, alors
l’atmosphère serait une enveloppe épaisse de 8Km environ.
Mais en fait, la masse volumique de l’air varie avec
l’altitude, et notre atmosphère n’a donc pas de limite. Sa
- 95 -
Tableau 1, composition de l’atmosphère terrestre
% volumiques
Gaz
N2
78.09
azote
O2
20.95
oxygène
Ar
0.93
Argon
0.038
Dioxyde de carbone CO2
Ne
1.8 10-3
néon
He
5.2 10-4
Helium
Kr
1.0 10-4
Krypton
H2
5.0 10-5
Hydrogène
Xe
8.0 10-6
Xénon
O3
1.0 10-6
Ozone
ENSM-SE, 2° A : axe transverse P N
en effet beaucoup plus proche de la composition de Soleil, et
donc de la nébuleuse initiale.
La composition de l'air terrestre (sec) est
suffisamment constante (malgré les variations de teneur en
CO2 en particulier) pour que l’on puisse lui attribuer une
masse molaire internationalement reconnue (M = 28.966).
La présence de produits instables (ozone au-delà de 25 Km
par exemple, ou produits azotés, NO, NO2, NO3) n’engendre
pas non plus de modifications significatives de la masse
molaire de l’air.
Toutefois, on considère que la production de
l’oxygène atomique par photodissociation pourrait provoquer
un changement de composition significatif au-delà de 80 à
100 Km. L’absence de brassage vers les très hautes altitudes,
renforcerait ce changement de composition en provoquant
une stratification de la composition, les gaz les plus légers
tendant à s'élever au-dessus des plus lourds.
La vapeur d’eau est présente en quantité très
variable dans l’atmosphère terrestre, si bien que la valeur de
sa concentration moyenne, 5400 ppm volume n’a pas grande
signification. La fourchette de teneur s’étend dans les basses
couches de l’atmosphère entre 0.1% environ dans les régions
continentales et 5% environ dans les régions océaniques
intertropicales.
On évalue à 2.5Cm seulement la hauteur d’eau
(condensée) contenue dans l’atmosphère, ce qui revient à
dire que l’essentiel de l’eau non géosphérique (i.e. contenue
dans les minéraux) est stocké dans les océans. Le réservoir
atmosphérique peut apparaître insignifiant. Pourtant il n’en
est rien, car le temps de résidence de l’eau dans le réservoir
atmosphérique est extrêmement court (quelques heures à
quelques mois) par rapport à son temps de résidence dans le
réservoir océanique (102 à 104 ans), ou a fortiori
géosphérique, et les flux entre le réservoir atmosphérique
(continental + océanique) et l‘hydrosphère sont au contraire
considérables. La figure 1 présente des estimations des
réservoirs d’eau dans le cycle de l’eau selon M.T. Chahine.
On notera que l'atmosphère assure un transfert d'eau vers le
continent de 36.1015kg/an, qui est compensé par le débit des
fleuves vers l'océan. L’imprécision sur les composants de ce
cycle est certes importante, mais cette estimation des ordres
de grandeur des réservoirs et des flux permet de confirmer
les estimations précédentes des temps de résidence de l'eau
très différents dans les divers réservoirs, de l'ordre de
quelques jours dans l'atmosphère (11/434; 4.5/71); de
1000 à 10000 ans dans l'océan (1400000/398); et 500 ans
environ dans le réservoir continental (59000/107).
La figure 1 résume les ordres de grandeur des
volumes des réservoirs d’eau, y compris géosphériques
(croûte et manteau) et les temps de résidence moyens dans
les réservoirs superficiels. L’eau océanique représente
l’essentiel de la masse de l’eau sur Terre avec 1.39 × 1021
kg, soit 0,023 % de la masse totale de la Terre. La Terre
est la seule planète de notre système où l’eau est présente
sous les 3 états, solide, liquide et gaz. Le rôle solvant de
l’eau (non solide), vis à vis du CO2 par exemple, les
grandes vitesses de diffusion en milieu non solide, et la
protection efficace qu’elle procure (à l’état liquide en
particulier) vis à vis des UV entre autres, font de l’eau
atmosphérique et hydrosphérique un des paramètres
essentiels de l’apparition de la vie sur la Terre, mais aussi
de sa pérennité
L’air contient de nombreux aérosols et grains
solides provenant de la surface terrestre, tels que des
poussières arrachées ou cendres volcaniques injectées
dans la haute atmosphère, ou des cristaux de sel(s). Les
rôles essentiels de cette fraction solide sont d’une part
d’introduire des variations dans les conditions
d’ensoleillement, et d’autre part (et surtout) d’aider à la
condensation et/ou à la congélation de la vapeur d’eau.
B - Structure thermique et chimique verticale de
l'atmosphère
Les pionniers de la recherche dans le domaine
atmosphérique, à l’articulation du XIX° et du XX° siècle
furent tout d’abord les aérostiers, dont certains, victimes
de leur curiosité, décédèrent en raison du froid et de la
raréfaction de l’air au-delà de 7500m. L’histoire retient
aussi L. Teisserenc de Bort et les “ emmêlés ” de ses
cerfs-volants avec l’administration du télégraphe, et G.
Hermite, qui mit au point les premiers ballons sondes.
Avec eux, l’ère de la mesure des paramètres
atmosphériques devenait journalière.
Fig. 1, estimation des réservoirs et des flux dans le cycle de
l’eau de la surface terrestre selon M. T. Chahine
Marine atmosphere
11.0
Rain
398
A d v e c ti o n
36
Ocean
Mixed layer 50 000
Thermocline 460 000
Abyssal
890 000
1 400 000
Terrestrial atmosphere
4.5
Evaporation
&
Transpiration
71
Evaporation
434
R iv e r s
36
land
Ice & Snow
Surface water
Underground w
Biota
16/10/12
Rain
107
43 400
360
15 300
2
59 000
Reservoirs in 10 15 kg ; Fluxes in 10 15 kg yr-1
- 96 -
Fig. 2, Structure verticale de l’atmosphère terrestre
ENSM-SE, 2° A : axe transverse P N
16/10/12
Fig. 3 : a) Spectre solaire comparé à l’émission d’un
corps noir à 5770°K (en jaune), T° de la chromosphère
b) Spectre du corps noir à 256°K,
T° d’émission de la Terre
Le spectre réel (courbe noire) montre des creux profonds,
Liés aux absorptions élémentaires de son atmosphère
A 5770°K, Il émet principalement dans le visible
0.4 à 0.7 µm et l’IR▼
Les longueurs d’onde du visible sont hors du champ
d’émission de la Terre qui, à 256°K n’émet que des IR
dans la gamme 3 à 20 µm ▼
La courbe de la température en fonction de l’altitude
(Fig. 2) permet de distinguer :
1 - La troposphère
2 - La Stratosphère
3 - La mésosphère
4 - La thermosphère
de décroître (tropopause) et se stabilise autour de -50 à 80°C. Le gradient moyen de température est de l’ordre de
-6°.Km-1. La tropopause peut être mise en évidence lors
du développement de très gros nuages d’orages dont
l’ascension vient “ buter ” sur cette couche limite; ces
nuages constituent alors une magnifique enclume.
b - Troposphère, siège de l’effet de
serre
1 - La Troposphère
a - Troposphère et phénomènes climatiques
Son épaisseur varie de 8 Km au pôle en hiver (air
froid et dense) à 16 km à l’équateur (air chaud et léger); elle
contient 75% de la masse de l’atmosphère et quasi 100%
de la vapeur d’eau. Tropos veut dire changement; la
troposphère est le siège des phénomènes météorologiques.
Elle constitue la zone convective de l'atmosphère.
La température au sol est en moyenne de +13°C.
En un point donné, elle est liée à l’ensoleillement et à la
quantité d'IR réémis par la Terre.
Anaxagore, au ~V° siècle, reprenant les écrits de
Thalès de Milet (~VII°), remarquait déjà que l’air chaud
s’élève, que les nuages se forment lorsque l’air refroidit. Il
admettait ainsi que la température s’abaisse avec l’altitude.
L’air chaud s’élève en premier lieu par décompression
adiabatique. La convection continue aussi longtemps que les
particules montantes sont plus chaudes que l’air environnant.
Lorsque la température a suffisamment baissé, la
condensation de la vapeur d’eau commence, et la chaleur
latente libérée relance la machine, accélérant ainsi
l’ascension de l’air.
Le terme “ serre ” n’a pas été judicieusement
choisi, car dans une serre, la paroi de verre joue un rôle
primordial en interdisant le transfert de chaleur vers
l’extérieur (les IR), mais pas le passage des longueurs
d’ondes visibles. La chaleur accumulée dans la serre
résulte donc essentiellement du fait que les IR émis par le
sol ou les plantes sont réfléchis par le verre, alors que
l’insolation directe traverse normalement les parois de la
serre. L’atmosphère terrestre, elle, n’a pas de couvercle, et
le mécanisme de l’effet de serre est un peu différent.
Le bilan énergétique de l’atmosphère repose
sur deux paramètres fondamentaux, sa composition (nous
y reviendrons) et la distance du soleil.
En effet, les planètes du système solaire étant en
équilibre thermodynamique (leur température moyenne
annuelle est “ constante ”), les lois du rayonnement du
corps noir, établies à la fin du XIX°, leur sont applicables,
comme elles le sont au soleil :
Au sommet de la stratosphère la température cesse
- 97 -
1 - la loi de Planck : elle exprime le fait que l’intensité
du rayonnement émis par le corps en équilibre en
fonction de sa longueur d’onde passe par un
maximum (fig. 3a cas du Soleil, 3b cas de la Terre);
ENSM-SE, 2° A : axe transverse P N
2 - la loi de Wien : elle exprime le fait que la longueur
d’onde maximale émise par le corps noir est
inversement proportionnelle à sa température
d’émission;
λmoy = 2900/T,
λ exprimé en microns et T exprimé en °K. Autrement
dit, plus un corps est chaud plus la fréquence de sa
couleur démission est élevée (Fig. 3a-b, Soleil et Terre ;
Fig. 4, principaux objets cosmiques). En effet, plus la
fréquence d’une radiation est élevée, plus son énergie
est importante.
3 - La loi de Stephan-Boltzman nous dit que pour un corps
noir de rayon R, la luminosité L (voir définition
Chp. 1A), à la température T est égale à
L = 4π
πR2 . σ T4 avec
la cte de Stephan σ = 5.67 10-8 SI (erg.s-1.cm-2/K-4).
Pour le Soleil, R = 700 000 Km, T°surface= 5770°K,
la luminosité Ls = 3.8 1026 w m-2.
On appelle “ Constante solaire ” le flux solaire Cs reçu par
une surface plane située à la distance d du Soleil,
Cs = Ls/(4π
πd2).
Cette constante solaire n’est d'ailleurs pas strictement
constante. Les mesures montrent des variations de l’ordre de
0.1% en relation avec la surface cumulée des taches solaires.
Pour la Terre, située 150 106 Km, Le flux solaire
calculé est de 1360 w m-2. Puisque l’on considère les
planètes comme des corps noirs sphériques à l’équilibre,
l’énergie qu’elles émettent est égale à celle qu’elles
reçoivent : pour une planète de rayon Rp, située à la distance
d du soleil, la température d’équilibre sera Tp et le bilan
s’écrit :
Cs* πR
πRp2 σ Tp4
π p2 = 4π
(NB. Surface réceptrice = jour = πRp2 ; surface rayonnante =
4πRp2). Le flux solaire reçu par la Terre (par unité de
surface) est donc égal à Cs/4 — soit 340 w m-2 en moyenne Cela
représente environ 10 000 fois la chaleur dissipée par les
enveloppes rocheuses par unité de surface! — et le flux rayonné
par la Terre à la température TT , appelé émittance (voir
définition Chp. 1A), est de la forme
Fig 4 : Relation couleur-température du corps noir, d’après J.Y.
Daniel 1991; Rayonnement à 2°K, fossile du Big Bang.
Etoiles : Betelgeuse, rouge ; Soleil, Jaune. Cyg X1 Rayonnement
X de la constellation du Cygne, trou noir potentiel.
16/10/12
σ TT4
L’atmosphère et la surface terrestre
réfléchissent vers l’espace respectivement 87 W.m-2 et 21
W.m-2 =108 W.m-2 soit 31% de l’énergie reçue (Fig. 6).
Cette fraction de l’énergie renvoyée vers l’extérieur
définit l’albédo α de la planète (=0.3) 35,. Les meilleurs
réflecteurs sont les corps blancs ou clairs, les nuages, la
neige et la plupart des sols dépourvus de végétation. On
perçoit ici l’effet rétroactif d’un changement climatique
éventuel (variation de la surface réfléchissante des calottes
glaciaires) ou de la déforestation.
Connaissant l’albédo de la Terre (α
α), on peut en
déduire que la valeur du flux qu’elle reçoit réellement
vaut
Cs/4 (1 – α) = 340 *0.7 = 238 w m-2
et le bilan radiatif de la Terre s’écrit
schématiquement :
Flux reçu Cs/4 (1 – α) = σ.T4 Flux émis
TT= [(238/ σ]-4= [(238/ 5.67 ]-4 102 =254.7°K
soit -18.3°C.
A cette T° d’équilibre, la Terre émet
essentiellement dans le domaine des IR, en 5 et 50 µm
(Fig. 3b)
La différence entre sa température d’équilibre
théorique (-18°c) et sa température moyenne (+13°c)
impose que la Terre tire de l'énergie d’une autre source.
L’énergie interne dissipée par la Terre (Chp. 1) est très
insuffisante pour justifier une telle différence, la source
d’énergie réside donc nécessairement dans son
atmosphère. Il convient toutefois de rester prudent, pour
plusieurs raisons :
Le calcul de la température d’équilibre présenté ici
est un modèle largement utilisé, quoique très simplifié.
Nous avons raisonné à partir d’un flux que recevrait un
disque perpendiculaire au flux, et non une demi-sphère
exposée au flux. La quantité totale reçue calculée est donc
bien satisfaisante, mais ensuite nous calculons une
température moyenne comme la racine (quatrième !) de ce
flux moyen, alors qu’il serait plus rigoureux de sommer
les températures calculées en chaque point de la demisphère exposée, en fonction du flux réel reçu par chaque
surface unitaire non perpendiculaire au flux sauf sur le
plan de l’écliptique. Par ailleurs, il n’est pas tenu compte
de la rotation terrestre, ni de l’inclinaison de son axe et de
l’excentricité de la révolution terrestre. En résumé, notons
que cette valeur de -18°C n’est pas exacte mais qu’elle
35
Dans le détail, le problème est plus complexe car
l’albédo de l’atmosphère αa et celui de la géosphère αg
sont différents : l’atmosphère laisse passer le visible ou le
réfléchit vers le cosmos, et absorbe la moitié des infra
rouges (IR) qu’elle renvoie ensuite vers le cosmos ; le sol
réfléchit ou absorbe le visible, et il absorbe tous les IR qui
lui sont transmis par l’atmosphère. Si on appelle Irabs le
coefficient d’absorption des IR par l’atmosphère, la
fraction de flux IR absorbée par la Terre (qui participe au
flux émis par la Terre) est de la forme Irabs/2 α Tt4.
L’énergie totale réellement reçue par la Terre serait donc
de la forme C* πRp2 (1 – αa) (1 – αg) + Irabs/2 α Tt4.
- 98 -
ENSM-SE, 2° A : axe transverse P N
suffit à notre propos.
Nous avons vu qu’une partie du rayonnement est
directement réfléchie par le globe terrestre (albédo) et
que ce phénomène est compliqué par des absorptions
dans l’atmosphère (note infrapaginale page précédente).
Les absorptions de rayonnement sont principalement le
fait des molécules qui constituent l’atmosphère.
L'absorption du rayonnement provoque la transition
d'un atome ou d'une molécule d'un état d'énergie stable
vers un état d'énergie plus élevé (excité) sous l'action
d'un photon incident d'énergie hν. Pour que l'absorption
ait lieu il faut donc que le quantum d'énergie hν
corresponde à la différence entre deux niveaux permis
par les règles de la mécanique quantique: c'est ce que
l'on appelle une raie d'absorption (Fig. 5). En revenant à
son niveau d'énergie initial, soit directement, soit par
étapes, la matière émettra à son tour un rayonnement de
même énergie. Les principaux absorbants qui jouent un
rôle dans l'énergétique de l'atmosphère sont des
molécules gazeuses triatomiques: vapeur d'eau (H2O),
dioxyde de carbone (CO2), ozone (O3).Ces molécules
ont un spectre énergétique beaucoup plus riche que
celui des molécules diatomiques (O2, N2, H2) qui
absorbent peu le rayonnement solaire ou terrestre. En
outre, les molécules poly atomiques (CH4, CFC) ont un
pouvoir absorbant très élevé : on appelle « gaz à effet
de serre » (GES) les gaz fortement absorbants.
16/10/12
Fig. 5: Spectre des raies d'absorption des gaz atmosphériques
En rouge : le domaine des λ courtes reçues du Soleil
En bleu : le domaine des λ longues émises par la terre
Le spectre du rayonnement solaire est
caractérisé par des longueurs d’ondes courtes, dans la
gamme 0.1 à 5 µm couvrant le domaine des UV, du
visible et un peu les IR ; l’essentiel du rayonnement est
compris en 0.3 et 1.5µm (Fig. 3a, et 5). Dans ce
domaine de longueurs d’onde, il n’y a pas d’autres raies
d’absorption de gaz atmosphériques autres que celles
de l’eau, tant dans la basse atmosphère (troposphère)
qu’en altitude (fig. 5). Il s’ensuit donc une absorption
minimale du flux solaire, et ces absorptions ne sont pas
totales. Dans le domaine 1.5-5µm, le CO2et le méthane
sont présents, mais dans un domaine de très faible
intensité du flux solaire. Par contre, dans la bande
spectrale de l’émission du corps noir terrestre, 5-50µm,
le nombre des raies des gaz atmosphériques est
beaucoup plus important, et leur capacité d’absorption
devient très importante, en particulier dans les couches
basses et denses de l’atmosphère (Fig. 5) où seules trois
bandes d’énergies ne sont pas totalement absorbées,
ouvrant autant de fenêtres ouvertes vers le cosmos :
1 - 8-9 µm;
2 - 10-14 µm;
3 - 18-30 µm.
Plusieurs faits importants sont à noter:
bleu pâle, les domaines d’absorption totale pour H2O
mauve, les domaines d’absorption totale pour CO2
vert, les domaines d’absorption pour CH4
brun, les domaines d’absorption pour O2 et O3
1 - L’absorption d’une longueur d’onde λ donnée par un
GES donné est fonction de la concentration en ce GES
dans l’atmosphère, jusqu’à une concentration limite
correspondant à l’absorption totale de cette λ ; au-delà,
la largeur de la bande d’absorption s’élargit légèrement
mais une augmentation de la concentration n’aura
qu’un effet mineur, l’ensemble des photons de cette λ
étant déjà absorbés par l’atmosphère.
2 - Dans le domaine de l'émission terrestre (5-50 µm;
Fig. 3b et 5), les fréquences absorbées par H2O (en
- 99 -
bleu pâle) le sont à 100%; une augmentation de la
teneur en eau de l'atmosphère serait donc sans
répercutions sur l'effet de serre pour ces λ. En outre
l'atmosphère terrestre est globalement proche de la
saturation en H2O. Il n’y a pas grand chose à
redouter d’une augmentation de la teneur en eau.
3 - Le CO2 (en violet) peut par contre absorber encore
une part importante du rayonnement IR dans la
fenêtre 12-16 µm, dans la troposphère en particulier.
Une augmentation de sa teneur dans l'atmosphère se
traduit donc automatiquement par un accroissement
de l'effet de serre. La concentration en CO2 étant
naturellement très basse, l’activité humaine (CO2
d’origine industrielle, de chauffage, transport)
modifie significativement sa teneur et provoque
ENSM-SE, 2° A : axe transverse P N
16/10/12
nécessairement un accroissement de l’effet de serre.
Pour l’essentiel de la communauté scientifique, les
effets du CO2 anthropique sont maintenant considérés
comme indiscutables, même s’il existe encore ici ou là
quelques chercheurs arcboutés sur leurs observations,
rebelles face à ce consensus, nous y reviendrons.
la photodissociation de l’oxygène dans le
processus de fabrication de l’ozone ; cette chaleur
est restituée à terme par l’atmosphère, dans toutes
les directions. De la sorte, on peut admettre
qu’une ½ est renvoyée vers le cosmos et l’autre
½ est transmise à la surface du globe (Fig. 6b) ;
4 - Le CH4 (en vert) peut lui aussi absorber une part
importante du rayonnement IR dans la fenêtre 8-10 µm.
Le méthane est un produit qui provient naturellement
de la décomposition de matières organiques dans des
conditions réductrices (c'est le gaz des marais et des
terrains humides 1.5 à 3 G.Tonnes/an). Il voit sa
concentration
augmenter
fortement
avec
l'accroissement des surfaces consacrées à la riziculture
(actuellement 2 à 3.5 G.T/an), et aussi (même si ceci
peut apparaître plus anecdotique) avec l'augmentation
du cheptel ruminant, dont la fermentation entérique est
un producteur important de CH4 (1G.T/an!). Son effet
ne peut donc que se surajouter à celui du CO2, nous
aurons donc à y revenir.
2 - Une partie est réfléchie, 108 W.m-2 (albédo #30%),
par l’atmosphère ou par la surface du globe, sans
absorption par l’atmosphère transparent pour ces
longueurs d’ondes, comme suit:
5 - L’O3 troposphérique (en jaune brun dans la figure 5, le
pic à basse altitude est légèrement décalé vers la droite
et n’est pas superposé au tireté brun, …imprécision de
la figure origine) pose un problème comparable à celui
de l’eau, la bande 10-12µm étant d’ores et déjà presque
totalement absorbée. D'origine anthropique elle aussi,
l’ozone troposphérique reste limitée aux bassins
industriels et aux mégalopoles. Il en résulte une
augmentation locale de la température, mais qui restera
faible. Son inconvénient majeur n’est donc pas un
accroissement important de l’effet de serre il mais
réside dans son impact sur la santé humaine, en raison
de l’irritation des voies respiratoires qu’elle provoque.
En conclusion, c’est donc une fraction importante de
l’énergie émise par le corps noir terrestre qui est ainsi
absorbée par l’atmosphère. Cette énergie ne peut être
rétrocédée qu’avec retard au cosmos. Il s’ensuit l’instauration
d’un équilibre dynamique conduisant à une élévation de la
température de –18°C à +13°C : c'est cela que l'on nomme
«effet de serre».
a) 87 W.m-2 sont renvoyés par l’atmosphère et les
nuages ;
b) 21 W.m-2 sont renvoyés par le sol terrestre.
La valeur mesurée du rayonnement émis par la surface
terrestre est de 390 W.m-2 (en rouge dans la figure 6a) ; à
la température de -18°C ce rayonnement se situe
exclusivement dans les IR. D’après ces valeurs tirées de
Ramanathan et al., la surface du globe dégage donc un
excédent de chaleur par rapport à ce qu’elle reçoit
directement du Soleil et indirectement de l’atmosphère,
excès que l’on peut estimer à 390 -169 -(68/2) = 187
W.m-2. D’où provient-il ?
Considérons que les 169 W.m-2 transmis par le
Soleil à la surface du globe y sont totalement convertis en
IR, réémis vers notre atmosphère. Selon Ramanathan et
al., 20 W.m-2 sont perdus directement dans le cosmos et
le reste, 149 W.m-2, est absorbé par l’atmosphère. En
effet, si celui-ci est largement transparent aux UV et au
visible incidents, il ne l’est que faiblement aux IR36.
Comme dans le cas des 68 W.m-2 cédés par le
rayonnement Solaire incident, cet excédent de 149 W m-2
rétrocédé à l’atmosphère sera perdu à terme par celle-ci,
Fig. 6b: L’effet de serre, représentation simplifiée
Reprenons en détail le schéma de bilan énergétique
terrestre de Ramanathan et al. (Fig. 6a).
Sur les 345 W.m-2 reçus par la Terre dans les UV,
le visible et le proche IR, ce sont finalement 169 W.m-2
seulement qui sont absorbés par la surface du sol :
-2
1 - Une partie de l’irradiation directe, 68 W.m , est
absorbée par l’atmosphère dans les nuages et lors de
Fig. 6: L’effet de serre d’après Ramanathan et al
pour ½ vers le cosmos, et pour ½ renvoyé vers la surface ;
cette dernière fraction sera à son tour réinjectée vers
l’atmosphère où elle subira le même sort, rendant ¼ au
cosmos et ¼ au globe, puis ⅛, etc. (voir représentation
simplifiée Fig. 6b) ; l’ensemble tend vers un excédent
total à l’équilibre de 149 W.m-2 venant de la surface
terrestre, plus 34 W.m-2 issus de la fraction incidente
cédée à l’atmosphère, soit 183 W.m-2 , un total voisin de
l’excès de 187 W.m-2 que nous avons estimé à partir de
Ramanathan et al.
Un simple bilan entre la chaleur incidente entrant
dans le système Terre + atmosphère (= 345 -108 = 237
W.m-2) et la chaleur émise vers le cosmos par le même
36
Sur le total de 390 W m-2 émis par la surface du globe
(dans les IR) 20 sont transmis au cosmos ; l’opacité de
l’atmosphère aux IR est donc de 370/390*100 = 95%.
- 100 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
système ( = 149 +68 +20 = 237 nous montre que ce schéma Tableau 2 : Potentiel de réchauffement planétaire (PRP) et
de fonctionnement très approximatif est néanmoins suffisant. durée de vie dans l'atmosphère des gaz à effet de serre (GES)
http://www.ec.gc.ca/pdb/ghg/inventory_report/2003_report/c1_f.cfm
L’excédent permanent de 187 W m-2 à l’équilibre http://www.riaed.net/spip.php?article448
Formule
que nous explicitons ainsi ne correspond qu’à la fraction GES
rayonnement intervenant dans le bilan terrestre. Selon
CO2
Dioxyde de carbone
Ramanathan et al., il faut ajouter à cette fraction les Vapeur d’eau
H2O
contributions liées aux transferts de chaleur latente et de Méthane
CH4
N2O
chaleur sensible traversant l’interface entre le globe Oxyde nitreux
(continents-océans) et l’atmosphère :
Hydro fluorocarbures (HFC)
1 - 90 W m-2 de flux de chaleur latente ; pour les
auteurs, les changements d’état de l’eau dans le
champ de gravité jouent un rôle prépondérant dans
le transfert de chaleur entre la surface terrestre et
l’atmosphère ; L’évaporation de l’eau contenue dans
le sol permet de transférer un excédent de chaleur de
la surface terrestre (géosphère ou hydrosphère) vers
l’atmosphère, et inversement, la condensation ou la
congélation (plus la gravité ici aussi), sont le moteur
du transfert de chaleur de l’atmosphère vers la
surface. Les flux de chaleur latente sont
particulièrement forts au-dessus des courants marins
chauds comme le Gulf Stream et au-dessus des
forêts tropicales humides, couplant les cycles
d’énergie et d’eau.
2 - 16 W m-2 de chaleur sensible ; pour les auteurs, les
échanges de chaleur sans changement de phase entre
la surface du globe et l’atmosphère au sein du
système Terre est donc significatif ; les flux de
chaleur sensible sont importants au-dessus de terres
arides, où l’eau (exclusivement vapeur) transfère en
convectant de la chaleur à travers l’interface, aidant
ainsi à réguler la température des deux réservoirs.
On peut donc évaluer à 187 +90 +16 = 293 W m-2 la chaleur
qui est cédée temporairement à l'atmosphère. L’équilibre
dynamique ainsi obtenu correspond à ce que nous nommons
effet de serre.
c – Réchauffement climatique ou « global
warming ».
Toutes les fenêtres d’énergie ouvertes vers le cosmos
n’étant pas entièrement saturées par les GES, on comprend
que les climatologues recherchent parmi ceux-là les
responsables du changement climatique observé de nos jours,
en corrélation avec les variations de leurs concentrations
mesurées dans l’atmosphère.
La démarche écologique apparue au sein des pays
industrialisés durant les dernières décennies et l’ouverture au
monde de l’ensemble des populations, en particulier grâce au
racourcissement des tremps de transport, sont concomitantes.
En effet les antipodes longtemps distants de plusieurs mois
de navigation sont maintenant à peine éloignés de 24h de vol.
Ce lointain inaccessible, juqu’alors présent seulement dans
nos livres, est devenu en quelques années une partie de notre
réalité quotidienne. Parallèlement, l’immensité du monde est
devenue jardin et le cultivateur cueilleur chasseur pêcheur
que nous sommes encore a réalisé que la ressource n’est pas
inépuisable.
L’impact longtemps ignoré de l’industrialisation de
nos activités, source de notre bien-être, nous est devenu
évident, questionnant en retour l’immense bond
HFC-23
HFC-32
HFC-41
HFC-43-10mee
HFC-125
HFC-134
HFC-134a
HFC-143
HFC-143a
HFC-152a
HFC-227ea
HFC-236fa
HFC-245ca
CHF3
CH2F2
CH3F
C5H2F10
C2HF5
C2H2F4
C2H2F4
C2H3F3
C2H3F3
C2H4F2
C3HF7
C3H2F6
C3H3F5
Hydrocarbures perfluorés (HPF)
Perfluorométhane
CF4
Perfluoroéthane
C2F6
Perfluoropropane
C3F8
Perfluorobutane
C4F10
Perfluorocyclobutane
c-C4F8
Perfluoropentane
C5F12
Perfluorohexane
C6F14
PRP
1
8
21
310
Durée de vie
dans l'atmosphère
Variable 50-200
1 semaine
12 ± 3
120
11 700
650
150
1 300
2 800
1 000
1 300
300
3 800
140
2 900
6 300
560
264
6
4
17
33
11
15
2
4
48
37
209
7
6 500
9 200
7 000
7 000
8 700
7 500
7 400
50 000
10 000
2 600
2 600
3 200
4 100
3 200
technologique et scientifique opéré durant les XIX° et
XX° siècle. Ainsi donc Science et Technique qui
mettaient notre planète au creux de notre main étaient en
quelque sorte irrespectueuses de notre devenir ? A refuser
de nous considérer comme partie intégrante de la nature,
nous n’avons pas voulu voir l’effet, si positif pour nous,
du développement de notre mode de vie sur notre planète.
Et puisqu’il fut « visiblement positif » pour les pays
industrialisés, comment ne servirait-il pas de modèle à
tous ceux qui n’ont bénéficié à ce jour que du loisir de
nous observer ? La mondialisation des échanges et des
matières, le déplacement des usines du monde depuis
quelques décennies (2, 3 ?), sont en train de nous montrer
la nécessité d’une gestion coordonnée des besoins, des
ressources, des produits et des déchets. L’eau en est
l’exemple type qui, parce que vitale, nécessitera la mise
en œuvre d’un droit d’accès pour tous, parce
qu’universelle (climatologie à l’échelle des continents,
bassins versants transfrontières etc.) exigera une gestion
commune et une protection partagée. La prise de
conscience de la finitude de notre planète et de ses
ressources est douloureuse, nos habitudes de fragmenter
l’information pour aborder les problèmes par spécialités
sont très ancrées, notre propention à dénoncer le bouc
émissaire est intacte, au point que même si l’analyse
systémique des milieux permet d’entrevoir différents
modèles prometteurs de « développement soutenable »,
l’évidente causalité humaine des dégats engendrés sur les
espaces dits « naturels » peut engendrer des peurs
irrationnelles que nous chercherons ici à éviter.
Ainsi, sur la très médiatique question du
changement climatique, la causalité humaine est
maintenant très généralement considérée comme
entendue. Malgré la complexité des processus mis en
œuvre et une méconaissance encore très importante de
notre atmosphère, le coupable est, pour un grand nombre
- 101 -
ENSM-SE, 2° A : axe transverse P N
de climatologues, le relargage inconsidéré des GES.
Mais la géologie, qui nous renseigne sur le
passé de la Terre, nous informe que le climat terrestre à
toujours varié et donc qu’il faut se garder de penser
qu’il aurait existé un point climatique d’équilibre dont
nous serions en train de nous éloigner ! Elle nous
renseigne sur les variations majeures subies par notre
planète (Chp 5.F) et enregistre bien les phénomènes
périodiques jusqu’à une périodicité pluricentenale.
Pour les oscillations plus courtes, la géologie devient
déficiente, sauf exception telles que l’enregistrement
annuel des variations sédimentaires dans les varves37.
Fig. 7 : évolution de la teneur en CO2 et de la Température de
l'air depuis 400 000 ans; les mesures ont été effectuées dans une
carotte de glace de l'antarctique (Vostok)
La climatologie prend alors le relai, mais
n’oublions pas qu’avant les observations satellitaires
(environ 20 ans en matière de climatologie) notre
méconnaissance des espaces océaniques était quasitotale. N’oublions pas non plus que nombre de
phénomènes océano-atmosphériques présentent des
périodes longues, souvent pluridécénales, voire
pluricentenales. La mesure rigoureuse des nombreux
paramètres mis en œuvre, à l’échelle des processus mis en
jeu (celle de la planète, via les satellites), couvre donc
seulement quelques périodes des cycles les plus rapides, et
pour beaucoup seulement une petite partie des cycles
pluridécennaux. En outre, nombre de phénomènes encore
mal compris ne sont probablement pas pris en compte
comme il conviendrait. Il en est ainsi de la formation des
nuages et du rôle joué par le rayonnement cosmique dans la
condensation, nous y reviendrons. Certes, nos computeurs de
plus en plus efficaces sont capables de reconstruire le passé
récent que nous avons échantillonné. C’est bien le moins que
l’on peut attendre de modèles créés à partir de ce dernier.
Mais qu’en est-il de leur valeur prédictive, puisque leur
validation ne devrait être effective en principe qu’au-delà de
plusieurs cycles observés et correctement modélisés ? Dès
lors faut-il sans doute rester prudent et considérer que même
si toute une communauté scientifique établit à partir des
mêmes données des modèles cohérents entre eux, il peut être
prématuré de parler de consensus scientifique ? Un seul fait,
observé en un seul lieu par un seul scientifique, peut suffire à
mettre à bas une théorie, s’il s’avère être incontournable,
correctement observé et interprété.
Force est donc de reposer ici cette question. Comment
le climat a-t-il évolué ? Cette évolution est-elle synchrone de
l’industrialisation (depuis1850) ? L’évolution des marqueurs
du climat est-elle conforme à celle des GES, le CO2 en
particulier, mais aussi les autres gaz dont l’eau (de loin la
plus abondante) et ceux, beaucoup moins abondants mais
dont le rôle peut aussi être primordial en raison de leur fort
pouvoir de réchauffement (tableau 2).
Rappelons la concentration en vapeur d’eau, même si
cette valeur moyenne n’a pas grande signification car, nous
l’avons souligné, cette concentration varie beaucoup d’un
point à un autre ; elle est de 5400 ppmV. Celle du CO2 atteint
maintenant 380 ppmv. En termes de potentiel de
réchauffement planétaire (tableau 2) le CO2 représente donc
environ 1% de celui de la vapeur d’eau. Celui du CH4,
37
16/10/12
Les varves sont des dépôts sédimentaires laminaires très
fins, où chaque lamine correspond à une alternance de deux
termes, un dépôt d’été et un dépôt d’hiver
présent en moyenne à 1.8 ppmv dans notre atmosphère en
représente environ 0.1%, et celui de N2O (0.32 ppmv)
environ 0.2%. L’effet de serre responsable de la
température moyenne terrestre de 13°C calculée
précédemment (Chp 5.B.1.b) trouve donc bien son
origine, très majoritairement, dans la vapeur d’eau
atmosphérique.
Le fait que la covariation de la température
moyenne avec la concentration en CO2 soit globalement
évidente est considéré de nos jours comme la preuve que
le CO2 anthropique est la cause principale de
l’augmentation de la température terrestre. Les
paléoclimatologues ont montré depuis environ 15 ans que
des évolutions climatiques majeures se sont produites bien
avant l'ère industrielle ; les courbes d’évolution (e.g. J.R.
Petit et al. 1999, Fig. 7) sont caractéristiques. Le climat
terrestre, enregistré par la composition des glaces de
l’inlandsis (rapport 18O/16O retranscrit en évolution des
températures) et celle des bulles d’air piégées
(concentration en CO2), apparaît cyclique à l’échelle de la
centaine de milliers d’années (cf. § F4b, ce chapitre). On
observera aisément dans la figure 7 la covariation de la
température et le CO2, elle est remarquable à cette échelle,
comme le montre la superposition de la courbe du CO2
(tireté rouge) sur celle des températures (en bleu). Lorsque
l’on entre dans un interglaciaire, la remontée de la
température et l’augmentation du CO2 atmosphérique
sont très clairement corrélées. Par contre les chutes de la
température du début des périodes froides sont beaucoup
plus rapides que les diminutions de la concentration en
CO2. Le retard à la baisse du CO2, qui apparaît être d’au
moins 10000 à 20000 ans, contraste avec la quasi
simultanéité
des
deux
phénomènes
lors
des
réchauffements. Toutefois, et ce point est essentiel, ces
covariations lors du réchauffement sont elles aussi non
synchrones. L’augmentation de la température précède
l’augmentation de teneur en CO2 ; le décalage est à
peu près constant, de quelques centaines d’années
(moins de 1000 ans ; Nicolas Caillon et al 2003). Ce
phénomène n’est pas observable à l’échelle de la figure 7).
Lors de ces paléovariations, la teneur en CO2 de
l’atmosphère a donc été le corollaire et non la cause de
l’augmentation de la température ; mais cela ne signifie
pas que l’inverse soit impossible, ce qui se passerait
- 102 -
ENSM-SE, 2° A : axe transverse P N
Fig. 8a : variation de la teneur en CO2 pour les 20 000 ans BP,
1) d’après le rapport du GIEC 2007, données Antarctic (violet) et
actuelles (vert puis rouge) ; report des limites ci-dessous (vert)
2) Données NOAA GISP2 Groenland (vert) et Antarctic (rouge).
actuellement38. Le même diachronisme températureteneur existe aussi pour le méthane (CH4) dans les glaces.
L’augmentation en CH4 de l’atmosphère avec le
réchauffement à la fin des périodes froides est attribuée à la
fonte du permafrost. Lors des épisodes de refroidissement et
de gel du sous-sol, le stockage cryosphérique du dioxyde de
carbone et du méthane serait un processus beaucoup plus
progressif.
sols de la planète. Par conséquent, la fonte du pergélisol
(autre nom du permafrost) par augmentation de l’effet de
serre pourrait être suivie d’émissions à grande échelle de
méthane ou de dioxyde de carbone, provoquant un
feedback positif sur les températures. Dans les scénarios
plus ou moins catastrophiques que l’on nous promet, de
telles émissions pourraient être supérieures à celles
produites par les carburants fossiles.
Les différences essentielles qui accompagnent
l’évolution de l’atmosphère actuelle par rapport à celle de
l’atmosphère ancienne résident donc d’abord i) dans le fait
que l’augmentation actuelle de la température est
considérée comme induite par celle de la concentration en
GES et ii) dans le fait que les deux phénomènes sont quasi
synchrones à l’échelle de l’activité humaine. Elles résident
ensuite dans l’amplitude des variations ; d’après les
mesures effectuées dans les glaces de l’Antarctique et du
Groenland, on dit souvent que les valeurs maximales
« naturelles » de CO2 n’avaient jamais dépassé 300-320
ppmv (Fig. 7 et 8a-2), valeur que nous avons atteinte en
1900 sur la courbe de la figure 12 (p. 96) et que nous
avons largement dépassées depuis. Aussi, la
concentration actuelle en CO2 dans l’atmosphère de
370-380 ppmv a-t-elle été souvent considérée comme le
témoin irréfutable de l’impact de l’activité humaine. La
concomitance de cette ultime et brutale variation avec
l’ère industrielle (environ 200 ppm) est indubitable (Fig.
8a-1)
Dire que cette valeur n’a jamais été dépassée
mérite néanmoins d’être nuancé :
1 - Concernant la période industrielle, nombre de voix
discordantes se font entendre ; prenons pour
exemple
E.G. Beck, 2007 (cf. fig. 12), qui
considère que les courbes d’évolution du CO2
atmosphérique sont insuffisamment renseignées
par l’étude des glaces (e.g. Fig. 8a1), et qu’il faut
prendre en compte l’ensemble des données
historiques fiables. Ainsi, les données sur les
glaces du Groenland (GISP2) sont certes moins
complètes que celle tirées des glaces de
l’Antarctique (Vostok) mais elles montrent que
dans la période 10000 à 12000 ans BP, la teneur en
CO2 de l’atmosphère a atteint plusieurs fois 320325 ppm, ce qui correspond dans l’augmentation
moderne du CO2 à la teneur atteinte aux environs
de 1970 dans la figure 12, et à quasiment 1W. m-2
en terme de contribution de chaleur (« radiative
forcing » dans la figure 8a-1) par rapport à l’état
pré-industriel, c'est-à-dire environ ⅔ du
réchauffement climatique attribué à notre espèce.
Actuellement, le sol gelé des hautes latitudes de
Sibérie et d’Alaska contiendrait encore 30% (ou plus, sous
forme d’hydrates de gaz) de tout le carbone stocké dans les
38
Revenant à la figure 7, qui analyse les fluctuations préhumaines du CO2 et de la température. On note qu’à une
amplitude de variation thermique de 10°C correspond une
variation de la concentration en CO2 de 100 ppmv. Cette
amplitude de la variation de température en fonction de celle
du CO2 est dont très au-delà de l’actuelle, dont le rapport du
GIEC38 estime que pour le XX° siècle elle est de +0.6°C
pour un accroissement en CO2 du même ordre de grandeur,
100 ppmv. Force est donc de constater que la réponse du
climat actuel à notre injection massive de GES durant le XX°
siècle est considérablement plus faible que ce que les
archives des glaces polaires ont enregistré. La cause ne peut
en être le temps d’homogénéisation de l’atmosphère
puisqu’il y aurait plus d’un ½ siècle entre le début de
l’injection massive de CO2 et la réponse de l’atmosphère.
L’écart à la linéarité entre ces 2 paramètres est-il si important
qu’il signifie que l’on va vers une asymptote de température?
Pour quelle raison? La figure 5 suggère que, dans la gamme
des longueurs d’ondes émises par la Terre, les raies
d’absorption du CO2 ne sont pas complètement « bouchées »
mais que l’on s’en approche… Est-ce suffisant ?
16/10/12
Fig.8b : RCO2 = Rapport des teneurs de CO2 avec le niveau
de concentration de1900
- 103 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
2 - Concernant toute l’histoire de la Terre
Fig. 9 : Température de l’Océan et Concentration en CO2 dans l’atmosphère
(Fig. 8b), depuis l’explosion de la vie
depuis 65 Ma, in IPCC AR4 Chp 6, Fig. 6.1
(600 Ma., début du Primaire) jusqu’à la
deuxième partie du tertiaire, les
paléoclimatologues ont montré que
l’atmosphère terrestre a connu des
teneurs en CO2 beaucoup plus élevées
que de nos jours (Fig. 8b) qui
apparaissent difficilement corrélables
aux températures et aux niveaux des
océans. En effet, au début du Primaire,
lors de l’explosion de la vie
Cambrienne et de sa diversification, la
teneur en CO2 de l’atmosphère était 20
fois supérieure à la concentration
actuelle. Elle l’était 5 fois seulement au
Crétacé, pour des températures de 910°C de plus qu’aujourd’hui (Scortese
et Mc Kerrow, ou S. Manoliu et M.
Rotaru Fig.75). Arrêtons nous sur les
derniers 100 Ma. Le climat terrestre a
considérablement changé durant cette
période. On se situe jusqu’à la fin du
Paléocène dans une période de
température décroissante mais encore
chaude, sans incidence notable de
l’accident à 65Ma de la météorite de
Chixculub, responsable de la crise du
vivant entre crétacé et Tertiaire. Durant
cette période, le continent indien s’est
détaché et remonte vers le Nord, créant
l’océan indien, et progressivement le
bloc Antarctique-Australie prend une
position
quasi
polaire.
Avec
l’Oligocène, on entre dans la période
froide, marquée par l’existence de
calottes polaires. Dans la figure 9,
issue de IPCC 2010, sont représentées
ii) 330à 270, la plus longue, et iii) les 30 derniers
la teneur en CO2 et l’étendue des glaciations d’après
Ma.
Concernant
cette dernière période, Y.
Crowley 1998 (exprimée en latitude, en bleu) pour les
Lagabrielle
et
al.
2009
ont mis en évidence le rôle
derniers 400 Ma. La teneur en CO2 est représentée
de
l’isolement
progressif
du continent Antarctique
pour différents proxies compilés par Royer 2006, et
et sa migration vers le pôle (ouverture du passage
l’on y retrouve (en vert) le domaine plausible (en rose
de Drake entre 43 et 10 Ma, §E5, Fig. 53a) dans la
dans la figure 8b) tiré du modèle GEOCARB III39 de
dernière entrée en glaciation de la Terre (Fig. 53b).
Berner et Kothavala (2001).
La chute de la
température, d’abord douce durant l’Oligocène,
Dans les figures 7 et 9, la température n’est pas
devient abrupte à 33.7 Ma. Cette transition est appelée
mesurée
directement mais monitorée par des proxies, mot
« Eocène-Oligocène Boundary » (EOB). Elle est
anglais
utilisé
pour qualifier des variables capables de
accompagnée d’une diminution très importante de la
donner
l’image
d’une autre variable dont la mesure directe
concentration atmosphérique en CO2. Une fois encore,
est
impossible.
Par exemple, on utilise le rapport 18O/16O
un diachronisme léger apparaît entre la cassure (Fig.
18
9, tireté violet) de la courbe de la température et celle (δ O) de la glace, parce qu’il est largement dépendant de
de la courbe du CO2 la plus précise, celle du la température qui règne au moment de la formation de la
phytoplancton (Fig. 9, tireté bleu). Notez aussi que la glace. Le fonctionnement de ce proxi est le suivant
(Fig. 10a). Nous avons vu (Chp. 2.C.2) que le rapport
présence de calottes glaciaires, banquises ou inlandsis, 18
O/16O est fractionné significativement lors de
n’est pas une constante de l’histoire de la Terre. Au
contraire, les périodes sans glaces polaires ont été l'évaporation et de la précipitation; l’isotope léger étant
nettement plus longues que les 3 périodes présentant favorisé dans l’état gazeux. L'eau du réservoir
se trouve ainsi déprimée en isotopes lourds
des pôles englacés, i) quelques Ma autour de 350 Ma, atmosphérique
18
18
O et D (δ O et δD <0, Fig. 10a) par rapport à l'eau du
réservoir océanique, et l'eau de pluie (ou la neige) est
enrichie en isotopes lourds par rapport à l'eau
39
Notez que la représentation IPCC de GEOCARB III, atmosphérique. Avec le transport de l'air à travers les
limitée à 400 Ma, ampute celle-là de valeurs plausibles des cellules convectives (Hadley, Ferrel, et cellule polaire, cf.
concentrations en CO2 les plus hautes jamais atteintes sur § 5.D) et les précipitations successives qu'il peut subir
terre.
- 104 -
ENSM-SE, 2° A : axe transverse P N
Fig. 10a : Effet des precipitation sur les valeurs de δ H et
δ18O (based on Hoefs 1997 and Coplen et al. 2000)
16/10/12
2
http://www.sahra.arizona.edu/programs/isotopes/oxygen.html
pendant son transport, l’air évaporé sous les basses latitudes
voit ainsi son rapport 18O/16O décroître en remontant vers le
nord (Fig. 10b). Vient s’ajouter l’effet de la température de
l’atmosphère, qui exerce un contrôle très fort sur la
composition isotopique de l’eau de pluie. Avec
l’augmentation de la température, les précipitations
s’enrichissent linéairement (0.5‰ par C° pour d18O) en
isotopes lourds 18O et 2H (D) par rapport aux léger 16O et 1H
(Fig. 10c). Lorsqu’il atteint une latitude suffisamment haute,
cet air précipite finalement en neige et constitue un réservoir
solide (apparenté à la géosphère) aux propriétés isotopiques
très différentes de celles de l'océan au dessus duquel il s’était
évaporé. Durant les périodes glaciaires, le stockage d'un
énorme volume de glace provoque en corollaire un
enrichissement de l'eau océanique en 18O par rapport à 16O.
Inversement pendant les périodes chaudes, un déstockage de
16
O a lieu.
Dans le cas de mesures faites à partir de sédiments, le
proxi δ18O utilisé est celui de la mesure sur des coquilles
fossilisées. Les organismes tirant leur coquille du réservoir
océanique, on considère qu’il s’agit d’un processus de
fractionnement d’équilibre chimique (cf. Chp. 2.C.2.a). La
valeur recherchée étant celle de la température de surface de
la mer à l’époque de la construction de ces coquilles, on
utilise surtout les espèces planctoniques pélagiques (vivant à
la surface loin des côtes) et on élimine les espèces benthiques
(vivant sur le fond) qui donneraient la température du fond
de l’océan au moment considéré.
Hiatus entre i) les modèles climatiques actuels qui
nous promettent une augmentation de 6°C pour seulement un
doublement de la teneur actuelle en CO2 et ii) la
paléoclimatologie qui nous informe de variations bien
moindres ? Hiatus entre i) le discours qui affirme que les
températures actuelles sont responsables de la disparition
Fig. 10b : carte des δD et δ18O pour les précipitations en
Amérique du Nord ; observer la distillation isotopique SE NW depuis le golfe du Mexique, précipitations qui couvrent
l’essentiel du territoire contrairement aux pluies du Pacifique
irréversible d’une banquise garante de la circulation
océanique et ii) la paléogéographie qui nous renseigne sur
le rôle à long terme de la distribution des masses
continentales ? Hiatus entre i) l’affirmation que les teneurs
actuelles en CO2 de notre atmosphère sont sans
précédent, qu’elles
nous
entraînent
vers
des
augmentations de température irréversibles préjudiciables
à la vie et ii) l’histoire de la vie sur la Terre?
Hiatus ? Peu importe, le fait est réel, le climat
terrestre change, il a toujours changé. Il convient
d’essayer d’évaluer la part humaine dans ce
« dérèglement ». Nous comparerons donc les courbes de
l’évolution récente de la température de notre atmosphère
avec celle de trois paramètres essentiels (Fig. 12) :
1 - la concentration de l’atmosphère en GES, CH4, CO2,
SO2 et N2O ;
2 - l’émission du CO2 liée la consommation des énergies
fossiles, ou bien (très similaire) la production des
combustibles fossiles, depuis le début du XVIII°.
3 - l’activité de notre étoile, dont nous savons qu’elle
procure l’essentiel de l’énergie disponible dans notre
atmosphère ; si les conditions de distance au Soleil et
de luminance de celui-ci sont les facteurs clef qui ont
permis l’apparition de la vie sur Terre on peut
supposer que des fluctuations, mêmes mineures, de
ces paramètres peuvent influer sur le climat.
1) Le Dioxyde de Carbone
Considérons tout d’abord le GES principal, le CO2.
Il a atteint 392.41 ppmv en Août 1992 dans l’atmosphère
Fig. 10c : (Clark and Fritz 1997, p. 37, as compiled in
Rozanski et al. 1993, modified by permission of American
Geophysical Union).
Variation du δ18O d’une pluie subissant une distillation de
Rayleigh. Conditions initiales : eau vapeur est
δ18Ovapor = -11‰, T° = 25°C. Température finale -30°C.
à 0°C, le fractionement neige- eau vapeur remplace le
fractionnement liquide-vapeur.
Les lignes pointillées relient δ18O de précipitation et
température de condensation.
http://www.sahra.arizona.edu/programs/isotopes/oxygen.html
in Géologie isotopique 2005
- 105 -
ENSM-SE, 2° A : axe transverse P N
du Mona Loa (http://www.esrl.noaa.gov/gmd/ccgg/trends), soit 1.34
pmm de plus qu’il y a un an en Août, ne traduisant aucune
inflexion dans l’augmentation du CO2 atmosphérique depuis
1995 (Fig. 11a, régression linéaire R2 = 0.9983). Cette
apparente linéarité n’est en fait due qu’au laps de temps des
observations choisi. Si l’on prend l’ensemble des mesures
acquise par la NOAA sur le Mona Loa, qui débutent en 1959
(Fig. 11b), on observe qu’une augmentation quasi constante
(régression du 2° degré, R2 = 0.9992, point de rebroussement
1928 ; 306.4 ppmv) « fit » remarquablement le trend du CO2
atmosphérique pour toute la période 1959 à nos jours. En
retour sur le figure 11a, notez qu’une régression du 2° degré
sur ce petit segment de données apporte un léger bénéfice par
rapport à la régression linéaire, R2 = 0.9988, confirmant que
l’accélération constante du taux de CO2 dans l’atmosphère
reste de règle, malgré les différents accords pris à grand
renfort de médiatisation.
•
•
Il n’est peut-être pas inutile de rappeler ici l’ensemble
des efforts consentis depuis plus de 30 ans. Les informations
qui suivent sont tirées de la librairie du citoyen,
documentation française http://www.ladocumentationfrancaise.fr :
•
•
• 1979, Genève, 1° conférence mondiale sur le
changement
climatique.
Lancement
d’un
Programme de recherche climatologique mondial.
• 1987, Montréal, décision d’interdire la production et
l’utilisation des CFC ;
• 1988, création du GIEC = IPCC (en anglais), chargé
du suivi scientifique des processus de réchauffement
climatique ;
• 1990, La Haye, les états européens s’engagent à
•
Fig. 11 a-b : CO2 de l’air, données NOAA, la mesure du CO2
sur la Mona Loa (4170m), Hawaï, a débuté en 1959. Les
valeurs utilisées sont les moyennes annuelles de ce site.
•
•
•
a)
Evolution de la concentraion en CO2 depuis 1995
•
•
•
•
16/10/12
stabiliser leurs émissions de CO2 au niveau de
1990 d’ici à 2000 ;
1° rapport du GIEC : bilan des connaissances
scientifiques.
1992, Rio, 1° sommet de la terre, 131 chefs d’Etat
adoptent l’Agenda 2140, l’objectif de la
convention Climat, ratifiée par 50 Etats, est de
stabiliser les concentrations atmosphériques des
GES à un niveau « qui empêche toute
perturbation humaine dangereuse du système
climatique ».
1995, Berlin : 1ère Conférence des Parties à la
Convention Climat (COP 1) ; adoption du
principe des quotas d'émissions de GES.
2° rapport du GIEC : confirmation du rôle des
activités humaines sur les changements
climatiques.
Prévisions d’ici
à
2100 :
réchauffement moyen de 1 à 3, 5°C; montée
du niveau de la mer de 15 à 95 cm.
1996, Genève, 2° conférence mondiale sur le
changement climatique, COP2.
1997, New-York, dit Rio+5, 2ème sommet de la
terre, désaccord entre l’Union européenne et les
Etats-Unis sur la réduction des GES.
Kyoto, 3° conférence mondiale sur le changement
climatique, COP3. Adoption du dit « protocole
de Kyoto » qui engage les 38 pays industrialisés
(Etats-Unis, Canada, Japon, pays de l'UE, ancien
bloc communiste) à réduire les émissions de
GES de 5.2% en moyenne d’ici 2012, par
rapport au niveau de 1990.
1998, Buenos Aires, 4° conférence mondiale sur le
changement climatique, COP4. les pays
industrialisés, seuls concernés dans un premier
temps par le Protocole de Kyoto, adoptent un
plan d’action destiné à relancer les mesures
décidées à Kyoto. Les Etats-Unis signent le
Protocole de Kyoto.
1999, Bonn, 5° conférence mondiale sur le
changement climatique, CPO5.
2000, La Haye, 6° conférence mondiale sur le
changement climatique, COP6. Echec à trouver
un accord sur la mise en œuvre des mesures
adoptées à Kyoto.
2001, 3° rapport du GIEC.G.W. Bush s’oppose
au Protocole de Kyoto et refuse la
réglementation
des
émissions
de
GES.Marrakech, 7° Conférence des Nations
unies sur les changements climatiques, COP7.
Des moyens techniques et financiers sont
débloqués en faveur des pays en développement.
2002, New Delhi, 8° Conférence des Nations unies
sur les changements climatiques, COP8.
L'Union européenne, puis le Japon ratifient le
protocole de Kyoto.
2003, Milan, 9° Conférence des Nations unies sur
les changements climatiques, COP 9.
2004, Buenos Aires, 10° Conférence des Nations
unies sur les changements climatiques, COP 10.
La Russie ratifie le protocole de Kyoto.
2005, Montréal, 11° Conférence des Nations unies
b) Evolution de la concentration en CO2 depuis 1959
40
- 106 -
2500 recommandations d’action pour le XXI° siècle.
ENSM-SE, 2° A : axe transverse P N
•
•
•
•
sur les changements climatiques, COP 11. Entrée
en vigueur du protocole de Kyoto signé en 1997.
Il a donc été ratifié par 141 pays dont 36 pays
industrialisés, à l'exception des Etats-Unis et de
l'Australie (soit 1/3 des émissions de GES). Ils
sont néanmoins tenus de réduire de 5.2% leurs
émissions de CO2 et de cinq autres GES.
2006, Sydney, 1° réunion du Partenariat AsiePacifique sur le développement propre et le climat :
Ce Partenariat, formé en juillet 2005, regroupe les
Etats-Unis, l'Australie et quatre pays d'Asie : Chine,
Japon, Inde et Corée du Sud, soit ½ des émissions
de GES dans le monde. Objectif de ce Partenariat
« que la lutte contre le réchauffement climatique ne
freine pas la croissance économique ».
Nairobi, 12° Conférence des Nations unies sur les
changements climatiques, COP 12. La révision du
protocole de Kyoto (fondée sur le 4° rapport du
GIEC, à paraître en 2007) commencera en 2008,
pour définir les implications du protocole au-delà de
2012.
2007, 4° rapport du GIEC. Il établit la
responsabilité humaine dans le réchauffement
climatique. Perspectives pour la fin du XXI° siècle :
augmentation moyenne de 1.8°C à 4°C, pouvant
aller j’à 6.4°C ; hausse du niveau des océans de
près de 60 cm ; généralisation de vagues de
chaleur et d'épisodes de fortes précipitations. Il
met en garde contre les conséquences « soudaines »,
voire « irréversibles » du réchauffement en cours.
Bali, 13° Conférence des Nations unies sur les
changements climatiques, COP 13. Elle met en
place une « feuille de route » devant aboutir en
2009, à Copenhague, à un nouveau traité, qui
prendra la suite du Protocole de Kyoto, qui vient à
échéance en 2012. Les parties reconnaissent que
« des réductions sévères des émissions mondiales
devront être conduites ».
2008, Bangkok, 161 pays ouvrent un nouveau cycle
de négociations pour répondre aux objectifs fixés
par la feuille de route du traité de Copenhague.
Poznam, 14° Conférence des Nations unies sur les
changements climatiques, COP 14. Création d'un
Fonds d'aide aux pays pauvres menacés par les
conséquences du réchauffement, 80 millions de
dollars.
Bruxelles, l’UE adopte un « paquet énergie climat »,
plan de lutte pour la période 2013-2020, objectifs :
diminution de 20% des émissions de GES,
augmentation à 20% de la part des énergies
renouvelables et amélioration de 20% de l’efficacité
énergétique de l’Union européenne.
2009, Bonn, 2° réunion, 183 pays participent à la
feuille de route pour le traité de Copenhague. Le
Brésil, la Chine, l’Inde et l’Afrique du Sud ne
souscriront pas au futur traité et refuseront des
objectifs domestiques de baisses de leurs propres
émissions, tant que les pays industrialisés n’auront
pas adopté les réductions préconisées par le GIEC,
soit moins 40% en 2020 par rapport à 1990.
Copenhague, 15° Conférence des Nations unies sur
les changements climatiques, COP 15. 193 pays
réunis adoptent un texte juridiquement non
contraignant, mis au point par les Etats-Unis et 4
pays émergents, la Chine, le Brésil, l'Inde et
16/10/12
l'Afrique du Sud. Ce texte affirme la nécessité de
limiter le réchauffement planétaire à 2°C par
rapport à l’ère pré-industrielle mais ne comporte
aucun engagement chiffré de réduction des
émissions de gaz à effet de serre.
• 2010. Cancun, 16° Conférence des Nations unies
sur les changements climatiques, COP 16. 192
pays mettent en place à la quasi unanimité (sauf
la Bolivie), une série de mécanismes financiers
pour lutter contre le réchauffement climatique et
promouvoir l'adaptation à ses effets. On voit
ici apparaître la notion de mitigation. un « Fonds
vert » est créé pour soutenir les projets,
programmes et politiques d'adaptation des pays
en développement. La mise en place du
mécanisme REDD (Ressources pour le
développement durable) qui consiste à
rémunérer financièrement les populations locales
impliquées dans la gestion des forêts. Rien pour
prolonger le protocole de Kyoto au delà de 2012.
• 2011, Durban, 17° Conférence des Nations unies
sur les changements climatiques COP 17. Elle se
conclut sur la mise en œuvre d’une nouvelle
feuille de route, en vue d’un accord prévoyant
d’établir d’ici à 2015 un pacte global de
réduction des émissions des GES, avec une
entrée en vigueur prévue à l'horizon 2020. D’ici
là, la feuille de route prévoit la prolongation du
protocole de Kyoto. Le texte englobe pour la
première fois tous les pays dans la lutte contre le
réchauffement climatique, y compris les plus gros
pollueurs, la Chine, l'Inde et les Etats-Unis... Ni
contrainte juridique, ni hausse du niveau des
mesures pour réduire les émissions de GES ne
sont prévues… gaz à effet de serre, afin de
limiter le réchauffement sous le seuil de 2°C. le
« Fonds Vert » est officiellement créé.
• 2012, Doha, 18° Conférence des Nations unies sur
les changements climatiques, COP18, dit aussi
Sommet de la terre « Rio + 20 ». Le rapport
« Geo-5 » montre que, sur 90 objectifs
prioritaires définis en 1992, seulement 4 ont
connu des progrès significatifs, dont celui relatif
à la couche d’ozone. Geo-5 confirme que
l'objectif de réduction des émissions de GES n'a
pas connu de progrès et que ceux-ci devraient
doubler d’ici 2050.
En résumé, concernant le CO2 — cible principale du
GIEC et des Etats participants à la lutte contre l’augmentation
des GES, responsables du changement climatique — la totalité
des résultats obtenus par l’ensemble des conférences,
conventions ou accords conduits depuis plus de 30 ans est
résumée par la figure 11b. Nous avons vu que les mesures
de concentration en CO2 dans l’air du Mona Loa
permettent d’accéder à une valeur moyenne de
l’atmosphère pour les 60 et quelques dernières années.
Pour les années qui précèdent, on recourt le plus souvent
aux mesures de concentration des gaz des bulles de la
glace. Pourtant, des mesures de teneur de CO2 dans l’air
étaient effectuées dans les laboratoires de chimie des pays
développés. Ces mesures opérées au XIX° par des
chimistes n’ont pas été utilisées dans les études sur le
changement climatique. Les méthodes employées à
l’époque sont encore considérées comme précises (± 6
- 107 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Fig. 11e : distribution spatiale et temporelle du CO2 dans
l’atmosphère, pour les années 1999 à 2006,.NOAA.
Fig. 11c : CO2 de l’air, E.G. Beck, 2007
ppmv en 1857) et elles nous offrent une image avec un pas
de temps (Fig. 11c, courbe bleue) que les glaces ou les
sédiments ne peuvent atteindre (petites + dans la figure).
Mais elles ne couvrent que les régions économiquement
développées à l’époque. D’une part elles ne peuvent être
considérées comme des moyennes planétaires et d’autre part
les régions couvertes étaient potentiellement polluées.
Détaillons la courbe de concentration en CO2
atmosphérique, depuis les premières valeurs reconnues
comme acceptables (1812) à nos jours. L’utilisation des
données des glaces de l’Antarctique permettent une
reconstruction assez fine de l’évolution de la concentration.
Avant 1850, la courbe du CO2 montre une
augmentation très lente (Fig. 11c et Fig. 17, p. 108),
probablement liée à l’accroissement régulier de la biomasse
cultivée.
De 1850 à 1950, (Fig. 11d et Fig. 17, données GIEC)
l’augmentation du CO2 est encore presque linéaire mais elle
est un peu plus forte que précédemment. Cela suggère que la
teneur en CO2 dans l’atmosphère augmente peu après avec le
décollage de la consommation de charbon.
La rupture de pente, vers 1950-1960 dans les figures
11d et 12 paraît assez brutale ; Il est à noter que le minimum
calculé de la courbe de régression du 2° degré de la figure
11b sur les valeurs du Mona Loa passe par le minimum de
306.4 ppmv à la date 1928. Figurés en vert sur la figure 11d,
ils sont parfaitement « raccord » avec les valeurs de la
période précédente, confirmant que la 2° rupture de pente
doit se situer à cette période, disons entre 1930 et 1960. Cela
semble bien devoir être mis en relation avec l’explosion de la
consommation de pétrole et de gaz (voir Fig. 17, World
Energy consumption). L’accroissement de la consommation
de charbon reste quant-à lui à peu près linéaire depuis le
creux de la fin de la 2° guerre. La corrélation positive entre la
Fig. 11d : Evolution de la concentration en CO2 de l’atmosphère
depuis l’ère industrielle ; sources Moa Loa (Hawaï) et bulles
d’air dans la glace de l’Antarctique
Noter la faible amplitude des variations saisonnières en
hémisphère Sud et l’inversion Nord-Sud ;
noter l’accroissement pluriannuel de la concentration.
http://www.esrl.noaa.gov/gmd/ccgg/about/global_means.html
concentration en CO2 atmosphérique et dilapidation des
ressources fossiles apparaît donc clairement établie et non
équivoque. En outre, le décalage dans le temps du point de
rupture dans les 2 courbes implique que la dispersion dans
l’atmosphère terrestre du CO2 est très rapide et n’excède
pas 5 à 10 ans. En corollaire, l’influence des phénomènes
volcaniques sur la concentration du CO2 atmosphérique
est non observable sur ces courbes. Elle est probablement
masquée par notre activité.
Quant-à la distribution spatiale du CO2 dans
l’atmosphère terrestre, la représentation largement
diffusée de l’évolution dans le temps de la moyenne
annuelle des concentrations sur le Mona-Loa pourrait
laisser croire à une homogénéité spatiale et temporelle qui
n’ont rien d’exact. La variation saisonnière (été CO2
pauvre / hiver CO2 riche) est la plus connue ; elle est
souvent présentée (sinusoïde, e.g. Fig. 11d) pour les
mesures sur le Mona Loa. La variation spatiale, quoique
largement documentée, est plus rarement présentée. Dans
sa représentation matricielle (Fig. 11e), on observe très
nettement la dissymétrie Nord-Sud qui reflète la
distribution des masses continentales. Confirmant ce fait,
l’amplitude de la sinusoïde de période annuelle, très faible
aux latitudes Sud, s’inverse en traversant l’équateur et
croît très vite pour devenir maximum au niveau tropical.
Elle reste ensuite très marquée jusqu’à une latitude élevée.
Une telle représentation ne tient pas compte d’éventuelles
variations longitudinales. Cette hétérogénéité Nord Sud et
cette oscillation annuelle résultent bien sûr principalement
du dégagement de CO2 par la respiration de la biosphère
(massivement continentale) et inversement de la
photosynthèse végétale qui opère un pompage du CO2
atmosphérique, essentiellement continental et dont
l’activité saisonnière s’inverse entre les 2 hémisphères. La
figure 11e montre que l’amplitude de la variation annuelle
est, au maximum d’environ 15 ppmv, et que cette
variation ne masque pas la tendance à l’augmentation
moyenne décrite plus avant. La figure nous informe aussi
sur l’homogénéisation de notre atmosphère : i) le contraste
entre les 2 hémisphères montre la relative étanchéité des
deux réservoirs, qui ne sont pas homogénéisés à l’échelle
- 108 -
ENSM-SE, 2° A : axe transverse P N
annuelle ; ii) le contraste saisonnier, en particulier dans
l’hémisphère Nord, montre que le CO2 dégagé par la
respiration est largement et rapidement soustrait de
l’atmosphère, dont le niveau bas en concentration se situe au
niveau de celui de l’hémisphère Sud.
16/10/12
Fig. 12a-b : Courbes d’évolution des teneurs en CH4 dans
l’atmosphère ; notez l’unité, 1 ppb = 1.10-3 ppm
2) Le Méthane
Les rapports du GIEC indiquent que la concentration
atmosphérique mondiale de CH4 est passée d’environ 715
ppb à l’époque préindustrielle à 1 732 ppb au début des
années 1990, pour atteindre 1 774 ppb en 2005. La figure
12a (empruntée au Trinitry College) reprend les données des
auteurs de « A Compendium of Data on Global Change41.
Carbon Dioxide Information Analysis Center, Oak Ridge
National Laboratory, U.S. Department of Energy, Oak
Ridge, TN, USA. ». Ces mesures effectuées dans les carottes
de glace montrent une teneur constante entre 1000 et 1700,
puis un accroissement très fort à partir de l’ère industrielle.
L’apparente constance pré-industrielle est toutefois un
leurre, dissipé par la figure 12b qui montre que si le CH4 est
un GES puissant (dont la teneur actuelle équivaut à 35-40
ppm de CO2, cf. tableau 2), il est aussi naturellement très
dépendant du climat. En effet, la première source de
méthane réside dans la biochimie des zones humides
naturelles (actuellement >30% des émissions), à l’origine
des variations observables dans la figure 12b (oscillation
entre 350 et 700 ppb). Les autres sources sont
principalement agricoles, et l’on retrouve dans l’atmosphère
récente l’augmentation de la consommation de biomasse
méthanogène, le riz en particulier (qui dégage autant de
méthane que la moitié de l’ensemble des zones humides
naturelles, soit environ 15%) et celle de l’élevage bovin
souvent mis en cause (actuellement environ 15%). Vient
enfin la contribution industrielle via les combustibles
fossiles, contribution désormais majeure (environ 20%).
Comme pour le CO2, qui, lui aussi, présente depuis 1850 une
causalité humaine, on observe une covariation étroite de la
concentration en CH4 (et du CO2) avec l’évolution de la
population mondiale (Fig. 14). Dans le cas du CH4, celle-ci
s’interrompt vers 1990. Le taux d’accroissement de la teneur
en CH4 chute alors et devient même quasi nul entre 2000 et
2007. Puis, le méthane est reparti brutalement à la hausse.
Pour les auteurs, la première raison de l’arrêt de la croissance
de la teneur en CH4 réside dans l’amélioration des pratiques
agricoles. Quant à son redémarrage en 2007, les variations
imputables à notre espèce ne pouvant excéder quelques %
par an, un tel comportement doit avoir des causes naturelles ?
Le permafrost (partie toujours gelée du sol dans les régions
polaires) est suspecté contenir jusqu’à 30% du carbone piégé
dans géosphère. On s’attend donc à ce qu’un réchauffement
significatif induise un relargage important de CH4 s’il vient à
fondre. Il fut donc le 1° suspecté, et sa dénonciation offrait
41
Data Source: D.M. Etheridge, L.P. Steele, R.J. Francey,
and R.L. Langenfelds. 2002. Historical CH4 Records Since
About 1000 A.D. From Ice Core Data. In Trends: A
Compendium of Data on Global Change. Carbon Dioxide
Information Analysis Center, Oak Ridge National
Laboratory, U.S. Department of Energy, Oak Ridge, Tenn.,
USA. and Steele, L. P., P. B. Krummel and R. L.
Langenfelds. 2002. Atmospheric CH4 concentrations from
sites in the CSIRO Atmospheric Research GASLAB air
sampling network (October 2002 version)
a) http://www.trunity.net/weatherandclimate/articles/view/171440/
b) synchronisme des variations de teneur en CO2 et en CH4
avec le climat
par là même la preuve d’un feedback très attendu. En
2008, Mat Rigby et al. ont montré que l’augmentation du
CH4 était générale sur la planète, alors que le permafrost
susceptible de dégeler est essentiellement situé en zone
Arctique. Depuis lors, Dlugokencky et al. 2009, puis
Bousquet et al. 2010, ont montré que la reprise de
l’augmentation de la teneur en CH4 est due très
probablement d’abord, en 2007, à une suractivité des
zones humides nordiques, puis, en 2008, à une suractivité
des zones humides tropicales Nord et Sud. Ainsi nous
pouvons conclure avec Dlugokencky et al.que « nous
n’avons sans-doute pas encore activé le fort effet de
feedback climatique » attendu avec la fonte du permafrost.
Enfin, cette ré-augmentation des émissions pourrait aussi
provenir de l’accroissement de la consommation de
combustibles fossiles depuis 2006 dans le nord de l'Asie.
La question est encore largement ouverte…
Le CH4 présente (Fig. 12c, page suivante), plus
encore que le CO2, un fort contraste entre les hémisphères
Nord et Sud. La variation saisonnière est à peu près de
même amplitude dans les 2 hémisphères. Elle est moins
importante que celle du CO2 (en hémisphère Nord) mais
reste significative et légèrement décalée par rapport à la
sinusoïde du CO2 ; pour l’hémisphère Nord toujours, le
maximum se situe vers mars et le minimum vers août. Le
CH4 est presque principalement produit en hémisphère
Nord, puis transféré pour partie vers le Sud. Le puits
majeur d’absorption du CH4 est la réaction avec l’oxygène
excité O(1D) + CH4 ⇒ OH + CH3 ; nous verrons au
paragraphe stratosphère que cette réaction joue un rôle
important dans le cycle de l’ozone (O3). Le second puits
- 109 -
ENSM-SE, 2° A : axe transverse P N
Fig. 12c : distribution spatiale et temporelle du CH4 dans
l’atmosphère, pour les années 1984 à 2010,NOAA.
Noter la faible différence d’amplitude des variations
saisonnières entre hémisphère Sud et Nord par rapport au
CO2. Noter l’inversion Nord-Sud ; noter la stabilisation de
l’accroissement pluriannuel de la concentration entre 2000
et 2006 et son redémarrage en 2007
http://www.noaanews.noaa.gov/stories2006/s2709.htm
de méthane est le radical hydroxyle OH- ; dans la
stratosphère, très sèche, CH4 + OH- ⇒ CH3 + H2O. Cette
réaction d’oxydation du méthane conduit donc à la
production d’eau, qui est aussi un GES, moins puissant et
aux effets limités.
3) Le Protoxyde d’Azote et le Dioxyde de
Soufre
La concentration atmosphérique globale de N2O est
passée de 270 ppb à l’époque préindustrielle à 319 ppb en
2005 (GIEC 2007, Fig. 13), équivalent à 100ppm de CO2
(pouvoir réchauffant = 310 fois celui du CO2, tableau 2). Le
protoxyde d’azote gazeux naturel provient des océans ;
d’origine biologique il est produit par dénitrification dans les
milieux anaérobies et par nitrification dans les milieux
aérobies. 1/3 seulement des émissions totales de N2O sont
anthropogéniques. Le « fit » de la courbe du N2O avec celle
de la croissance démographique (Fig. 14) est donc
logiquement moins bon que celui du méthane et le
« décollage de la courbe ne se produit que vers 1900. Le tiers
d’origine humaine provient d’une part des sols agricoles et
l’alimentation du bétail et d’autre part de l'industrie
chimique.
Fig. 13 : Evolution de la concentration en N2O et e SO2 depuis le
déburt de l’ère industrielle
16/10/12
Les contributions anthropiques aux aérosols
(essentiellement des sulfates, du carbone organique, du
carbone noir, des nitrates et des poussières) produisent
globalement un effet de refroidissement sur le climat. La
courbe de la concentration en SO4 dans les glaces
(Fig. 13) est le reflet direct de sa concentration dans
l’atmosphère. Sa forme est si particulière qu’elle ne peut
être corrélée à la production d’aucun des combustibles
fossiles. On admet généralement une origine industrielle
au soufre atmosphérique, même s’il existe des incertitudes
considérables sur les quantités totales de SO2 émises (et de
et NOx d’ailleurs). On suppose que les émissions
naturelles représentent 25 à 50% des émissions totales de
SO2. Néanmoins, la brutale inflexion observable vers 1950
est en accord avec la 2° rupture de pente du CO2 (Fig. 17,
p. 108) et surtout avec l’explosion de la production des
combustibles fossiles (Fig. 17). La diminution du taux de
soufre dans l’atmosphère depuis les années 90 est le fruit
des efforts des pays dits développés pour réduire leurs
émissions, en Europe en particulier.
4) Impact des GES sur la T° globale
Comment se traduisent ces évolutions des GES sur la
température? Avant de discuter le détail de la courbe
d’évolution des anomalies de température (écart à la
moyenne des températures de la période 1951-1980,
définie comme la normalité), précisons l’origine des
données utilisées dans les figures 16 et 17 : i) pour l’ère
industrielle les courbes ont été construites avec l’outil
interactif du site web http://www.woodfortrees.org. ; ii) le
set de données HadCRUT, qui couvrent la période la plus
longue (en rouge), est issu de 4349 (un peu plus depuis
2006) stations de mesures de la température de surface,
fut publié pour la 1° fois en 1994 par P .D. Jones ; les
actuelles versions HadCRUT3-CRUTEM3 font place en
2012 à une version CRUTEM 4 (voir le site du Met Office
Hadley Centre observations datasets www.cru.uea.ac.uk) ;
iii) la 2° longue série de données de températures de
surface moyenne le la planète, GISTemp (en vert),
provient de la NASA (Goddard Institute for Space Study,
http://data.giss.nasa.gov/gistemp); iv) le set de données
UAH satellite temperature provient de l’Université
d’Alabama (http://discover.itsc.uah.edu), site interactif
permettant la reconstruction des variations annuelles de la
Fig. 14 : Evolution de la concentration en CH4 de 1850 à 2010
Comparer la morphologie des courbes d’évolution des teneurs
en GES : celle du CO2 pour la période 1850-1990 (tireté gris) et
celle de N2O pour la période 1850-2000 (tireté vert) sont
ajustées, sans échelle, à celle du CH4 pour la même période.
Noter que les ruptures de pente dans lévolution de ces 2 GES ne
sont pas simultanées
- 110 -
ENSM-SE, 2° A : axe transverse P N
température ; les valeurs ne sont plus des mesures de la
température mais le résultat de calculs de la température à
partir de mesures satellitaires de la radiance du sol dans
différentes longueurs d’onde ; v) le set de données RSS de
Remote Sensing System provient des sondes MSU
Microwave Sounding Unit embarquées sur les satellites en
orbite polaire de la NOAA ; il s’agit là encore de mesures
indirectes de la température de surface.
L’avantage des mesures satellitaires est l’excellente
couverture (homogénéité des mesures) qu’elles offrent par
rapport aux réseaux de stations essentiellement continentales
(e.g. Fig.15). En outre, elles permettent de déceler plus
facilement les points chauds que produisent souvent les
activités humaines et donc de s’en affranchir, reproche
souvent adressé par les scientifiques critiques à la
communauté du GIEC. Hélas leur entrée en action est
récente (courbes bleue et violette) et ne permet pas de
couvrir l’ensemble des variations observées.
16/10/12
Fig. 16 : L’augmentation linéaire de la température de
l’hémisphère Sud a) contraste avec le tracé en dents de
scie de la courbe de l’hémisphère Nord b).
Hémisphère Sud
Dans la figure 17 page 108, le set RSS a été pris en référence
et les autres courbes sont décalées pour offrir le meilleur
« fit », respectivement de 0.12, -0.24 et -0.15°C pour UAH,
GISTemp et HadCRUT. En effet, chaque set ne prenant pas
la même valeur en référence pour le calcul de l’anomalie, il
est nécessaire de décaler les différentes courbes (offset).
La courbe de température concernant la période de
sortie du petit âge glaciaire n’est pas reportée sur la figure
16. Il est en effet difficile de trouver pour les XVIII° et XIX°
siècles des illustrations cohérentes et d’égal niveau de détail
avec cette période récente dans la littérature. Les courbes de
températures sont le plus souvent des reconstructions basées
sur différents proxies, pro parte des données sur les glaces et
pro parte des sets de données sur les cernes de croissances
des arbres. On se reportera donc pour cette époque à la figure
20b tirée du 1° rapport du GIEC en raison de sa cohérence
avec les écrits historiques.
Dans la figure 17, on peut placer sur la courbe des
températures globales au moins 3 points d’inflexions ((voire
4, flèches rouges) et décomposer ainsi la courbe des
Hémisphère Nord.
http://data.giss.nasa.gov/gistemp/graphs_v3
températures en 4 périodes, voire 5 (?) : i) l’avant, ii) le
démarrage du changement climatique, iii) la rémission
temporaire, iv) la reprise du réchauffement, et peut-être v)
la 2° rémission …? temporaire …? Il est intéressant de
noter (Fig. 16) que l’augmentation de température de
l’hémisphère Sud durant le XX° siècle a été beaucoup
plus linéaire que celle de l’hémisphère Nord, qui marque
de son empreinte la courbe d’évolution globale (Fig.17).
Le rôle, naturel ( ?), anthropique ( ?), et à quel degré
( direct? Indirect ?) des masses continentales dans les
changements climatiques pourrait donc être essentiel.
Fig. 15 : réseau des stations de mesures de la température de surface,
utilisées dans le set de données HadCRUT. Etat en 2005.
P. Brohan et al. Uncertainty estimates in regional and global
observed temperature changes: a new dataset from 1850. Les points
verts représentent les stations abandonnées en 2005 ; bleus, les
stations nouvelles ; rouges les stations faisant l’objet de
modifications mineures ; noirs, le reste des stations.
- 111 -
1 - Episode 1 avant 1920: La température du XIX
siècle, moins froide que celle du XVIII° (Fig.
20), apparaît stable. Cette stabilité se poursuit
jusqu’au début du XX°, au Nord comme au
Sud ; la température n’augmente absolument
pas avant 1920 (point 1 de la courbe Fig. 17,
1930 en hémisphère Sud), c’est à dire au
moins 50 ans après le premier changement de
pente dans la courbe de concentration en CO2
atmosphérique. Pourtant, la consommation de
charbon a régulièrement augmenté pendant ce
temps! 50 ans sont une durée bien trop grande
pour admettre que ce retard est simplement lié
au temps de transfert et d’homogénéisation du
CO2 de l’atmosphère (environ 10 ans). C’est
pourtant précisément le retard observable au
décollage de la courbe de l’hémisphère Sud.
Le puits essentiel assurant la soustraction du
CO2 — passage du réservoir atmosphère vers la
géosphère (via l’océan ou pas) — pour lequel
nous avons noté le rôle clef de la
photosynthèse a-t-il mis 40 à 50 ans pour se
saturer, rendant alors observable la hausse du
CO2 au Nord, puis 10 ans plus tard au Sud ?
ENSM-SE, 2° A : axe transverse P N
16/10/12
Fig. 17: Courbes d’évolution des GES actualisées sur http://www.esrl.noaa.gov/gmd/ccgg/iadv/, de la production de
combustibles fossile, des caractéristiques solairees, de la température et du niveau de la mer ; noter l’impact des efforts
entrepris (voir texte) sur les courbes du méthane et du soufre (SO4) ; les débuts des remontées de la mer sont donnés pour les
marégraphes de Brest, Sherness, Stockholm et Amsterdam
- 112 -
ENSM-SE, 2° A : axe transverse P N
Faut-il supposer que les conditions naturelles durant
cette période sont celles d’un refroidissement global
qui masque le forçage anthropique (l’effet de serre dû à
l'homme) débutant durant cette période ?
2 - Episode 2 1920-1945 : le changement climatique
démarre en 1920-1930 par une augmentation régulière
de la température jusqu’en 1945 (points 1 et 2 de la
courbe Fig. 17, flèches rouges et pointillés rouges). Ce
démarrage ne correspond à aucune des 2 ruptures de
pente dans l’évolution des GES (CO2 en particulier,
flèches violettes Fig. 17), ni à une augmentation brutale
de la consommation des ressources fossiles, dont
l’inflexion se situera plus tard (vers 1960, Fig. 17). Il
faut donc admettre que le forçage anthropique
augmente lentement et de manière continue durant
l’ensemble des périodes 1 et 2. Combinons ces 2
épisodes : i) si l’hypothèse émise (épisode 1) d’un
masquage du forçage anthropique liés aux GES qui
croissent lentement jusqu’à ce que la saturation du puits
de CO2 ait été atteinte (fin de la 1° période) est valide,
on peut s’attendre à ce que toutes nouvelle
augmentation de GES se traduise ensuite (épisode 2)
par une montée de la température, ce qui est la cas ; ii)
si l’hypothèse d’un masquage du forçage anthropique
durant l’épisode 1 par des conditions naturelles de
refroidissement global est valide, sachant que le forçage
anthropique a dû augmenter lentement durant les 2
épisodes, l’augmentation de température en 2° période
suppose que les conditions naturelles se sont modifiées
— diminution ou arrêt du refroidissement naturel global,
voire réchauffement — de telle sorte qu’elles cessent de
masquer le forçage anthropique, et donc la température
augmente.
3 - Episode 3 1945-1975 : Entre les points 2 et 3 de la
courbe de température de la figure 17, la température
marque un palier, voire un léger abaissement.
L’évolution durant cet épisode est donc similaire de
celle de l’époque relativement froide ante-1910.
Pourtant, le point d’inflexion commun aux courbes de
teneur en CO2 et de consommation des ressources
fossiles est franchi vers 1955-1960, avec une rupture de
pente très marquée pour le CO2 le GES majoritaire
Fig. 18: courbes des anomalies de température globale (en °C),
définies par rapport à la tempéraure moyenne d’une année prise en référence.
Les différentes courbes, HadCRUt, GISTemp, UAH et RSS sont présentées ici
avecun offset permettant le meilleur fit avec la moyenne WTI (WoodForTrees
Index) GISTEMP,-0.35, HADCRUT3VGL,-0.26, RSS,-0.10, UAH
(hors l’eau). En outre, durant cette période,
l’injection de méthane dans l’atmosphère continue à
s’accroître massivement, jusqu’en 1985. Il devient
difficile de rejeter l’hypothèse de variations
significatives des conditions naturelles, à nouveau
orientées vers le refroidissement — voire encore plus
froides que durant la période historique ante-industrielle
indemne de forçage anthropique — et masquant
complètement le forçage anthropique qui pourtant se
renforce progressivement. Parmi les gaz suivi dans la
figure 17, seul le soufre pourrait avoir un effet de
refroidissement (Noter que les aérosols dispersés par
nos industries contribuent aussi à refroidir
l’atmosphère). Mais, outre le fait que la courbe du
SO4 est mal expliquée, la contribution du soufre
atmosphérique reste marginale.
4 - Episode 4 1975-1998 ? : Depuis 1975, la courbe des
températures est repartie à la hausse régulière, au
moins jusqu’en 1998 (la dernière décennie paraît à
nouveau échapper à la hausse, voir plus loin). La
pente moyenne de ce 3° épisode est un peu plus forte
que celle de la période 1910-1945 ; l’interprétation
de ces 2 segments de la courbe donne 0.014°C.a-1 et
0.018°C.a-1 respectivement42. Regardons l’enveloppe
de la consommation des ressources naturelles de la
figure 17 durant les épisodes 3 et 4. On observe
qu’après la reprise brutale de la consommation, sa
pente tend à s’amortir, contrairement à celle du CO2.
Néanmoins, cette pente de la consommation reste
considérablement plus forte que durant la première
période de réchauffement. L’augmentation de CO2 —
dont on rappelle qu’elle correspond à un modèle
d’accélération constante — est aussi beaucoup plus
forte durant ce second épisode de réchauffement que
durant le premier. Devons nous alors supposer que le
forçage anthropique est devenu tel qu’il dépasse le
masquage envisagé précédemment ? Le masquage
naturel s’est-il effondré parce que les conditions
climatiques naturelles sont redevenues moins
froides ? Durant les 2 épisodes de réchauffement
observés, les conditions climatiques naturelles ontelles seulement cessé de masquer le forçage
anthropique
ou
ont-elles
contribué
au
réchauffement ? Le forçage anthropique n'est-il
qu'une fraction, significative et dans quelle mesure,
des changements observés?
5 - Un hypothétique Episode 5 : en 1998 pourrait avoir
commencé un second palier dans le réchauffement.
La durée d’observation, à peine supérieure à 10 ans
est petite et il convient de rester prudent. La figure
18 présente les sets de données retenus dans la figure
17 durant cette période inachevée. L’anomalie, est de
valeur faible (0° à 0.3°C sauf en 2010) et quasi
constante depuis 1999. Rappelons qu’il s’agit de
42
Réactualisez la figure avec le calculateur du Woodfortree.org
http://www.woodfortrees.org/plot
16/10/12
Notez que la courbe utilisée donne une moyenne de
0.007°C a-1, conforme à la valeur communément admise
(IPCC = Intergovernmental Panel on Climate Change) de
0.6° pour le XX°siècle. Remarquez aussi qu’une telle
moyenne n’a aucun sens au regard des valeurs obtenues
pour les épisodes de réchauffement, au moins deux fois
supérieures, épisodes heureusement entrecoupés de
périodes « sans réchauffement ».
- 113 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Fig. 19 : modèles de réchauffement IPCC
l’écart entre la moyenne annuelle et une année prise en
référence. Si l’anomalie est constante, l’écart à la
constante l’est aussi ; la température moyenne annuelle
globale depuis 13 ans est donc grossièrement la même.
Cela veut-il dire que le réchauffement climatique est
terminé ? rien n’est moins sûr, car la teneur en CO2
continue à croître… Mais à tout le moins doit-on
conclure de la figure 18 que, depuis 10 ans, le forçage
anthropique le plus puissant que notre espèce ait produit
à ce jour est illisible sur les courbes de température
moyenne globale, comme il l’a été pendant 30 ans de
1945 à 1975. Quelle est la contribution du forçage
anthropique actuel dans les variations climatiques ?
Comment un doublement de la teneur en CO2 et un
bond de 150% de celle de CH4 peuvent-ils passer
inaperçus dans l’évolution des températures ? La
question est complexe, que la communauté scientifique
tente de renseigner en établissant des modèles comme
celui qui figure dans le rapport 2001 de l’IPCC (GIEC).
Ce modèle climatique (Fig. 19) est utilisé pour
simuler les changements de température dus à la fois à des
causes naturelles et à des causes anthropiques. Les
simulations sont représentées par la bande grise, la courbe
rouge est celle des températures :
a) les modélisations sont effectuées avec les forçages
naturels seulement, c'est-à-dire en ne prenant en
compte que l’impact des variables naturelles, dont par
exemple la variation du rayonnement solaire et de
l'activité volcanique.
b) les simulations sont effectuées avec les forçages
anthropiques, tenant compte des GES et des aérosols
sulfatés (estimation). Si le début du siècle semble
assez bien modélisé, il est à remarquer que les valeurs
des températures obtenues pour les deux modèles a)
naturel pur et b) anthropique seul, se situent en
dessous de la courbe des températures observées (en
rouge) pour la seconde moitié du 20°siècle.
c) On parvient en combinant les deux modèles (en faisant
varier les proportions des 2 forçages comme suggéré
dans nos 4 périodes) à caler l’ensemble sur la courbe
des mesures. La prédiction serait-elle à notre portée ?
Nous avons vu que la courbe des températures
moyennes subit une inflexion forte suggérant qu’il y a peutêtre eu vers 1998 (point 4 de la Fig. 12 et Fig. 14) un point
d’inflexion marquant l’entrée dans une nouvelle période
d’arrêt de l’augmentation de la température, comparable à la
période 1945-1975. Certes la courbe de la concentration en
méthane dans l’atmosphère s’était amortie progressivement
depuis 1985, mais celle du CO2 continue sa croissance
régulière et aucun modèle ne prévoyait un tel palier…
Alors il n’y a bien sûr pas consensus sur cette inflexion.
Et la querelle fait rage, entre « climato-sceptiques »
partisans d’une contribution anthropique somme toute
modérée — et largement modulée par les processus naturels,
mal identifiés peut-être — et tenants du tout anthropique.
De fait, l'approche de ces processus très
complexes nous a déjà montré combien l’interaction des
nombreux paramètres rend la prévision délicate, jusque
dans le choix des sources de données. Ainsi, comme le
soulignent nombre de sceptiques — tel le polémique C.
Allègre (2007) mais aussi le très documenté ouvrage de
Hacène Arezki (2011) — les moyennes à l’échelle de la
planète sont difficiles à établir en raison de l’importance
de la variabilité horizontale et verticale de la température
dans la troposphère et de l'impact de l'urbanisation sur les
continents qui doit nécessairement être pris en compte. A
ces difficultés de sélection des données, s'ajoute i) le
choix peut-être parfois discutable, et discuté, de quelques
contributions au travail d'évaluation du GIEC —par
exemple des travaux de la WWF ou de l’ICIMOD
(International Centre for Integrated Mountain Development
Hinu-Kush/Himalaya http://www.icimod.org qui produisent
une littérature dite "en demi-teinte" ; on appelle ainsi des
rapports qui n’ont pas été évalués par des revues
internationales à comité de lecture — et ii) un contrôle, qui
n’est pas sans faille, des chiffres publiés qui sont parfois
faux et alors l'objet de polémiques.
Conscients de ces défauts avérés, l'ONU et le
GIEC ont demandé en 2010 une expertise des méthodes
utilisées au Conseil Inter-Académique43 (10 institutions
dans le monde). Parmi les principales remarques
formulées par l’IAC, — tirées de la version française du
« Report New release » sur le site de l’IAC, en bleu page
suivante — il en est qui permettent sans doute de mieux
comprendre le débat, trop vif et même parfois insultant,
souvent mal argumenté, soulignons:
43
Fondé en 2000, l’IAC a été créé pour mobiliser les
meilleurs scientifiques et ingénieurs autour du monde, afin
de fournir un conseil basé sur des preuves aux institutions
internationales telles que les Nations Unies et la Banque
Mondiale -- incluant la préparation sur demande d’études
spécialisées validées par des pairs. Le secrétariat de l’IAC
se tient à l’Académie royale des Pays-Bas des Arts et
Sciences, à Amsterdam.
http://reviewipcc.interacademycouncil.net/ReportNewsReleaseFrench.ht
ml
- 114 -
ENSM-SE, 2° A : axe transverse P N
1 - La « réponse lente et inadéquate du GIEC aux
révélations d’erreurs dans la dernière évaluation",
ainsi que "les plaintes sur le fait que ses dirigeants ont
outrepassé le mandat du GIEC pour être en
conformité avec la politique au lieu de prescrire la
politique dans leurs commentaires publics ».
2 - L’échéance fixée à la position de directeur du GIEC,
dont « la limite actuelle de deux mandats de six ans
est trop longue. Le président du GIEC et le directeur
exécutif, ainsi que les coprésidents des groupes de
travail, ne devraient pouvoir remplir qu’un mandat de
façon à maintenir une variété de perspectives et une
approche neuve pour chaque évaluation. » L’IAC
ajoute qu'il faut « développer une politique rigoureuse
sur les conflits d’intérêt, applicable à toute la haute
direction du GIEC et à tous les auteurs, aux éditeurs
de révisions, et au responsable de direction quant au
contenu du rapport ». Il s'agit donc bien d’éviter la
main mise de groupes d'intérêt sur la rédaction des
rapports du GIEC.
3 - L'IAC affirme « qu’une exécution plus poussée des
procédures de passage en revue pourrait minimiser le
nombre d’erreurs. À cette fin, le GIEC devrait
encourager les éditeurs de revue à exercer pleinement
leur autorité pour assurer que tous les commentaires
du passage en revue soient pris en considération de
façon adéquate. Ces éditeurs de revues devraient
également assurer que les controverses authentiques
sont bien reflétées dans le rapport, et obtenir
satisfaction pour qu’une considération appropriée soit
donnée aux visions alternatives correctement
documentées. Les auteurs de vérification devraient
explicitement documenter que la gamme complète des
points de vue et réflexions scientifiques a été prise en
considération. » L’IAC souligne aussi « l’utilisation de
la littérature dite en demi-teinte provenant de sources
non publiées ou non examinées par des pairs a été
controversée, bien que souvent de telles sources
d’informations et de données soit valables et
appropriées pour être incluses dans le rapport
d’évaluation… …les auteurs ne suivent pas les
consignes du GIEC pour l’évaluation de telles
sources ». Il a donc recommandé que ces consignes
soient « rendues plus spécifiques »
et soient
« strictement appliquées, afin d’assurer que la
littérature non publiée et non examinée par des pairs
soit répertoriée de façon appropriée ». On voit donc
ici que le contenu de certains articles utilisés ne tenait
pas compte des critiques scientifiques que leur avaient
fait les comités de lecture des revues auxquelles ils ont
été soumis. On comprend aussi que des avis divergents
ont été occultés. Quant-à la littérature en demi-teinte
elle est qualifiée de souvent (donc pas toujours) valable
et appropriée.
4 - L'IAC appelle enfin à plus de cohérence entre les
différents groupes de travail dans la caractérisation de
l’incertitude. Il dit du rapport du groupe de travail II,
pris en exemple qu’il « contient beaucoup de
déclarations qui se sont vues attribuer un niveau de
confiance élevé mais pour lesquelles il y avait peu de
preuves. »
Ainsi averti, il m'a paru essentiel de présenter dans
ce poly les différents points de vue.
16/10/12
Fig. 20: courbes de température des rapports IPCC de 1990
et 2001 pour le dernier millénaire ;
a) Courbe en crosse de hockey, modèle 2001,
b) Courbe du premier rapport du GIEC
Concernant l'évolution de la température dans le
temps, on comparera (Fig. 20) les courbes de
températures qui figurent dans les 2 rapports IPCC de
2001 (courbe a) et de 1990 (courbe b). Celle de 2001
(connue sous le nom de courbe en crosse de hockey), due
à James Hansen du Goddard Institute, ne montre plus le
pic de chaleur des XI° au XIII° siècles bien marqué dans
celle de 1990. Pourtant, cet « optimum médiéval »
paraît être d’échelle comparable au réchauffement
actuel :
1 - On connaît à cette époque l’épopée Viking au « Pays
Vert44 », la floraison de roses en Janvier et la vigne
cultivée dans le nord de l’Angleterre. La disparition
la vigne anglaise fut liée d’abord au mariage en
1124 du futur roi d’Angleterre Henry II avec
Aliénor d’aquitaine, qui apporta en dot la région
viticole déjà très développée des vins de Bordeaux.
Mais cette disparition temporaire45 est aussi liée au
refroidissement climatique global (connu sous le
nom de « Petit âge glaciaire ») qui atteint son
apogée trois siècles plus tard. Cette période froide
est elle aussi parfaitement documentée dans les
archives européennes : replis des Viking devant
l’invasion des glaces ; difficultés agricoles de toute
l’Europe ; avancée des glaciers alpins qui menacent
des villages vers la fin du XVI° jusqu’au milieu du
XVII° et dont le recul entrecoupé d’avancées à
commencé vers 1750. Des réchauffements plus
anciens, du même ordre de grandeur que l’optimum
médiéval, ne sont pas à exclure. Ainsi, ont été mises
au jour par des archéologues à des latitudes élevées
(Champagne, région Parisienne, Angleterre) des
alignements de fosses rectangulaires gallo-romaines
semblables à ce que l'on retrouve sur des sites de
vignes gallo-romaines du Sud de la France. Selon
44 Il ne faut pas imaginer que la calotte glaciaire avait
disparue ! Tout au plus les conditions étaient-elles telles
que plusieurs centaines d’humains pouvaient y vivre de
l’agriculture et de la pêche.
45 La vigne fut réimplantée en Angleterre en 1945. Elle
comptait 25 vignobles en 1967 et plus de 300 en 1986
d’après l’English Wineyard Association.
- 115 -
ENSM-SE, 2° A : axe transverse P N
l’auteur de ces découvertes récentes pour la
Champagne, S. Chevrier de l’Inrap (2009), il s’agit
bien de vigne, « les dimensions réduites des fosses
permettent d'exclure l'hypothèse d'un verger. Le «
fantôme » de petit arbuste observé dans la terre de
remplissage a la taille d'un pied de vigne ».
2 - Le fort bruitage observé sur les rapports isotopiques de
l’oxygène dans les échantillons de glace de subsurface
du Groënland (GISP2) ne permet pas d’exploiter le
proxi 18O/16O en dessous de 10K.ans BP. Aussi, T.
Kobashi et al. (2009) ont utilisé les rapports de
l’azote (15N/14N) et de l’argon (40Ar/36Ar). Grace à
ceux-ci, outre des périodicités pluridécennales dont
nous retrouverons des équivalents dans l’étude des
interactions océan-atmosphère (Chp 5 §E), les auteurs
ont reconstruit l’augmentation de température de la
période 1900-1950, jusqu’à -30°C environ au
Groenland, puis la décroissance de 1950 à 1975 (fig.
21a).
3 - Plus en avant dans le temps, cette étude confirme la
réalité au Groenland du petit âge glaciaire entre 1700
et 1800 et de l’optimum médiéval vers 1100 (Fig.
21b), confirmant ainsi que les caractéristiques
climatiques tirées de la littérature historique
européenne ont une représentativité plus large,
probablement extensibles à l’hémisphère Nord au
moins;
Nous sommes sortis du dernier épisode climatique
froid (le Dryas) vers 11000 ans BP (Fig. 21c) de manière
très brutale. On observe une remontée jusqu’à des
températures ½° à 1°C plus chaudes qu’actuellement — voir
à l’extrême gauche de la figure, la remontée et le maximum vers 9000 ans ; il faisait au Groënland -30° à -29.5°C, contre -30.5
actuellement — suivie d’une lente descente pendant 5000 ans
avec des pointes à presque 2°C de plus qu’aujourd’hui,
mais aussi des périodes très froides à presque 3°C de moins.
Ensuite la température remonte jusque vers -3000 ans avant
de redescendre lentement, jusqu’au petit âge glaciaire. La
Fig. 21 a-b: Températures du Groenland d’après Kobashi et al.,
reconstruites à partir des isotopes de l’azote et de l’Argon :
a) période 1750-1989: “Observed (blue) and reconstructed (red)
Greenland temperature records. The observed record is a compilation of
records from llulissat, Nuuk, and Qaqurtop located along the south and west coast
of Greenland (Vinther et al. 2006).”
b) période 1000-actu: “Thick blue line is mean of results of Monte
Carlo simulation, and thin blue linesare error bands (1σ). Red line
is a smoothed temperature history (50-year running mean)”
16/10/12
Fig.21c : Courbe des températures reconstruite à partir des
isotopes des gaz des bulles dans les glaces du GISP 2, données
complètes, disponibles sur le site de la National Oceanic and Atmospheric
Administration (NOAA) , 1° valeur : 95 ans BP, T° -31.59°C
ftp://ftp.ncdc.noaa.gov/pub/data/paleo/icecore/greenland/summit/gisp2/isotope
s/gisp2_temp_accum_alley2000.txt
courbe se termine par la remonté actuelle (en rouge Fig.
21c). La lente descente vers le petit âge glaciaire est
entrecoupée de plusieurs épisodes plus chauds que la
moyenne de l’époque (en vert dans la figure), mais aussi
plus chauds qu’aujourd’hui pour les 2 premiers (optimum
minoéen et optimum romain) ou aussi chaud (optimum
médiéval). A défaut de données disponibles pour cette
période pour le Groënland, les valeurs de la teneur en
CO2 atmosphérique utilisées ici (Fig. 21c en bas) sont
celles des bulles de glace de l’Antarctique (programme
EPICA, European Project for deep Ice Core drilling in
Antarctica). Noter que durant toute la durée de
l’Holocène la concentration en CO2 décroît d’abord un
peu puis remonte lentement, sans aucune corrélation avec
les variations de températures, certes de l’hémisphère
Nord, mais de plusieurs degrés d’amplitude…
Ainsi restitué dans le contexte général des
températures de l’hémisphère Nord depuis la sortie du
glaciaire, le réchauffement du XX° siècle est considéré
par nombre de chercheurs, dits « climato-sceptiques »,
comme le démarrage d’un nouvel évènement chaud, qui
doit être A PRIORI considéré comme comparable aux
précédents.
Un autre aspect souvent abordé dans le débat
climatique est le recul de la banquise et des glaciers
continentaux en de nombreux points du globe. Ce recul
est un indice considéré comme essentiel dans
l’augmentation de la température liée au CO2
anthropique.
En effet, la figure 22a montre que l’accélération
du recul, lorsqu’elle est observable, se produit vers les
années 1930, donc en même temps que la rupture de
pente observable sur la courbe d’élévation du niveau
marin dans la figure 17, et donc en gros avec le début de
l’augmentation de la température globale. Mais plus
globalement, le recul des glaciers continentaux apparaît
très antérieur à cette accélération. Pour 6 glaciers (pour
lesquels la figure nous présente des observations plus
anciennes que 1850) le recul commencerait avec la sortie
du petit âge glaciaire, bien avant la période industrielle.
- 116 -
ENSM-SE, 2° A : axe transverse P N
Fig. 22a : Recul des glaciers dans le monde depuis 5 siècles.
16/10/12
de l’Environnement de Grenoble le paradoxe du recul
généralisé des glaciers alpins à la fin du Petit Age de
Glace il y a 150 ans résulterait donc d’une diminution de
plus de 25% de la précipitation neigeuse hivernale, alors
que les températures estivales restaient stables. Par contre
l’accélération du recul des glaciers durant la seconde
partie du XX° siècle pourrait, elle, peut-être résulter
directement de l’augmentation de la température
observée ? Mais si cette accélération semble bien
correspondre au changement de pente de la remontée du
niveau marin, elle ne correspond pas à la 1° rupture de
pente du CO2 et elle est antérieure de 30 ans à
l’accélération de l’exploitation massive des combustibles
fossiles et au 2° changement de pente de la courbe du CO2
(2° point de rupture). D’une manière globale, le problème
de la fonte des glaces n’est pas encore parfaitement bien
compris.
Dans les années 1990, dans l’hémisphère Nord, le
recul de la banquise et la fonte de l’inlandsis
groenlandais sont devenus incontestables et rapides (Fig.
22c-1, courbe noire), avec une phase d’accélération
marquée de cette fonte entre 2003 et 2007. La période
2008-2010 marque une reconstitution partielle de la
banquise et 2011 un recul comparable à celui de 2007.
2012 établit un nouveau record (Fig. 22c-2). Le recul par
rapport à la moyenne 1979-2000 est de l’ordre de 10%
en hiver et de 25 à 50% en été. Les courbes des
moyennes décennales montrent bien l’approfondissement
du minimum estival et, pour l’heure la quasi stabilité de
l’extension hivernale. En haut, (Fig. 22c-1, en vert) la
courbe de l’extension de la calotte Antarctique montre
une légère augmentation de la calotte (continentale)
depuis 10 ans environ. En tout cas, sa fonte n’est pas
d’actualité. Mais le bilan effectué pour l’antarctique ces
Le Vatnajokull (Islande) avançait et 2 glaciers alpins,
L’Argentière et le Grindenwald, étaient stables. Par contre,
les glaciers du Rhône et le Franz-Joseph (Nouvelle Zélande)
étaient déjà clairement en recul. Le recul des glaciers peut
donc être considéré comme un phénomène plus ancien que
le début de l’accumulation de CO2 industriel, mais accéléré
depuis 1930.
Fig. 22c : Recul de la banquise Arctique (courbe noire) et de
l’inlandsis Antarctique (courbe verte), voir le site actualisé
C. Vincent.et al. (2005) ont montré (fig. 22b) qu’en
fait, pour les glaciers alpins, il n’y a pas de corrélation entre
le recul et la température, la cause du recul résidant dans une
modification de la pluviosité et des chutes de neige. Pour ces
glaciologues du Laboratoire de Glaciologie et Géophysique
Fig. 22b : non corrélation entre longueur des glaciers alpins
et température estivale
1-
http://www.ijis.iarc.uaf.edu/en/home/seaice_extent.htm.
2- http://www.ijis.iarc.uaf.edu/en/home/seaice_extent.htm
- 117 -
ENSM-SE, 2° A : axe transverse P N
Fig. 22d: taux de variation de l’altitude de la surface
glaciaire antarctique (dS/dt); mesures radar altimètre
effectuées de 19920 2003 over the Antarctic Ice Sheet.
Triangle = Zone de front de glace fortement (30 cm/an)
aminci (bleu) ou épaissi (rouge).
16/10/12
Fig. 23b : élévation du nieau de la mer à l’holocène
http://en.wikipedia.org/wiki/File:Post-Glacial_Sea_Level.png.
data from Fleming et al. 1998, Fleming 2000, & Milne et al. 2005
l’océan mondial apparaît stable depuis 2000 ans environ.
Néanmoins, les travaux de détail sur l’évolution du
trait de côte et des paysages — e.g. L. Visset & J. Bernard,
dernières années par les équipes du GIEC (Davis et al.
2005 ; Zwally et al. 2006) a permis de montrer que les
bilans locaux peuvent être positifs ou négatifs (Fig. 22d).
Les variations sont faibles et leur amplitude est du même
ordre que l’erreur liée à la mesure. Il faut donc les surveiller
de très près en fonction de l’évolution à venir du climat.
Elles signifient en effet que, pour l’heure, la contribution de
l’antarctique à l’élévation du niveau marin est négligeable,
mais pourrait ne pas le rester si la température terrestre
devait augmenter.
La conséquence majeure du recul des glaciers réside
dans la remontée du niveau marin. La déglaciation, débutée il
y a 19 000 ans (sortie du Dryas), s'est produite en plusieurs
stades entrecoupés de refroidissement relativement brefs, que
les chercheurs observent, e.g. sur les coraux des Barbades,
e.g. les coléoptères de Grande-Bretagne, e.g. l’étude des
rivages. Au plus froid de la dernière glaciation, le niveau
moyen des mers était 120-130 m plus bas qu’aujourd’hui
(Fig. 23a). Deux accélérations se produisent lors de la
remontée, vers 14 000 ans BP ('meltwater pulse') et vers
11 500 ans BP. Le premier ne dure pas plus de 1000 ans mais
présente une vitesse de remontée de plus de 30 mm/an ! Le
second dure 2000 ans et sa vitesse moyenne de remontée est
de l’ordre de 20 mm/an. Le réchauffement très court (à peine
500 ans) autour de 12700 ans a été lui aussi très brusque : en
moins d'un siècle, la température estivale est remontée de
15°C, rejoignant pratiquement le niveau actuel des
températures. Noter que les coraux ont survécu à la remontée
rapide du niveau de l’océan, y compris aux accélérations les
plus fortes (3m/siècle !), rendant sans objet les craintes de
voir mourir ceux des Maldives et autres récifs coralliens à
cause de la remontée actuelle (20 cm à peine en 1 siècle). A
l’échelle des observations présentées ici (Fig. 23b), la
remontée devient lente vers 7000 BP puis le niveau de
Fig. 23a: élévation du niveau de la mer depuis le dernier
maximum glaciaire;
http://en.wikipedia.org/wiki/File:Post-Glacial_Sea_Level.png.
data from Fleming et al. 1998, Fleming 2000, & Milne et al. 2005
2006, paléo-anthropo-palynologie sur le littoral breton ; K.-E.
Berhe 2003 du Niedersächsisches Institut für historische
Küstenforschung sur le littoral de Basse Saxe — suggèrent
que le niveau moyen des mers n’a jamais cessé de
remonter, du moins dans les zones d’études concernées.
D'après K.-E. Berhe, le facteur essentiel dans la
modification du trait de côte de Basse Saxe est bien la
fluctuation de la remontée du niveau marin et il présente
(Fig. 23c) une reconstruction des variations du niveau
maritime basée sur des observations archéologiques,
géographiques, géologiques et botaniques. La courbe,
valable pour la mer du Nord, permet de tirer des
conclusions intéressantes :
a) Des hausses et des baisses de niveau marin très
rapides ont eu lieu notamment ces derniers 1000
ans, pouvant atteindre 4, voir 8 millimètres par an ;
b) Ces valeurs importantes sont encadrées par une
montée moyenne de 1 mm/an depuis 3000 ans.
A l’échelle globale, la courbe d’élévation du
niveau marin présentée par le GIEC 2007 (Fig. 17) ne
débute pas avant 1870. Mais elle montre elle aussi des
variations de la vitesse de remontée, à savoir :
a) Le montée du niveau marin est positive dès le début
de la courbe présentée ; une élévation régulière est
mesurable (0.9 mm /an) pour la période 18701920. Celle-ci est compatible avec l’évaluation
moyenne de Berhe
b) une accélération brutale apparaît (rupture de la
pente) vers 1930 ;
c) postérieurement à 1930, on peut distinguer quatre
segments témoignant d’une remontée en quatre
épisodes plus ou moins rapide, 2.4 mm/an puis 2.1
puis 3.5 à 3.7 mm /an et enfin 1.9 mm/an.
Ces pentes, reportées dans la figure 23c,
confirment les conclusions tirées de la figure de K. E.
Berhe. Il conviendrait de rechercher d’autres études
archéologiques pour confirmer la cohérence des valeurs
modernes de remontée avec celles de K. E. Berhe.
On a admis longtemps que 50% de l’élévation du
niveau des mers au cours du XX° siècle (période de recul
maximum des glaciers) étaient dus à la dilatation
thermique de l’océan et 50% dus à la fonte des glaciers
(voir Eustatisme § E6). Donc, durant les décades plus
froides, 1870-1920, 1945-1975, non marquées par une
augmentation de la température (Fig. 12), l’essentiel du
signal aurait dû correspondre au recul des glaciers. Mais
alors, le recul ante-industriel des glaciers ou l’élévation
- 118 -
ENSM-SE, 2° A : axe transverse P N
Fig. 23c: élévation du niveau de la mer depuis 1000 ans,
d’après Behre K.E., 2003
16/10/12
Fig. 25: Coupes NS de l’atmosphère après 1 siècle d’effet de
serre (XX°), comparaison entre :
1) le modèle de températures, GIEC 2007, Chp 9 Fig. 9f, sum of
all forcings : (a)solar forcing, (b) volcanoes, (c) wellmixed greenhouse
gases, (d) tropospheric and stratospheric ozone changes, (e) direct
sulphate aerosol forcing.
http://co2thetruth.e-monsite.com/rubrique,montee-des-mers,404968.html
du niveau marin durant ces épisodes froids se trouvait
en contradiction avec la courbe des températures
moyennes, stables voire décroissantes pour ces
périodes. On admet en 2012 que l’essentiel de la
hausse du niveau marin serait causé par la fonte des
glaciers (voir § E6).
Cette remontée actuelle du niveau marin est
bien sûr l’objet d’une forte inquiétude car elle risque
d’induire des catastrophes et des déplacements
massifs de populations. Il en fut ainsi en lors de
l’évènement de « vimer » Xynthia qui endeuilla la
façade maritime française en février 2010. Un vimer
est une submersion marine liée à la conjonction
d’évènements cycliques, des marées d’exception —
les coefficients >110 sont des évènements pluriannuels
classiques des équinoxes — avec des épisodes
2) les valeurs observées actuellement
U.S. Climate Change Science Program Synthesis and Assessment Product 1.1,
Chp 5 p 116
climatiques accidentels (mais bien sûr saisonniers)
tels que des queues de cyclones qui viennent mourir
de ce côté de l’Atlantique ou des tempêtes hivernales
On dispose de peu d’informations sur l’évolution
balayant l’ouest-européen. De telles dépressions engendrent
historique de la pluviométrie en relation avec le climat.
une onde de tempête dont la hauteur conduit à une surcote
Deux sources indépendantes peuvent être évoquées : i)
de l’onde de marée pouvant dépasser plusieurs mètres. La
les modèles des climatologues considèrent maintenant
cote atteinte dans le cas de Xynthia, tempête + marée, a été
que si les scenarios du GIEC se réalisaient, leur influence
de 7m à 7.3 m ZH (au dessus du Zéro Hydrographique), soit
sur la pluviométrie serait sans doute plus importante en
une altitude de 3.5 à 3.8 m NGF (Nivellement Général de la
terme de modalité (périodes courtes de pluies intenses)
France). L’histoire locale des côtes basses en Europe
qu’en terme de quantité ; ii) les travaux sur les cernes de
rapporte 22 tempêtes dépassant force 10 sur l’échelle de
croissance d’arbres en Europe, conduits par l’équipe de
Beaufort pour les 5 derniers siècles, avec une fréquence
Ulf Büntgen et Willy Tegel, publiés en 2011 (Fig. 24)
variable, et donc hélas le temps d’oublier. On comprend
confirment qu’il n’y a pas eu de variations importantes
l’inquiétude des riverains, habitant parfois à des cotes NGF
de la pluviométrie depuis 2500 ans malgré les différents
négatives, qui se voient devoir affronter un réchauffement
changements de température.
risquant de se traduire par des décimètres, voire des mètres,
L’une des empreintes essentielles des GES sur la
de montée du niveau marin.
température de l’atmosphère, prévue par les modèles et
Dernières inquiétudes liées à l’augmentation des considérée comme caractéristique, donc très recherchée,
températures durant le XX° siècle, la fréquence et la est la présence d’un point chaud aux basses latitudes, à
violence des cyclones, dont nous discuterons l’évolution environ 10km d’altitude, que l’on nomme « tropospheric
avec l’étude des océans plus loin (§D2), et la sécheresse.
hotspot » (Fig. 25). Aucun point chaud n’a été observé et
depuis 2007 la discussion fait rage : Les modèles
Fig. 24 : Reconstruction des précipitations estivales à partir des cernes des de circulation globale sont-ils pris en défaut ? Les
arbres.
phénomènes d’amplification de l’effet de serre
sont-ils contrôlés par d’autres variables que celles
prises en compte, telles que la variation de la
teneur en vapeur d’eau avec l’altitude par
exemple ? Les relevés de température de la
troposphère sont-ils déficients ? Est-ce toute
notre appréciation du principe même de l’effet de
serre qui est à revoir ?
- 119 -
ENSM-SE, 2° A : axe transverse P N
5) Le rôle des radiations solaires.
Les radiations solaires, UV, visibles et IR sont en fait
le premier facteur qui régit le climat. Cette source d’énergie
n’est pas exactement constante, et il a été observé depuis le
début du XX° siècle des covariations étroites entre l’activité
magnétique du soleil et la fréquence des taches solaires.
Celles-ci sont d’ailleurs observées depuis plusieurs siècles et
les variations de leur nombre ont été mises en relation avec
un cycle d’activité de 11 ans environ. En fait, cette période
n’est pas exactement constante, et plus le soleil est actif (plus
le nombre des taches augmente) plus la période de ce cycle
se raccourcit, jusqu’à moins de 10 ans. Parmi plusieurs
tentatives menées depuis les années 90 pour évaluer
l’incidence de l’activité solaire sur le climat terrestre,
retenons l’étude récente de W.H.S. Soon 2009 du HarvardSmithsonian Center for Astrophysics Cambridge,
Massachusett. La moyenne de l’activité solaire (à gauche),
est définie par l’intervalle entre deux maxima de taches
solaires (courbe noire). La coïncidence — observable aussi sur
les courbes d’irradiance (bleu) et de durée des cycles solaires (vert)
reportées dans la figure 17 (comparer avec la position des point
d’inflexion 1, 2 et 3 de la courbe d’évolution de la température) —
16/10/12
Fig.26b : Le minimum d’activité solaire (fin du cycle 23)
ayant tardé jusqu’en Mars 2009, le maximum du cycle 24
est attendu pour avril 2014 avec un nombre de taches très
inférieur au maximum enregistré en 2000 par le cycle 23
http://www.swpc.noaa.gov/SolarCycle/index.html
la valeur estimée figurant dans le 3° Rapport du GIEC .
Mais plusieurs astrophysiciens considèrent que le
problème est mal posé, et que seule la partie haute énergie
du spectre UV du Soleil doit être prise en compte ; elle est
responsable de la fabrication de l’ozone et du chauffage
de la haute atmosphère, qui conditionne la structure
thermique de l’atmosphère. Les variations de la
concentration d’ozone avec les cycles solaires pourraient
expliquer 20% de la variation de la température. Les
données les plus récentes obtenues sur la tranche des 8
premiers Km à partir des satellites et non les valeurs au
sol, suggèrent qu’un découplage entre valeurs du CO2
atmosphérique et température est en train de se produire,
confirmant le rôle de l’activité solaire. D'après R.
Fairbridge, et selon I. R. G. Wilson, B. D. Carter et I. A.
Waite 2008, ce sont les déplacements du Soleil autour du
Barycentre de notre système
qui sont à l'origine des
Fig.26a : Courbes comparées de l’activité solaire (Total solar irradiance), du CO2
variations de l'intensité et des
atmosphérique et de la température de l’atmosphère
durées des cycles éruptifs du
soleil. Bien évidemment la
position des deux géantes
gazeuses, Jupiter et Saturne
jouent un rôle prépondérant
dans le déplacement du Soleil.
L’étude historique des cycles
solaires a montré la coïncidence
de l’activité solaire minimale et
de la durée maximale du cycle
lors de leur alignement,
correspondant
à
un
déplacement maximum du
Soleil. L’affaiblissement du
Même courbe TSI calée sur l’extrait de la fig.13
cycle 23 et le démarrage très
retardé du cycle 24 (Fig. 26b)
sont conformes au modèle
« SIM » (Solar Inertial Motion,
mouvement inertiel du soleil)
de R. Fairbridge. Celui-ci prédit
une atténuation nette et
progressive des cycles solaires
de 2010 à 2040. Faut-il en
conclure, par opposition au
est remarquable et bien meilleure que celle entre la courbe de
température et de la teneur en CO2 (même figure 26a à
droite, et « presque aussi bonne » que le modèle complexe
anthropique + naturel de l’IPCC, qui rappelons le, prend en
compte l’activité solaire (Fig. 19c). Ce travail a fait l’objet de
plusieurs remarques notamment sur le choix de la courbe des
températures prise en référence. Aussi avons-nous reporté
cette courbe de l’activité solaire sur celle des anomalies de
température du GIEC, extraite de la figure 17. En l’absence
d’une théorie explicative convaincante de l’influence solaire,
les modèles les plus récents continue à minimiser l’influence
solaire en face de celle des GES et le rapport du GIEC 2007
considère que « les variations de l’éclairement énergétique
solaire ont provoqué, depuis 1750, un léger forçage radiatif
de + 0,12 [+ 0,06 à + 0,30] W/m2, soit moins de la moitié de
- 120 -
ENSM-SE, 2° A : axe transverse P N
modèle GIEC un refroidissement généralisé de la planète ?
16/10/12
ressource, sans réflexion sur l’impact de notre
industrialisation de toute la planète sur le vivant,
océanique en particulier car caché à nos yeux.
L’adaptation et la mitigation devront venir épauler le
développement soutenable. Quant-au phantasme d’un
retour à une atmosphère semblable à celle d’avant la vie,
éradiquant toute vie sur Terre, ne nous trompons pas de
cible ; l’essentiel du CO2 atmosphérique initial n’est pas
stocké en charbon ou en pétrole, mais bien en calcaire
(CaCO3, voir § F3), et il nous faudrait bétonner, et
bétonner encore pour épuiser cette ressource carbonée et
retourner à l’atmosphère primitive de la Terre !
Pour Enrik Svensmark (2007) et son équipe du
Centre national danois de l’espace (DNSC, Copenhague
http://cr0.izmiran.rssi.ru/mosc/main.htm) la relation entre l’activité
solaire et le réchauffement climatique réside dans
l’interaction entre la formation des nuages de basse altitude,
qui accroissent l’effet de serre (contrairement aux cirrus dont
les paillettes de glace augmentent l’albédo de la planète) et le
rayonnement cosmique d’origine galactique. Plus celui-ci
pénètre notre atmosphère et plus l’ionisation qu’il y produit
est favorable à la nucléation des gouttes d’eau. Les électrons
libérés participent en effet à la création de petits noyaux de
condensation dans la vapeur d'H2O. S’ils sont assez
nombreux, ces micronoyaux se regroupent en petits paquets 2 - La stratosphère et la protection contre les UV
et condensent la vapeur d'eau présente dans l'atmosphère, solaires
formant ainsi des gouttelettes d'eau. Les nuages se forment
Elle s’étend jusque vers 50 km environ. L’air y est
en effet par condensation de la vapeur d’eau présente dans
l’atmosphère. Ordinairement, pour que cette condensation se de plus en plus raréfié. Elle est caractérisée par sa
fasse, un peu comme la buée se forme sur une surface froide, température croissante, qui augmente jusqu'à +20 °C
il faut, outre le refroidissement de la parcelle d’air maximum. Les premières estimations de température de
environnante, la présence de petites particules (aérosols). Les la stratosphère sont dues à A. Lindeman et G.M.B.
rayons cosmiques (galactiques) de haute énergie qui Dobson 1931. Elles sont fondées sur l’observation de la
pénètrent dans l'atmosphère terrestre agissent donc comme brillance et la longueur des étoiles filantes, c’est à dire sur
des catalyseurs de cette réaction, mais ils sont plus ou moins la vaporisation des météorites par frottement et
déviés par les orages magnétiques engendrés lors des l’excitation résultante des molécules stratosphériques.
Lindeman et Dobson en déduisirent la densité et la
éruptions solaires.
température de la stratosphère.
La variation de l’activité solaire, que traduit le
nombre des taches, accroît ou diminue l’intensité de son
a - Cycle de Chapman
champ magnétique. Celui-ci constitue donc un bouclier
d’efficacité variable, détournant plus ou moins de la Terre le
Dès 1930, S. Chapman suppose que
rayonnement cosmique, modulant de ce fait l’action du l’augmentation de la température dans la stratosphère est
champ galactique sur la nucléation des nuages. Ont-ils liée à la production de l’ozone par photodissociation de
raison ? Cette hypothèse très controversée au départ, fait l’oxygène sous l’effet des UV solaires (Fig. 27a). La
l’objet de l’expérience Cloud46 au CERN, débutée en 2010.
concentration en ozone est maximum entre 20 et 30
L’approche du changement climatique est un
problème complexe encore mal maîtrisé. Dans l’espace
public, la crainte suscitée par la complexité scientifique du
problème s’est vue renforcée par le débat politiqueécologique-médiatique qui a substitué à la notion de
changement celle de dérèglement, à l’analyse des risques le
principe de précaution, véhiculant ainsi la peur d’un avenir
devenu incertain et appelant à un retour à la règle. Quelle
règle ? Quel état antérieur ? Le climat a toujours été en cours
de changement. Faut-il alors balayer d’un revers notre
capacité à nous nuire à nous-mêmes ? Le déstockage des
combustibles fossiles est considérable. Il rend à l’atmosphère
une partie du carbone lentement minéralisé durant les temps
géologiques. Nous le consommons de façon absurde, comme
tout le reste d’ailleurs, sans souci de l’épuisement de la
Km. En moyenne, elle est quasi nulle dans la troposphère.
L’épaisseur de la couche d’ozone pur que l’on pourrait
former avec ce gaz est de 2.5 mm ! Son rôle n’en est pas
moins fondamental dans la protection de la vie non
aquatique puisque comme nous allons le voir, sa
production absorbe une part essentielle des UV à haute
énergie du spectre solaire.
46 La théorie de E. Svensmark reprend en fait le principe de
la chambre à brouillard, premier appareil construit par les
physiciens pour mettre en évidence les rayons cosmiques.
Dans un récipient en verre contenant une atmosphère saturée
de vapeur à la pression ambiante, on provoque détente.
Celle-ci déplace le point de rosée, et un brouillard se forme.
Les particules cosmiques qui traversent ce brouillard
provoquent la formation de gouttelettes sur leur trajectoire.
Le projet Cloud mettre en œuvre une vaste chambre remplie
avec un mélange de gaz identique à celui de l'atmosphère.
qui doit être bombardé avec des particules de haute énergie
identiques à celles qui nous viennent de l'espace.
Fig. 27a : cycle de Chapman, production-destruction de l’O3
La production de l’ozone dans l’atmosphère est
assurée par la photodissociation du dioxygène O2 sous
l’effet des UV courts. Ce mécanisme est double :
1) faible dissociation dans la mésosphère en dessous de
85 km par absorption d'UV de longueurs d'ondes
comprises entre 175 et 200 nm ;
2) forte dissociation dans la stratosphère au-dessous de
50 km par absorption d'UV de longueurs d'ondes
comprises entre 200 et 240 nm.
- 121 -
ENSM-SE, 2° A : axe transverse P N
Après cette réaction de dissociation
(1)
O2 + hν
ν ⇒ O +O
deux cas sont possibles:
1 - soit une recombinaison en présence d’une tierce
molécule M (N2, O2 ou particule solide),
( 1' )
O +O (+M) ⇒ O2 +M,
{réaction qui a lieu surtout à haute altitude (≥70Km)
2 - soit la formation d’ozone
(2)
O +O2 (+M) ⇒ O3 +M.
La molécule M sert à absorber l’énergie de vibration
de la molécule formée, liée à l’association O+O ou O+O2. Le
maximum de photodissociation de l’oxygène à lieu vers 25
km d’altitude, et se traduit par un maximum de concentration
en ozone, également dans la stratosphère. On a constaté que
la quantité d'ozone stratosphérique se conforme aux
variations du rayonnement solaire liées à la latitude ou à la
saison, mais avec des décalages très importants. Ainsi, sa
concentration est maximum au printemps et minimum en
automne, et son abondance est supérieure aux hautes
latitudes par rapport à celle des basses latitudes. Ceci
démontre que l'ozone est instable, mais que les réactions
chimiques de destruction sont relativement lentes, en tout cas
par rapport au transport atmosphérique dans la basse
stratosphère.
b - Quatre types de réactions rendent
l'ozone formé instable:
En premier lieu il peut être simplement recombiné à
l’oxygène atomique
(3)
O3 +O ⇒ O2 + O2
En second lieu il peut être dissocié par des UV plus longs
(λ
λ<310nm) que ceux qui provoquent
la dissociation de l'O2 :
O3 + hν
ν ⇒ O2 +O(1D)
(3)
L’oxygène monoatomique O(1D) produit dans cette
réaction est très excité et joue un rôle ultérieur sur la
stabilité de l’ozone, à travers celle des constituants
minoritaires de la stratosphère, H2O, NO2 en
particulier. Il est en effet beaucoup plus réactif que
l'oxygène normal au repos O(3P).
En troisième lieu, certains des constituants minoritaires de
l'atmosphère interviennent naturellement à travers un
cycle catalytique de destruction de l’ozone, que
l'on peut schématiser comme suit:
X +O3 ⇒ XO +O2
XO +O ⇒ X +O2
O(1D) + CH4
⇒ OH + CH3
Les réactions (4a) et (4b) ne peuvent pas être
significativement renforcées par l'activité humaine.
En effet, la teneur en eau de la stratosphère est
d'une part extrêmement basse, et d'autre part en
équilibre avec celle de la troposphère. Or celle-ci
ne peut évoluer de manière importante car l'air
terrestre est quasiment saturé en eau. Seule la
destruction du méthane (4c) peut donc évoluer
réellement négativement dans le futur.
Le monoxyde d'azote, NO, qui intervient aussi de la
même manière dans le cycle suivant
NO +O3 ⇒ NO2 +O2
(5)
NO2 +O ⇒ NO +O2
trouve son origine encore dans une réaction de
l'oxygène excité O(1D) avec de l’hémioxyde
d’azote N2O; deux réactions sont possibles:
réaction productrice de NO
(5a)
O(1D) + N2O
⇒ NO + NO
réaction non productrice de NO
⇒ N2 + O 2
O(1D) + N2O
Cette dernière réaction n'alimente pas le cycle, et
au contraire en diminue l'efficacité. Compte tenu
de l'abondance des produits azotés dans
l'atmosphère, le cycle (5) pourrait s'avérer
extrêmement destructeur s'il n'existait des réactions
parasites qui attaquent le NO2 formé dans ce cycle:
NO2 + hν(λ<240nm) ⇒ NO + O
Et O + O2 ⇒ O3
cette photodissociation très rapide du dioxyde
mène donc finalement à la régénération de
l'ozone. C'est le même phénomène qui
provoque la production d'ozone troposphérique
irritant pour nos bronches dans les régions
polluées, par les gaz d'échappement en
particulier.
(5b)
a)
(5c)
b)
NO2 + H + (M) → M + HNO3
l'acide nitrique produit de cette manière est un
composé abondant de la stratosphère. Mais il
est soluble dans l'eau et gagne la troposphère
avec elle en franchissant la tropopause. Sa
solubilisation régule ainsi sa concentration
(constante) dans la stratosphère.
La production de l'hémioxyde N2O est donc une
clef essentielle de la destruction de l'ozone; N2O
présente une double origine:
L'hydrogène monoatomique et le radical hydroxyle, H
et OH, qui interviennent dans ce cycle comme suit,
(4)
(4c)
16/10/12
H +O3 ⇒ OH +O2
OH +O ⇒ H +O2
H et OH ne sont pas produits dans la stratosphère, par
photodissociation de l'eau comme dans la mésosphère,
mais par des réactions avec l'oxygène excité O(1D):
l'hydrogène diatomique,
(4a)
O(1D) + H2
⇒ OH + H
l'eau,
(4b)
O(1D) + H2O
⇒ OH + OH
le méthane
- 122 -
a) il peut être produit en altitude par la
combustion de l'azote diatomique avec
l'oxygène, N2+2O2 à très haute Température,
naturellement sous l'effet de la foudre, et
artificiellement dans les réacteurs des avions
volant à très haute altitude;
b) azote de l’air est transformé dans le sol en
nitrates, dont une partie donne lieu (action de
bactéries dénitrifiantes) à des produits gazeux,
N2 et N2O, qui s’échappent dans l’atmosphère.
Comme la durée de vie de ce dernier composé
est suffisamment longue dans la troposphère, il
atteint la stratosphère où, avant d’être
ENSM-SE, 2° A : axe transverse P N
16/10/12
Fig.27b : Raies d’absorption des SAO et de l’O3 dans la
stratosphère
photodissocié en N2 et O, il réagit en présence
d'oxygène excité O(1D) suivant le processus (5a)
pour produire du monoxyde d’azote.
En quatrième lieu, certains composés naturellement rares,
les composés halogénés47 ont été introduits
massivement dans l'atmosphère par l'homme, sous
forme de halocarbones, les CFC. Ils interviennent tous
de la même manière que le chlore, pris en exemple:
Cl +O3 ⇒ ClO +O2
(6)
ClO +O ⇒ Cl +O2
Mais ClO est instable et réagit avec le monoxyde
d'azote, ce qui réduit d'autant les processus de
destruction de l'ozone
ClO + NO ⇒ Cl + NO2
Certes, Cl est rendu au cycle catalytique, mais 1 NO est
consommé en échange, et NO2 rentre dans les réactions
positives (5b) et (5c).
Parmi les réactions qui limitent l'efficacité des cycles de
destruction de l'ozone par les composés halogénés, on
citera l'intervention du méthane sur le chlore:
Cl + CH4 ⇒ CH3 + HCl
Bien que l'acide chlorhydrique formé ici soit instable et
réagisse avec les hydroxyles (1 OH consommé
restituant 1 Cl) dans la réaction
HCl + OH ⇒ H2O + Cl
De la même façon que l'acide nitrique dans le cycle
azoté, HCl constitue un puits troposphérique pour les
produits chlorés de la stratosphère, en se solubilisant
dans l'eau après avoir traversé la tropopause. La
consommation de CH4 est doublement intéressante car,
outre le fait qu'il s'agit d'un GES redoutable, le méthane
intervient aussi dans la production d'hydroxyles dans le
cycle (4c).
Les halocarbones sont des composés remarquablement
stables dans la basse atmosphère, ce qui leur a conféré
un intérêt industriel tout particulier. En contrepartie, ils
ne sont pas détruits dans la troposphère par des
réactions chimiques, et finissent par gagner la
stratosphère, où ils sont photodissociés et où ils libèrent
les atomes de chlore qui attaquent l’ozone (6)
Un seul produit halocarboné est naturel, le
chlorure de méthyle, CH3Cl; d’origine naturelle marine, il
est aussi certainement un constituant de la fumée qui apparaît
lors de la combustion des végétaux, qu'il s'agisse du brûlage
des terres, de l'essartage des forêts ou de la culture sur brûlis,
mais aussi de la combustion de produits chlorés
(polyvinyles). Tous les autres composés halogénés présents
dans l'atmosphère terrestre sont des produits industriels,
citons le tétrachlorure de carbone, CCl4, et parmi les
fréons, le trichlorofluorométhane CFCl3 (Fréon 11) et le
dichlorodifluorométhane, CF2Cl2 (Fréon 12), gaz
propulseurs et/ou réfrigérants. La production annuelle de
CFCl3 est passée de 1 000 T. en 1947 à 35 000 T. en 1957,
puis 150 000 T en 1967 et 310 000 en 1989 … imposant, dès
lors que des solutions techniques de remplacement étaient
47
trouvées, une réflexion mondiale sur leur utilisation ;
rappelons :
Vienne 1985 : Engagement des Etats parties à
protéger la couche d’ozone et à coopérer scientifiquement
afin d’améliorer la compréhension des processus
atmosphériques. Montréal 1987 : interdiction de la
production et l’utilisation des CFC d’ici à l’an 2000.
Londres 1990 : les Etats s’engage dans un renforcement
progressif de la protection de la couche d'ozone.
Copenhague 1992, Vienne 1995, 1997 et Pékin 1999 :) 4
amendements apportant de nouvelles restrictions d’usage
sur d’autres substances (e.g. HCFC).
c – Impact des SAO
Il est difficile d’établir le bilan global sur l’effet de
serre des effets cumulés de la destruction d’O3 (qui
compte au nombre des GES) par les halocarbures et autres
substances anti ozone (SAO) et du forçage radiatif induit
par ces mêmes substances, dont les raies d’absorption sont
observables dans les fenêtres 8-9 et 10-14 µm que nous
avons définies plus avant (Fig. 5) et dans la figure 27b. A
la complexité chimique du cycle de l’Ozone s’ajoute une
complexité de stockage. L’O3 est produite essentiellement
sous les basses latitudes et elle rejoint ensuite les hautes
latitudes où elle reste piégée dans le vortex solaire. Sa
concentration y est maximale au printemps et passe, en
automne, par un minimum, inférieur de quelques %
relatifs. En effet, durant l’hiver, l’atmosphère du pôle
s’organise en
tourbillon (vortex) tropo- et
stratosphérique. Au pôle Sud, ce vortex est situé au-dessus
du
continent
Antarctique
englacé
(et
donc
morphologiquement homogène) et entouré par le courant
marin circulaire d’Ouest. Il en résulte que, en Antarctique,
le vortex est bien centré au niveau du pôle sud et qu’il y
est généralement très stable. Comme la synthèse de
l’ozone demande des UV qui ne sont pas disponibles à ces
latitudes en hiver, l’équilibre fabrication-destruction
d’ozone est nécessairement déplacé et la concentration en
ozone décroît. En outre, les oxydes d’azote (N2O, NO2),
dont nous avons vu le rôle modérateur dans le cycle de ont
une action très limitée en hiver car sous forme cristaux qui
offrent des surfaces de contact aux oxydes d’azote (piégés
et donc inhibés) et aux CFC. Ceux-ci s’y décomposent et
relâchent des atomes de chlore, destructeur de l’ozone.
à base de fluor (F), chlore (Cl), iode (I) et brome (Br).
- 123 -
ENSM-SE, 2° A : axe transverse P N
Fig. 27c : en haut, anomalie de la couche d’ozone (moyenne
mondiale) corrigée des variations saisonnières, exprimées en %
de la moyenne calculée pour la période 1964 – 1980 : mesures
terrestres (ligne noire) et satellite (couleur) ;
16/10/12
Fig 28: Eruption du Pinatubo, 1991 : 15 106 T de SO2
injectées dans la stratosphère, transformées en gouttelettes de
H2SO4 absorbent (en rouge) l’énergie solaire ; durée du
phénomène, 2ans.
en bas, mesures moyennes de l’épaisseur de la couche d’ozone
en octobre, spectrophotomètrie faite en Antarctique.
Dobson Unit (DU). la colonne (d'ozone) est présumée pure, à
pression normale (1013.15 hPa) et à 0° C (273.15 K). La densité
de la couche est exprimée en milli-centimètre (10-5m).
300 DU correspondent à une épaisseur de couche de 3 mm,
http://www.ipcc.ch/; http://www.cactus2000.de/fr/unit/massozo.shtml;
Les mesures de concentration effectuées montrèrent,
dans les années 85-90, que le minimum automnal atteignait
30 à 40% relatif au pôle Sud, le pôle Nord étant épargné par
le phénomène (Fig. 27c, valeurs corrigées des variations
saisonnières). La bonne connaissance du cycle de Chapman
fit rapidement suspecter les CFC, bien que produits et utilisés
principalement dans l’hémisphère Nord. La grande réactivité
de l’industrie des aérosols — rapidement prête à mettre avec
avantage sur le marché un gaz propulseur sans Chlore dans nos
bombes et des fluides caloriporteurs dans la plupart des
installations réfrigérantes ou climatisations — a fait disparaître
très vite la pollution par le Fréon ! Et le trou de l’Ozone a
commencé à se refermer, rapidement tout d’abord, puis
ensuite à un rythme que la communauté scientifique
considère comme anormalement lent, alors qu’aucune source
de CFC ne vient plus détruire l’Ozone depuis l’accord de
Montréal en 1997.
Aurait-on imputé aux SAO une agressivité excessive,
ou bien le poids volumique des CFC les entraînait-il moins
que prévu vers la stratosphère, rendant leur éradication moins
performante ? Faudra-t-il (et pourra-t-on ?) appliquer la
même politique contraignante avec les NO2 dont nous avons
souligné la nocivité ? Aurait-on omis quelque molécule dans
le panel des SAO ?
Il convient, on le voit, de rester prudent à cet égard. La
taille du trou autour du pôle dans la couche d’ozone reste une
préoccupation de santé publique sous les hautes latitudes
Sud, Chili, Argentine, Nouvelle Zélande en particulier,
même si l’on peut espérer un retour à la normale d’ici moins
d’un siècle.
3 - La mésosphère
La connaissance de la mésosphère remonte aux
années 50. On y a appliqué une méthode d’étude comparable
à celle que Lindeman et Dobson utilisèrent pour la
stratosphère, en mettant au point le suivi radar de billes
lâchées à haute altitude par fusées. L’analyse de leur
trajectoire permet de remonter à la densité de l’air et à sa
température aux altitudes considérées. La température
décroît rapidement avec l’altitude. Vers 80 km, elle
atteint -140°C (Fig. 2).
Au-dessous de 85 km, la mésosphère, est encore le
siège de la photodissociation de O2, surtout par absorption
entre 200 et 175 nm. Les oxygènes monoatomiques
s'associent alors à de l'O2 pour former de l'ozone, mais en
quantité très inférieure à l'ozone stratosphérique.
La mésosphère est aussi le lieu de la
photodissociation de H2O et de CH4, toujours par des UV
courts (λ<200 nm):
H2O + hν
ν ⇒ OH +H ou O +H2;
CH4 + hν
ν ⇒ CH2 + H2
Cette région de l’atmosphère est en outre le siège
des nuages noctiluques. La nature de ces nuages,
observables seulement après le coucher du soleil, n’est pas
encore bien connue. Il ne s’agit probablement pas de
nuages de glace, car la quantité de vapeur d’eau
disponible à cette altitude est très faible. Ils seraient plus
probablement constitués de débris météoritiques ou de
poussières cométaires, et/ou de poussières volcaniques
(Fig. 28). En effet, on a pu observer à maintes reprises lors
des éruptions à caractère explosif, éruptions pliniennes ou
ignimbritiques48, que les éléments fins de la colonne de
48
La distinction entre les 2 types d’éruptions ne réside pas
dans la nature du matériau, essentiellement rhyolitique
(composition d’un granite), mais dans le mode de
dissipation de l’énergie :
1 - dans une éruption plinienne, en colonne, la plus
grande partie de l’énergie est dissipée dans une
explosion initiale canalisée par un conduit étroit (Ø <
200m). Les vitesses d’émission peuvent atteindre
300m sec-1
2 - dans le cas d’une éruption ignimbritique, la nuée
ardente présente à l'émission une densité supérieure à
celle de l'air ambiant. Mais elle incorpore en dévalant
les pentes du volcan une quantité importante d’air
- 124 -
ENSM-SE, 2° A : axe transverse P N
produits volcaniques49 peuvent atteindre plusieurs dizaines
de Km d’altitude. En incorporant de l’air froid qui se dilate,
les mouvements convectifs internes au panache entretiennent
l’ascension des matériaux volcaniques. Ils atteignent ainsi
aisément la stratosphère. A partir de là, une petite fraction
de poussière pourrait rejoindre la mésosphère pour y former
les nuages noctiluques.
16/10/12
déceler l’existence de couches conductrices dans
l’atmosphère. Comment l’onde radio pouvait-elle suivre la
courbure terrestre ? O Hearside émit l’hypothèse que les
ondes devaient être guidées entre l’océan d’une part et une
couche suffisamment conductrice dans l’atmosphère pour
les piéger d’autre part.
L’air des 70 premiers Km de l’atmosphère n’est
pas conducteur, on appelle cette couche basse la
neutrosphère. Au-delà commence l’ionosphère. A cette
altitude la quantité d’ions et d’électrons libres arrachés par
les UV courts et le rayonnement X solaire est suffisante
pour rendre l’atmosphère conductrice. Dans le champ
d’une onde radio, les électrons oscillent et réémettent cette
onde. La densité croissante d’électrons avec l’altitude a
pour effet d’incurver, et finalement de réfléchir cette onde
radio vers la Terre. En fait l’augmentation de la
“ concentration ” électronique n’est pas linéaire. Elle
passe par 3 maxima, qui constituent 3 réflecteurs radios
(Fig. 2) :
Avec la dispersion du nuage dans la stratosphère
les éruptions peuvent provoquer une diminution de
l’insolation qui peut être à l’échelle planétaire mais
qui ne dépasse pas quelques mois (Tambora 1815,
Krakatoa 1883, El Chichon 1982, Pinatubo juin 1991).
La dispersion du nuage volcanique est aussi responsable
de l’introduction d’aérosols (composés soufrés en
particulier) dans la stratosphère. Leur rôle climatique est
encore largement discuté.
4 - La thermosphère
Au-delà de la mésopause débute la thermosphère
(Fig. 2). Elle s’étend jusqu’aux confins de l’exosphère, vers
500 Km (cf. § composition de l’atmosphère). L’air, quoique
raréfié, freine malgré tout les satellites. C’est d’ailleurs
l’analyse de leurs trajectoires qui a permis, dès le début des
sixties, de mieux connaître cette région de notre globe.
1 - la région D, située vers 80-90 Km d’altitude
2 - la région E, située aux alentours de 100 Km
3 - les régions F1 et F2, situées vers 180 et 350 Km.
Dans l’ionosphère, l’atmosphère n’est que très
partiellement ionisée, et les phénomènes qui s’y passent
sont encore largement du domaine de la physico-chimie
des espèces neutres.
La température des molécules et atomes y croît très
fortement, par absorption des UV très courts. Elle peut 2 - La magnétosphère
atteindre 2000°C au zénith, et chuter de plus de 500° durant
la nuit ! Toutefois, la densité du gaz y est si faible que la
La limite entre l’ionosphère et la magnétosphère se
chaleur transmise aux satellites est négligeable.
situe autour du millier de Km. A cette très haute altitude,
l’atmosphère est très fortement ionisée et l’on entre dans
La photodissociation des gaz atmosphériques donne à le domaine du plasma. Il s’agit d’un plasma à faible
ce brouet très clair une composition complexe, mélange densité composé d’électrons et d’ions, dont l’origine est
d’oxydes d’azote, de molécules diatomiques, N2, O2, H2, et double :
d’atomes,
principalement
d’oxygène
et
quelques
1 - une partie de ce plasma d’origine terrestre, est dite
hydrogènes. Elle est le siège des aurores polaires..
ionosphérique ; rappelons que cette altitude
nous situe dans l’exosphère, sous l’influence des
Au voisinage de l’exosphère, il semblerait exister un
X et UV solaire qui transforment les molécules
début de stratification par densité des gaz atmosphériques qui
atmosphériques en ions plus électrons ;
ne sont plus brassés par aucun vent.
C - Stratification électromagnétique de l'atmosphère :
On distingue communément 3 strates :
1 - neutrosphère ;
2 - ionosphère ;
3 - magnétosphère
1 - La neutrosphère et l’ionosphère
Il aura fallu attendre 1901 et les expériences de
transmissions radio à longue distance de G. Marconi pour
ambiant (froid) qui se dilate, conduisant le mélange vers
une densité inférieure à la densité de l’air ambiant. Le
panache volcanique peut alors s'élever, mais
contrairement à celui d'une éruption plinienne, celui
d’une ignimbrite prend naissance au front de la coulée et
non au droit de la bouche d’émission.
49
éléments fins = poussières, cendres et ponces, aérosols.
- 125 -
Fig. 29: courants magnétosphériques
ENSM-SE, 2° A : axe transverse P N
Fig. 30: a) ovales polaires pendant une aurore ;
16/10/12
b et c) draperie de couleur verte et pourpre
2 - une partie de ce plasma provient de la capture de
particules du vent solaire par le champ magnétique
terrestre au niveau de la magnétopause, qui
correspond à la région de reconnexion des champs
magnétiques solaires et terrestres, (Chp. 3 Fig. 28).
Les particules de vent solaire qui se déplacent dans
l’ionosphère subissent l’influence du champ magnétique
terrestre, qui est Nord-Sud. Par conséquent, Les électrons du
plasma solaire sont déviés dans vers l’est (Fig. 29) et
inversement, les ions positifs sont déviés vers l’ouest. Ils
vont rejoindre le feuillet de plasma de la queue
magnétosphérique (fig. 27, Chp. 3).
Deux types de courants électriques prennent naissance
avec cette capture (fig. 29):
1 - un courant Ouest-Est dans le feuillet de plasma du
plan équatorial magnétique ;
2 - un courant aligné sur les lignes du champ
magnétique terrestre (électrons spiralant autour des
lignes de champ), passant par le vortex, qui rejoint ainsi
l’ionosphère proche de la surface terrestre au niveau de
l’ovale auroral.
Les électrons spiralant autour des lignes de champ
décrivent un mouvement en hélice dont le pas diminue avec
l’augmentation de l’intensité du champ en se rapprochant de
la surface de la Terre. Le pas de l’hélice finit par s’annuler,
puis il s’inverse, conduisant l’électron à rebondir en quelque
sorte en suivant la ligne de champ pour rejoindre la
magnétopause en direction du pôle magnétique opposé. En
temps ordinaire, le pas devient nul au-dessus de l’ionosphère.
Les protons, plus massiques, sont beaucoup plus freinés, et
l’intensité du courant correspondant est beaucoup moins
forte.
vent solaire. Des flots d’électrons pénètrent alors
l’ionosphère et descendent plus bas dans l’atmosphère
plus dense de la Terre alors qu’ils ne le devraient pas. Il
semble que dans ces conditions, un champ électrique
particulier se met en place au-dessus de l’ionosphère. Ce
champ temporaire accélère les électrons qui parviennent
ainsi jusqu’à la haute atmosphère, et qui y déclenchent
une avalanche d’ionisations d’atomes et de dissociations
moléculaires. Les couleurs vert-bleu et rose ou pourpre
sont dues aux désexcitations respectives des oxygènes
atomique et moléculaire (Fig. 30b), et de l’azote
(Fig. 30c). Les draperies prennent naissance dans la
mésosphère, mais peuvent descendre jusqu’au voisinage
du sol, (de l’ordre du Km).
D - Circulation de l'atmosphère
La circulation atmosphérique (et océanique) exprime le
transfert convectif de chaleur dans la machine Terre,
depuis la source chaude équatoriale vers la source froide
polaire. Le premier à expliquer la constance des alizés et
des vents d'Ouest fut G. Hadley, 1735; pour lui, la région
équatoriale étant plus ensoleillée que les pôles, les vents
réguliers devaient transporter de la chaleur vers les pôles,
et inversement du froid vers l'équateur. Si la Terre n'était
pas en rotation, ce transfert serait effectué par une seule
cellule de convection. Mais la force de Coriolis défléchit
les vents, qui deviennent géostrophiques vers 30° de
latitude (cf. § suivant) et se sont finalement trois cellules
qui prennent les calories en charge (Fig. 31).
Fig. 31: Circulation tmosphérique
C’est le même phénomène qui piège des électrons et des
protons à très haute énergie, sur deux ceintures situées à une
distance de 1 rayon terrestre pour la première, et 3 à 5 rayons
terrestres pour la seconde. Alignés sur des lignes du champ
magnétique (dipolaire) quasi non déformé par le vent solaire,
ces particules rebondissent entre pôle Nord et pôle Sud. Cette
zone reconnue en 1958 par le satellite Explorer I porte le
nom de son découvreur, J.A. Van Allen
Le champ magnétique issu de la couronne solaire est
constamment variable en intensité et en direction, ce qui rend
la reconnexion instable, souvent complexe mais parfois
aisée, lorsque les lignes du champ solaire sont orientées
Nord-Sud, comme les lignes du champ terrestre.
Les aurores polaires (quasi symétriques, Fig. 30a)
apparaissent lors de captures abondantes de particules de
- 126 -
ENSM-SE, 2° A : axe transverse P N
1 - Force de Coriolis
A PRIORI Nord-Sud (ou Sud-Nord, selon
l’hémisphère) les alizés sont en fait déviés vers l’Ouest. En
effet, à la surface de la Terre, tout mouvement des masses
fluides est influencé par la rotation de la Terre, ce
phénomène est appelé force de Coriolis F. Supposons une
masse au repos par rapport à la Terre, située en un point
« quelconque » de l'hémisphère Nord, de latitude φ
(Fig. 32).
Fig.32: Force de Coriolis
16/10/12
sud) est une aimable plaisanterie, les variations de latitude
à cette échelle étant négligeables par rapport aux
paramètres locaux (vitesse et direction initiales de l'eau,
pentes du fond et formes de la baignoire). Pour l’océan ou
l’atmosphère, les courants sont déviés vers la droite
(horaires) en hémisphère Nord et vers la gauche
(antihoraires) en hémisphère Sud.
Si l'on s'intéresse à la variation de la vitesse
longitudinale de la surface de la Terre avec la latitude, de
(1) on tire
dVL/dφ
φ = -2ω
ωR.Sinφ
φ
La variation de la
vitesse longitudinale est donc nulle à l'équateur, et elle est
maximum au pôle. Ce n’est donc qu’à partir des latitudes
moyennes que la force de Coriolis jouera son rôle le plus
important, tant sur les masses océaniques que sur les
masses d’air en mouvement.
2 - Cellule de Hadley, ITCZ et cyclones
La Terre tournant avec une vitesse angulaire
ω = 2Πrad / 24h, la masse considérée est en fait animée
d'une vitesse longitudinale vL qui est la vitesse de rotation de
la surface de la Terre (de rayon R), à la latitude
φ considérée, on a
vL = 2ω
ωR Cos φ (1)
Si, à partir du temps t0, on déplace cette masse m vers
le nord dans le plan méridien du temps t0 sans exercer de
frottement, à la vitesse vm:
1 - elle conserve la vitesse longitudinale vL de son point de
départ;
2 - au temps t = t0 +dt elle a parcouru une distance
longitudinale
L = VL.dt = 2ω
ωR Cos φ.dt
et une distance en latitude
l = vm.dt;
3 - à cette nouvelle latitude φ+ dφ, la vitesse longitudinale
VL' de la surface terrestre, est
vL' = 2ω
ωR Cos (φ + dφ),
φ),
VL’ est inférieure à VL la vitesse longitudinale initiale;
et donc la masse m paraît avoir été déviée de sa trajectoire
méridienne, vers l'Est dans l'hémisphère nord et vers l'Ouest
dans l'hémisphère sud (on parle de force cum sole).
Pour toute masse m, animée d'un vecteur vitesse non
méridien, la force de Coriolis s'appliquera sur sa composante
méridienne ; elle est généralement exprimée sous la forme
d’un vecteur force normal au déplacement,
F = mfvm
Avec :
vm, vitesse du corps en mouvement sur la surface de la
Terre en rotation;
f, paramètre de Coriolis = 2ω Sin φ.
Par les paramètres mis en jeux, on constate que pour
que la déviation soit significative, il faut pour une masse
donnée que la vitesse vm soit importante par rapport à VL (cas
des fusées et satellites), ou bien qu'une vitesse vm petite soit
appliquée longtemps (de sorte que ∆φ soit significatif). Il en
résulte que la rotation directe du tourbillon dans les
baignoires de l'hémisphère nord (et inverse dans l'hémisphère
A l'équateur, le fort ensoleillement entraîne une
émission importante d'IR terrestres (en milieu continental
ou océanique), qui provoque à son tour un abaissement de
la densité de l'air (1.30 Kg /m3 à 20°c ; 1.22 Kg /m3 à
40°c). Les variations de densité observées suffisent à
engendrer des vitesses ascensionnelles de l'ordre du m.s-1.
Continuellement alimentée en air venu du Nord et du sud
cette région est dénommée Zone de Convergence
InterTropicale
(ITCZ,
Fig. 45
§E.3.c).
Le
refroidissement de l'air au cours de son ascension
provoque sa condensation, et explique la forte nébulosité
et pluviosité de cette région aux grains violents mais sans
vent régulier, cauchemar des marins anglais
(« Doldrums ») et dénommée Pot au noir dans l'Atlantique
par les marins français. La libération de la chaleur latente
liée à cette condensation augmente le contraste de
température entre cette colonne montante et son
environnement, ce qui augmente sa vitesse ascensionnelle
(jusqu'à plusieurs m.s-1), et cet air initialement chaud et
humide s'élève ainsi rapidement jusqu'au sommet dilaté de
la troposphère (17-18 km).L'air, refroidi et asséché,
redescend aux latitudes Nord et Sud-tropicales (20-30°);
Cet air descendant et froid constitue une zone de hautes
pressions (ceinture anticyclonique), région des calmes
tropicaux ou «horse latitudes» détestés eux aussi des
marins encalminés qui, lorsque l'eau douce venait à
manquer, en arrivaient à jeter les chevaux à la mer. Très
sec, cet air descendant est aussi responsable des ceintures
désertiques tropicales que l'on rencontre tant au nord
qu'au sud. Entre ces deux zones sans vent, les alizés
ferment cette première boucle dénommée cellule de
Hadley.
Caractéristiques de la zone de convergence
(chaude), les cyclones (typhons au Japon) sont la
manifestation immédiate de la force de Coriolis, qui se
manifeste dès lors que l’on dépasse quelques 6 à 8° de
latitude. La formation d’un cyclone tropical (Fig. 33a-b)
débute lorsque 3 conditions sont réunies :
1 - qu’il existe d’une zone de forte évaporation et une
dépression locale dans la couche basse de la
troposphère ; celle-ci est accompagnée de nuages ou
d’une ligne de grains (bande de nuages orageux) ;
initialement cet amas de nuages circule d’Est en
Ouest avec l’Alizée. Sur les images de nos satellites,
- 127 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Fig. 33 a-b : cyclone tropical
a)
Structure d’un cyclone
b)
http://www.risques.gouv.fr/risques/risques-naturels/Cyclone/
mise en place d’un cyclone
http://la.climatologie.free.fr/cyclone/cyclone.htm
Fig. 33 c-d : cyclone tropical
c)
Série temporelle des cyclones de 1950 à 2010,
valeur 100 représente la médiane des énergies accumulées
annuellement par les cyclones durant la période 1981-2010.
La bande jaune (71-111%) représente l’énergie des cyclones
d’activité normale, les bleue et rose sont les domaines
d’energies respectivement inférieure et supérieure à la normale
d) ACE (Accumulated Cyclone Energy), courbe de 1972 la
à nos jours de l’énergie des cyclones (moyenne glissante sur
2 ans) des 2 hémisphères : globale (courbe du haut) et de
l’hémisphère Nord (courbe du bas) ; la surface entre les 2
représente l’énergie des cyclones de l’hémisphère Sud.
http://coaps.fsu.edu/~maue/tropical/historical.php
http://www.nhc.noaa.gov/sshws.shtml
on peut ainsi déceler certaines formations nuageuses
pourvues d'un potentiel de convection profonde, voire
parfois d'organisation tourbillonnaire à l'état
d'embryon. Certaines évoluent en cyclones, lorsque les
2 autres conditions sont réunies, d'autres pas et restent
des amas nuageux, ondes tropicales, zones perturbées.
2 - que la température de l'océan dépasse 26°C, sur au
moins 50 mètres de profondeur, constituant ainsi un
réservoir important dont l’évaporation fournira
l'énergie nécessaire pour démarrer et entretenir le
cyclone.
3 - que les vents de la zone soient homogènes sur une
grande hauteur de la troposphère, de la surface de
l’océan jusque vers 12 à 15 km d'altitude, hauteur de la
colonne orageuse, de sorte que l’énergie issue de
l’évaporation soit utilisée pour construire un
mouvement tourbillonnaire profond.
Dans ces conditions (Fig. 33b), le courant d'air
ascendant qui se met en place génère une dépression à la
surface de l’eau, qui fait converger l’air de la surface
océanique. La masse d’air ascendante se trouve alors
comprimée sous le couvercle de la tropopause (limite
troposphère stratosphère), générant en altitude une zone
de haute pression. Pour rétablir « l’équilibre », l’air du
sommet de la colonne s’échappe latéralement (divergence
de haute altitude). Le système ainsi mis en place pourra
fonctionner et s'entretenir tant qu’il disposera d’un stock
d’eau chaude à évaporer, raison pour laquelle un cyclone
s’affaiblit lorsqu’il traverse une île, et s’évanouit lorsque
sa trajectoire l’amène à parcourir une distance suffisante
au dessus d’un continent.
Avec un tel mode de fonctionnement et le
réchauffement climatique qu’à connu le XX° siècle, il
convient de s’interroger sur une augmentation potentielle
de la fréquence et de l’énergie dissipée par les cyclones.
Les medias rapportent souvent une nette
augmentation de la fréquence et de l’intensité des
cyclones et en font une conséquence directe du
réchauffement. En fait, les données disponibles, qui
concernent la période 1950-2010, conduisent la NOAA à
définir pour l’atlantique deux périodes de haute activité
encadrant une période de basse activité (1970-1995, Fig.
33c) et non une augmentation progressive en corrélation
avec la température de l’atmosphère.
- 128 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Fig. 34 b-c: b): Circulation : divergente (haute pression ) ; convergente (basse pression) ;
c): vents
http://nte-serveur.univ-lyon1.fr/geosciences/geodyn_ext/Cours/CoursTT1Atmosphere.htm
On observe la même tendance sur les courbes de
l’énergie globale et par hémisphère (ACE50, Fig. 33d), qui
laissent penser que l’énergie disponible en zone tropicale
subit une variation pluri annuelle.
C’est en effet ce que montre l’étude de S.S. Chand et
K. J. Walsh de 2011, pour qui l’ACE est clairement
influencée par l’oscillation ENSO (voir § E3d) à une latitude
inférieure à 15°. Au-delà de cette latitude, l’influence des
épisodes El niño s’effacerait et c’est au contraire les
évènements inverse de type « La Niña » (§ 3Ed) qui
influenceraient l’activité cyclonique. On le voit, le couplage
océan-atmosphère joue un rôle essentiel et l’ensemble des
activités des deux fluides atmosphérique subit des
oscillations, décennales à pluri décennales encore mal
connues, sur lesquelles nous reviendrons souvent (e.g. §E3
et 4c).
3 - Cellule de Ferrel, vents géostrophiques et Cellule
polaire
Prenons une masse d’air, son mouvement sera initié
par un gradient de pression (FP dans la Fig. 34a) et le
mouvement initial du vent sera perpendiculaire aux isobares.
Dès que la masse d'air est en mouvement, elle subit la force
Fig. 34a: genèse des vents géostrophiques
de Coriolis (FC) qui la dévie vers la droite dans notre
hémisphère, jusqu'à paralléliser le vent avec les isobares,
FP et FC pouvant être du même ordre de grandeur sous
nos latitudes.
On appelle ces vents, vents géostrophiques. Les
isobares étant des courbes fermées autour des centres de
haute et de basse pression, il en résulte dans notre
hémisphère (Fig. 34b-c) que la circulation des vents
géostrophiques est directe (ils tournent à droite) autour
des hautes pressions, et inverse autour des basses
pressions. Les zones de basses pressions sont
corrélativement des régions où l'air présente une faible
densité et s'élève (Fig. 34b), en tournant autour du centre,
définissant une circulation cyclonique convergente.
Inversement les zones de hautes pressions sont le centre
d'une circulation descendante et divergente dite
anticyclonique. Le front polaire, limite entre la cellule de
convection polaire et la cellule des moyennes latitudes
(cellule de Ferrel) ondule entre les hautes pressions
centrées vers le sud et les basses pressions centrées plus
au nord. Au pôle, l'air froid et sec très dense constitue la
branche descendante de la cellule polaire. Il détermine
ainsi dans notre hémisphère les vents froids de Nord-Est à
Est qui descendent vers le front polaire.
E - Circulation océanique
1 - Coriolis : Transport d’Ekman et courants
Géostrophiques
Comme l’atmosphère, l’océan est en mouvement
(à faible vitesse mais sur une longue durée) et subit donc
l’effet de la force de Coriolis, rotation directe (dextre)
dans l’hémisphère nord et senestre au Sud. Le vent, en
déplaçant la pellicule marine superficielle, vient jouer un
rôle dans la circulation océanique.
http://nte-serveur.univlyon1.fr/geosciences/geodyn_ext/Cours/CoursTT1Atmosphere.htm
50
ACE, Accumulated Cyclone Energy, index défini comme
la somme des carrés des vitesses du vent d’un cyclone,
mesurée toutes des 6 heures tant que sa force le classe au
minimum dans les tempêtes tropicales, ou dans les cyclones
selon l’échelle de Saffir-Simpson qui compte 5 degrés 1)
119-153 km/h ; 2) 154-177 km/h ; 3) 178-209 km/h ; 4) 210249 km/h ; 5) > 249 km/h.
Imaginons que le vent qui a initié un courant
océanique cesse brutalement. Le courant continue sur sa
lancée en faiblissant lentement par frottement, on parle de
courant d’inertie. Ce frottement, exercé sur une particule
de ce courant animée d’une vitesse v très proche de celle
de ses voisines, est faible en regard de la force de Coriolis
F (de paramètre f = 2ω Sin φ) qui continue à s’appliquer
sur ce courant. Dans ces conditions, si l’on considère la
seule force de Coriolis (comme horizontale et agissant sur
une différence de latitude dφ très petite), la particule de
courant considéré, de masse m, décrira à la vitesse
constante v, un cercle parfait de rayon r dans le plan
horizontal. Dans un courant d’inertie la force de Coriolis
- 129 -
ENSM-SE, 2° A : axe transverse P N
Fig. 35: Enregistrement du mouvement d’une particule à la
surface pendant la disparition d’un courant d’inertie après une
période de vent en mer Baltique ; traits noirs = position de la
particule toutes les 12h ; elle exécute 4 tours ½ pendant les 3
premiers jour, correspondant à une période moyenne de 16h.
agit donc comme une force centripète que l’on peut écrire :
fcentripète = mv2/r ,
équivalent à FCoriolis= mfv (cf. § Cellule de Hadley)
On en déduit :
mv2/r = mfv,
soit
f = v/r ;
(1)
La période T de rotation de cette particule sera alors
T = 2π
πr/v
Avec (1) on montre que la période de rotation dans un
courant d’inertie T = 2π
π /f est fonction de la latitude φ:
A l’équateur, φ= 0° T = 2π / 2ω Sin φ T infinie
Avec ω, vitesse angulaire de la Terre = 2π / 24 heures,
on obtient :
Au pôle,
φ= 90° T = 12 / Sin φ
T = 12 heures;
A nos latitudes φ= 45° T = 12 / Sin φ
T # 17 heures.
Le calcul théorique effectué sans prise en compte des
frottements donne, pour une latitude de 60°, une période de
14h proche de la période mesurée en Baltique (Fig. 35).
Supposons un instant que la surface de l’océan soit
pentée entre 2 points A et B, et qu’il n’y ait aucun
écoulement entre A et B (Fig. 36a). Cette situation hautement
théorique nous montre que tout point situé quelque part entre
A et B sous l’horizontale de A dans ce cas, subit un gradient
de pression égal à :
ρg∆
∆z /∆
∆x = ρg Tan θ
En supposant le poids volumique ρ constant le long
de x, la force appliquée par unité de masse de l’océan (=
gradient de pression horizontal) est proportionnelle à la
gravité g et à la pente Tan θ. En conséquence, toute particule
de l’océan va se mettre en mouvement, et accélérer
uniformément en se déplaçant de B vers A.
Revenons à notre hypothèse et soyons réalistes un
instant ; cette eau en mouvement est soumise à la force de
Coriolis et se comporte comme un vent géostrophique. Il se
crée un courant dont le mouvement est dévié vers la droite
Fig. 36b : Spirale d’Ekman ; depuis la surface, chaque
lamine d’eau entraînée par frottement par sa voisine
supérieure se trouve déviée plus à droite (hémisphère Nord),
et ce d’autant moins que sa vitesse décroît avec la
profondeur.
dans hémisphère nord, et qui comme les vents
géostrophiques, devient parallèle au gradient de pression
qui le fait naître. Comme le vent géostrophique il
s’enroule sur les isobares, dans l’océan cette fois. Comme
pour les vents, on parle de courant géostrophique. Cet
écoulement est symbolisé dans la figure 36a par un
empennage de flèche de couleur verte.
V. W. Ekman a montré à la fin du XIX° que le
courant provoqué par le vent induit sous l’effet de la force
de Coriolis un déplacement global moyen (c.à.d. sur
l’ensemble de la tranche d’eau soumise au vent). Le
déplacement moyen est perpendiculaire à la direction du
vent (fig. 36b).
2 - la circulation thermohaline
La circulation océanique résulte, de la même
manière que la circulation atmosphérique, du transfert de
chaleur de l’équateur vers le pôle. La quantité d’énergie à
transférer dépasse très largement la capacité de diffusion
de chaleur de l’eau, et donc l’essentiel du transfert de
chaleur est opéré par la convection, reliant surface et
profondeur. Cette Circulation ThermoHaline (THC) a été
mise en évidence par W. Broecker en 1987. Il la compare
à un tapis roulant tridimensionnel à d’échelle planétaire
(cf. § E.3.e).
Les paramètres clefs de ce transfert sont donc
ceux qui (à une pression donnée, ou à une profondeur
donnée) sont susceptibles de modifier le poids volumique
de l’eau océanique, ce sont :
1 - sa température ;
2 - sa salinité.
On parlera alors de circulation thermohaline. Son rôle
dans la mise en place de la circulation profonde est
tributaire de la topographie et sera donc évoqué plus loin
(§ E.3.f)
Fig. 36a : gradient de pression horizontal
A
a - Température et thermocline.
B
θ
∆x
ρ
16/10/12
∆z
La pénétration de la lumière dans l’océan n’excède
pas les 100 premiers mètres de l’océan, et c’est elle qui
fournit sa chaleur à l’eau de surface, principalement sous
les basses latitudes. La distribution des eaux chaudes de
surface, T°>25 (en rouge dans la Fig. 37) est donc
largement dépendante de la saison. On constate en
- 130 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
hautes montagnes, sont bien évidemment des barrières
infranchissables pour les courants océaniques. La
morphologie du plancher océanique joue elle aussi un
rôle primordial dans la circulation des eaux.
Fig. 37: Température versus profondeur et latitude :
-1 : Coupe verticale Sud-Nord de l’Atlantique
2 : a) b) c) Coupes verticales d’océans ouverts, à différentes
latitudes ; Noter la couche d’eau de surface plus froide que les eaux
profondes dans les hautes latitudes ;
d) Coupes verticales au long de l’année en Atlantique Nord
revanche que la latitude de l’isotherme 10°C (moyenne
mensuelle) est globalement stable au cours des saisons autour
des latitudes 40°N et 40°S.
La pénétration de la lumière dans l’océan n’excède
pas les 100 premiers mètres de l’océan, et c’est elle qui
fournit sa chaleur à l’eau de surface, principalement sous les
basses latitudes. La distribution des eaux chaudes de surface,
T°>25 (en rouge dans la Figure 37) est donc largement
dépendante de la saison. On constate en revanche que la
latitude de l’isotherme 10°C (moyenne mensuelle) est
globalement stable au cours des saisons autour des latitudes
40°N et 40°S.
On observe aussi que dans l’Atlantique Nord cet
isotherme 10°C occupe une latitude beaucoup plus haute
qu’ailleurs (elle peut y dépasser 60°N), et on remarque enfin
des incursions en région tropicale d’eaux froides venues de
hautes latitudes le long des côtes Est des bassins océaniques,
dans les deux hémisphères. Ces anomalies proviennent de
distribution des masses continentales qui, si elles
n’influencent la circulation atmosphérique que par leurs plus
La tranche d’eau de surface est brassée par les
phénomènes atmosphériques, sensibles jusqu’à 80-100 m
environ. Cette première tranche d’eau est donc de
température relativement homogène à l’échelle régionale.
En dessous, la température de l’eau décroît plus ou moins
rapidement avec la profondeur, en fonction de la latitude
et de la saison (Fig. 37). Vers 500 à 800m, on atteint les
eaux profondes ; elles sont homogènes, marquées par une
décroissance lente et régulière avec la profondeur,
décroissance qui diminue avec la latitude. On appelle
thermocline la tranche d’eau qui organise la transition
entre les eaux chaudes de surface et les eaux froides des
profondeurs. Il est important de noter que dans les régions
arctiques, la température passe par un minimum provoqué
par la formation de la banquise (qui consomme de la
chaleur latente de cristallisation). Ce processus de
cristallisation augmente donc la densité de l’eau liquide
par refroidissement. En outre, il extrait de l’eau douce de
l’océan et provoque en corollaire direct une seconde
augmentation de densité de l’eau liquide par
accroissement de la salinité. Il s’en suit une disparition de
la thermocline sous les hautes latitudes qui permet aux
eaux très denses de surface de plonger vers les fonds
océaniques, alors qu’inversement, sous les latitudes basses
et moyennes, la stratification remarquable de l’eau interdit
les échanges par convection entre la surface chaude et la
profondeur froide. C’est donc seulement au niveau des
hautes latitudes, avec des isothermes verticales ou presque
et une densité renforcée que l’océan peut être brassé sur
toute sa hauteur. On note cependant sur la coupe de
l’Atlantique dans la figure 37 une remontée spectaculaire
des isothermes sous l’équateur, montrant une remontée
d’eau froide. Cet « upwelling » équatorial est observable
dans tous les océans ouverts, il est provoqué par un
couplage océan-atmosphère sur lequel nous reviendrons
au § E-3.
b - Salinité et halocline
Le sel de l’océan provient de l’accumulation des
solutés transportés en faible quantité par les eaux douces
des rivières, solutés qu’elles ont elles-mêmes empruntés
aux roches continentales par altération chimique. Ces
solutés sont transportés conjointement avec les matériaux
solides directement arrachés à la roche (sables, graviers,
galets) ou hérités de l’altération chimique de cette roche
(argiles, oxydes, hydroxydes insolubles essentiellement).
L’océan fournit à l’ensemble de ces matériaux, solides et
solutés, un milieu beaucoup plus confiné qui va déplacer
les équilibres chimiques qui s’étaient établis dans les eaux
continentales. Ce milieu étant aussi beaucoup moins
énergétique que le milieu continental, le dépôt des
matériaux solides imbibés de la solution océanique est
inéluctable. Les sédiments marins vont ainsi contribuer
avec la vie aquatique à soustraire une fraction des solutés
apportés au système océanique. Un nouvel équilibre est
donc rapidement atteint dans le milieu marin, dont la
composition moyenne (Tableau 3) semble avoir été
globalement stable autour de 34.5 grammes par kg depuis
plusieurs Ga. En fonction de leur solubilité, les sels
- 131 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Tableau 3 : Composition moyenne de l’eau de mer
Fig. 38a : Salinité des eaux de surface de l’océan
Anions
Chlorure ClSulfate SO42Bicarbonate HCO3Bromure BrBorate H2BO3Fluorure FCations
Sodium Na+
Magnesium Mg2+
Calcium Ca2+
Potassium K+
Strontium Sr2+
précipitent par évaporation de l’eau de mer, dans l’ordre
suivant : 1) le carbonate de calcium (CaCO3) précipite le
premier ; 2) lorsque l’on atteint 19% du volume d’eau initial
l’Anhydrite (CaSO4) ou le Gypse (CaSO4.2H2O)
commencent à précipiter ; 3) vers 9.5%, c’est le tour du
chlorure de Sodium (NaCl) ; 4) les autres sels (chlorures,
bromures ou iodures) commencent à précipiter lorsqu’il reste
moins de 4% du volume initial.
La carte de la salinité des eaux de surface de l’océan
est relativement différente de la distribution des
températures. On observe les concentrations en sel les plus
fortes en premier lieu loin des embouchures des grands
fleuves, dont la distribution n’est pas homogène à la surface
des continents, et en second lieu dans les zones où
l’évaporation maximum agit conjointement avec un régime
de précipitations minimum (Fig. 38a).
0
/00 poids
19.0
2.65
0.15
0.065
0.025
0.001
10.6
1.3
0.4
0.35
0.01
Total
21.9%
12.6
(Fig. 38b, et Fig. 51a AABW = Antarctic Bottow
Water). Cette symétrie radiale au Sud est
provoquée par la position centrée sur le pôle du
continent Antarctique.
2 - Partant de l’équateur vers le Sud, on observe en
surface vers 40-45° une chute brutale de la
concentration en sel. Celle-ci ne remonte qu’à
proximité immédiate du continent Antarctique. Ces
eaux peu salées (en bleu <34.5, mg in Fig. 38b, et
Fig. 51a ; AAIW = Antarctic Intermediate Water)
constituent une langue dont la profondeur n’excède
pas 2000m, mais qui s’étend jusqu’au delà de
l’équateur dans l’Atlantique. Les eaux profondes du
Pacifique et de l’océan Indien apparaissent
globalement homogènes.
3 - Dans l’hémisphère Nord, il existe une langue à
faible salinité quasi symétrique nettement dessinée
dans le Pacifique Nord (Fig. 38b), prenant naissance
elle aussi vers 40° ; par contre on n’observe pas de
Fig. 38b : Coupes verticales Sud-Nord de la salinité des océans.
En résumé :
1 - L’océan s’évapore beaucoup sous l’équateur, mais il
pleut aussi beaucoup (Pot au noir); en outre des eaux
profondes moins salées viennent se mêler aux eaux de
surface. La salinité n’y est donc pas maximum
2 - Il pleut rarement sous les Horses latitudes et
l’évaporation y est encore très intense. C’est donc vers
30° de latitude que les eaux de surface sont les plus
salées.
3 - Il pleut beaucoup au voisinage du Front polaire et cette
eau douce abaisse la salinité de l’océan . En outre, la
température moyenne y est beaucoup plus basse (10°
environ) et limite l’évaporation. Néanmoins, dans
l’Atlantique Nord, les eaux de surface apparaissent
considérablement plus salées que leurs homologues du
Pacifique Nord ou des latitudes Sud.
4 - Sous les hautes latitudes, les précipitations neigeuses
qui viennent épaissir la banquise n’ont plus aucun effet
diluant pendant l’hiver.
Par similitude avec la thermocline, on appelle
halocline le gradient de concentration important qui sépare
les eaux chaudes de surface rendues plus salées par
l’évaporation, des eaux profondes. Cette notion doit
néanmoins être utilisée avec prudence car, comme nous
venons de le voir, les causes de variation de salinité sont
multiples, et donc la distribution de la salinité complexe :
1 - La salinité des eaux froides et profondes apparaît très
comparable dans les trois océans dans l’hémisphère sud
- 132 -
ENSM-SE, 2° A : axe transverse P N
langue symétrique peu salée
au nord de l’équateur dans
l’Océan
Indien,
immédiatement limité au
nord par le continent indien.
16/10/12
Fig. 39a : Carte des courants et de la surface topographique de l’océan (dressée les 23-24
septembre 1993).
On voit clairement dans ce
dernier point le rôle que joue la
position des masses continentales
dans
la
circulation
thermohaline, en limitant ici
l’océan Indien vers le Nord et en
interdisant ainsi la formation
d’une masse peu salée. C’est
aussi
la
distribution
des
continents autour de l’océan
Atlantique Nord qui interdit la
formation d’une langue peu salée,
océan qui se continue pourtant
jusqu’au pôle par l’océan
Arctique. La raison en est
double :
1 - les eaux chaudes et salées
du Gulf-Stream remontent
très au nord ;
2 - La Méditerranée déverse
dans l’Atlantique une eau
sur-salée (en rose in Fig. 38b) qui renforce en
profondeur la masse des eaux salées de surface de la
région chaude des latitudes 10-30°N. Cette langue
gagne l’équateur et constitue une strate plus salée sous
la langue sous-salée en provenance des hautes latitudes
Sud.
3 - Rôle de la topographie et de la latitude.
Soumises à la force de Coriolis et limitées dans leur
déplacement par les continents, les eaux de surface des
océans subissent la poussée des vents. Le nombre des
paramètres est petit, pourtant leurs effets sont multiples
(fig. 39a) et conduisent à une circulation superficielle
constituée de cellules en rotation plusieurs milliers de km de
diamètre, dénommées gyres. Elles sont grossièrement
symétriques par rapport à l’équateur sous l’action de la force
de Coriolis, (Fig. 39b).
a - Gyres océaniques
et de SE en NO tournent dans le sens horaire sous l’effet
de la force de Coriolis. En outre elles viennent buter sur
les Antilles et l’isthme Centre américain (Fig.39b), et
amorcent ainsi la grande gyre Nord-Atlantique
subtropicale du Gulf Stream (Fig. 40a). Ce courant très
fort fut reconnu très tôt, en 1513, par Spaniard Ponce de
Leon ; ses bateaux en route directe depuis Porto Rico vers
ce que l’on nomme aujourd’hui la Floride avaient eu
beaucoup de difficulté à le traverser. Il faudra néanmoins
attendre B. Franklin (1777) pour disposer d’une première
carte portant la trajectoire de ce courant et ce n’est
qu’avec l’avènement des modèles simplifiés des océans
(seconde moitié du XX°) que l'origine physique du Gulf
Stream sera comprise. Dans l’océan Atlantique tropical
Sud, l’alizé du SE engendrent de façon symétrique la
grande boucle de l’Atlantique central, entre le Brésil et les
côtes africaines (Fig.39).
Comme dans une simple rivière, les écoulements
Fig. 39b : Carte de grandes gyres océaniques
En Atlantique-Nord on
observe ainsi une gyre
subtropicale, entre 15°N et
45°N environ, et une gyre
subpolaire plus au nord.
L'échange de masse et de
chaleur entre ces deux gyres
est influencé par la circulation
thermohaline reliant surface et
profondeur.
Dans
l’océan
Atlantique tropical Nord, sous
l’effet de l’Alizé du NE, ces
eaux déplacées d’Ouest en Est
- 133 -
ENSM-SE, 2° A : axe transverse P N
Fig. 40a: Image de la T° de surface du Gulf-Stream au
contact des eaux froides en provenance du Labrador . La
ligne noire représente la bordure du plateau continental.
géostrophiques sont turbulents et incorporent à leur
périphérie des eaux contrastées, donnant naissance ainsi à de
grands tourbillons observables par les mesures de
température de surface (Fig. 40a) et par l’altimétrie
satellitaire (anomalies positives de rotation normale, et
négatives de rotation inverse (Fig. 40b), les taches rouges
sont les tourbillons anticycloniques de rotation normale
dextre, et les bleues appelées Cyclones, tournent en sens
inverse).
L’affaiblissement du Gulf Stream est considéré de nos
jours comme un évènement hautement probable lié au
changement climatique, par un enchaînement en cascade de
phénomènes :
1 - réchauffement climatique des eaux polaires,
2 - fonte de la banquise et refroidissement faible de
l’océan Arctique en hiver,
3 - densité faible des eaux de surface de l’océan polaire.
Le résultat ultime en serait le non plongement de ces
eaux et les conséquences climatiques pour l’Europe de
l’Ouest en seraient considérables. Située à la même latitude
que le Canada, les côtes européennes sont actuellement
réchauffées par le Gulf Stream. Nous y reviendrons au
paragraphe E.3.f.
16/10/12
Fig. 40b : Altimétrie satellitaire de surface du Gulf-Stream
au contact des eaux froides en provenance du Labrador .
décrits par B. Moitessier dans « la longue route »
(Arthaud 1971), organisent la circulation océanique de
surface en un courant circum-Antarctique puissant que
durent affronter, bien avant les Moitessier et autres J.
Slocum, les marins en route vers Valparaiso, jusqu’à
l’ouverture du canal de Panama en 1914. Le passage du
Horn avec des voiles carrées, par 50° de latitude contre
vent et courant pouvait alors durer deux à trois mois ! Ces
eaux de surface qui franchisse le détroit de Drake sont
partiellement incorporées à la gyre Atlantique-Sud. Pour
C. Wunsch (in D. Swingedouw, 2006), la turbulence liée
au forçage éolien au niveau des 40ièmes rugissants et des
50ièmes hurlants et la force de marée (qui déplace des
volumes d’eau considérables) ont pour conséquence la
diffusion des eaux profondes et denses, qui sont ainsi
tirées vers la surface. Pour l’auteur, l'appellation
circulation thermohaline prête donc à confusion car ce
n'est pas le gradient de densité qui nourrit la circulation
mondiale mais plutôt cette diffusion dans l'océan profond.
Pour autant, les eux profondes circum-Antarctiques
restent largement isolées (cf. § E.3.f, Fig. 51a).
c - « Upwellings »
Les vents alizés convergent du NE et du SE vers
Fig. 41 : Courants péri-Antarctiques.
b – Westerlies ou Quarantièmes et les
cinquantièmes
Les vents de secteur Ouest des latitudes plus élevées,
comme les Westerlies de l’Atlantique Nord, poussent l’eau
de surface devant eux en amorçant un virage vers l’équateur
(Coriolis oblige). Ils participent ainsi avec les alizés à la
constitution des grandes gyres océaniques subtropicales,
bien identifiables dans l’Atlantique Nord et Sud (e.g. carte
des courants observés les 23-24 septembre 1993, Fig. 39a et
Fig. 39b).
L’océan mondial Sud est largement fermé par l’étroit
goulet (Passage de Drake) entre la Terre de Feu de
l’Amérique et la Péninsule Palmer du continent Antarctique
(fig. 41). La circulation des vents d’Ouest du Pacifique Sud,
« Quarantièmes rugissants » et « Cinquantièmes hurlants »
- 134 -
ENSM-SE, 2° A : axe transverse P N
Fig. 42 :Alisés et upwelling équatorial ; Pointillé = équateur
l’équateur. En soufflant, ils poussent vers l’Ouest une
masse d’eaux équatoriales de surface. Dès lors que l’on
quitte l’équateur, la force de Coriolis dévie cette masse
d’eau de surface de part et d’autre de la ITCZ (courants
d’Ekman vers le NO et le SO) et laisse remonter ainsi des
eaux plus profondes et froides. On parle de courant de
“upwelling” équatorial (fig. 42).
Au voisinage des continents sous le vent des alizés,
(côtes Ouest des Amériques et de l’Afrique) et en situation
normale d’équilibre de l’atmosphère, les alizés écartent la
masse d’eau de la côte laissant émerger un upwelling
côtier. Vers des latitudes plus élevées, les eaux froides de
ces upwellings côtiers se mêlent aux eaux froides de
surface des branches orientales des grandes gyres, N-S ou
S-N (selon l’hémisphère). Leur rotation, dextre dans
l’hémisphère Nord et senestre dans l’hémisphère Sud, est
bien visible dans la figure 39. Les masses d’eaux de
surface ainsi transférées vers l’équateur le long des côtes
orientales des océans sont bien entendu déviées par la
force de Coriolis. Ceci tend à éloigner l’eau de la côte,
située dans l’Est du courant dans les deux cas. Il s’en suit
un appel d’eaux profondes, tout le long de la côte du
Maroc (ex-Sahara occidental) et de la Mauritanie, ou le
long des côtes du Chili, qui viennent renforcer l’upwelling
côtier.
Fig. 43a :
16/10/12
situation La Niña sur le Pacifique ;
observée par altimétrie satellitaire ;
Fig. 43b :
situation El Niño sur le Pacifique
observée par altimétrie satellitaire ;
Dans l’Atlantique-Nord, en raison de la topographie
SW-NE des côtes américaines qui infléchit singulièrement
le Gulf-Stream à son départ51, et de celle des côtes afroeuropéennes aux latitudes moyennes sur l’autre rive, une
part importante du Gulf-Stream est déviée vers les hautes
latitudes dans le NE et donne le courant Nord Atlantique.
Il est à l’origine de l’anomalie >0 de température (Fig. 37)
et de salinité (Fig. 38a-b) observée dans l’atlantique Nord,
qui interdit la formation d’une langue peu salée et peu
profonde comme dans le Pacifique Nord (Fig. 38b en
bleu).
4 - Les couplages océan-atmosphère.
a- El Niño / Southern Oscillation system
(ENSO) Couplage Océan-atmosphère,
Dans le Pacifique, les alizés très réguliers du SE
51
Observez à cet égard le contrôle exercé par le talus
continental Nord-américain sur le mélange avec les eaux
froides sur la figure 25.
- 135 -
accumulent donc dans la région indonésienne une
grande quantité d’eau chaude en provenance des côtes
de Colombie – Equateur – Pérou - Chili (Fig. 43a). La
thermocline apparaît ainsi plus profonde dans la région
indonésienne (Fig. 44 à gauche), et permet à des eaux
plus froides et plus riches en nutriment (phosphates) de
remonter vers la surface (Fig. 44, à droite en rouge)
donnant la langue bleue de la figure 43a. Les eaux
chaudes (en rouge) sont massivement stockées à
l’Ouest, entre 180° et 150° de longitude.
Poussée à son paroxysme, cette situation est
appelée “La Niña” ; elle correspond à la période faste
de bonne pêche en mer et de climat très sec sur la
bordure continentale Sud-américaine. Cette situation
stable que connaît l’océan Pacifique durant des mois
résulte d’un phénomène de couplage océan-atmosphère
centré sur le Pacifique tropical, mais qui intéresse en
fait plus de la moitié de la surface terrestre.
ENSM-SE, 2° A : axe transverse P N
Fig. 44 : Coupe W-E de l’océan Pacifique:
T°, 0-25°C
Teneur en phosphate 0-3 µM/l
On appelle ENSO, pour El Niño Southern
Oscillations, cet ensemble à grande échelle de fluctuations
cohérentes de la température de l’air et de l’eau, de la
pression atmosphérique, de la direction et de l’intensité des
vents et des courants marins. Ces fluctuations se traduisent
dans la météo de toute cette région et perturbent fortement le
monde vivant. Les épisodes chauds « El Niño » (Fig. 43a),
constituent avec les épisodes froids « La Niña » (Fig. 43b)
les deux termes extrêmes du cycle ENSO.
Observé du point de vue océanique, un épisode El
Niño (aux alentours de Noël, d’où son nom de petit Jésus) se
traduit dans l’océan tropical Est Pacifique par une
augmentation brutale de 2 à 5°C au dessus de la température
moyenne de l’eau (jusqu’à 28°C, en particulier le long des
côtes Sud-américaines). La température devient alors quasi
uniforme sur l’ensemble du Pacifique équatorial. Du point de
vue atmosphérique, on observe l’effondrement des vents
alizés, et le déplacement vers le Sud de la Zone de
convergence Intertropicale (ITCZ52, Fig. 45).
Les eaux chaudes stockées dans l’Ouest Pacifique
reviennent avec El Niño sur les côtes Sud-américaines
(Fig. 43b, en rouge) avec un courant équatorial très fort.
Celui-ci bloque les 2 courants nutritifs : en profondeur le
courant d’upwelling53 ; en surface le courant côtier froid
(venant du Sud du Chili, cf. § précédent). La pêche côtière
devient alors très peu productive, à tel point que lors des
Fig. 45 : Variations saisonnières de la ITCZ
16/10/12
épisodes El Niño les plus sévères,
la population des oiseaux de mer
subit des pertes extrêmement
lourdes. Cette onde d’eau chaude
diverge ensuite vers le Nord et le
Sud, elle est réfléchie par la Côte
Nord américaine et repart vers le
Japon à travers le Pacifique Nord.
Il s’en suit des pluies
orageuses très abondantes sur le
Pacifique Est et sur les côtes de
Bolivie - Pérou - Chili. Des
régions ordinairement désertiques
de ces pays se couvrent
momentanément de prairies ;
inversement, le Nord de l’Australie, l’Indonésie, les
Philippines subissent une intense sécheresse. Ailleurs un
temps plus humide que la normale est souvent observé
pendant la période Décembre à Février, citons le long des
côtes de l’état d’Equateur, ou bien le Sud-Brésil,
l’Argentine, ou enfin l’Afrique équatoriale. Un climat plus
chaud que la normale est observé sur le Japon, l’Asie du
Sud-Est, et sur le Sud du Canada Central. Cette période
pluvieuse s’étend sur les mois de Juin à Août en se
déplaçant sur les chaînes Andines du Chili et Rocheuses
des USA. Un temps anormalement sec règne au contraire
sur l’Amérique Centrale et le Sud de l’Afrique de
décembre à Février, et plus froid sur le Golfe du Mexique,
puis sur l’Est Australien entre Juin et Août. A l’opposé,
durant la même période de Décembre à Mars, la
température de l’océan Pacifique Est tropical peut
descendre jusqu’à 4° sous la température moyenne,
caractérisant alors un épisode La Niña (l’Infante). On voit
donc que le phénomène El Niño, s’il est bien saisonnier,
n’est pas annuel ; il apparaît irrégulièrement, entre 3 et
7ans en général. Dans le contexte d’élévation de la
température moyenne qui caractérise la fin du XX° siècle
et ce début de XXI°, la température accrue de la surface
de l’océan conduit à un rapprochement des épisodes
ENSO.
Dans les conditions ordinaires de fonctionnement,
les alizés forts qui caractérisent le Pacifique et refoulent
les eaux chaudes superficielles vers l’Ouest traduisent un
gradient de pression atmosphérique élevé entre la région
des Galápagos - Tahiti et celle de l’Australie – Indonésie.
On appelle Southern Oscillation Index SOI, ce
gradient mesuré entre Tahiti et Darwin en Australie. En
général, la courbe de variation dans le temps du SOI
Fig.46a : Corrélation négative entre variation du SOI et
variation de température
52
Responsable du cycle de la mousson dans l’océan Indien,
la ITCZ est normalement installée au nord de l’équateur dans
l’océan Pacifique Est pendant l’été.
53
la pente de la thermocline de la Figure 27 s’inverse et
plonge vers l’Est.
- 136 -
ENSM-SE, 2° A : axe transverse P N
Fig. 46b : Pont atmosphérique ENSO
16/10/12
Sud sous le nom d’interdecadal Pacific oscillation (IPO
ou ID). La PDO affecte aussi le continent américain ; F.
Biondi et al. 2001 ont montré qu’une reconstruction de
cette oscillation est possible à travers l’étude des anneaux
de croissance des arbres (Baja California) sur la période
1661 à nos jours.
http://en.wikipedia.org/wiki/File:Atmospheric_bridge.png
(Fig. 46a) est étroitement corrélée (négativement) avec celle
des températures de l’océan Pacifique équatorial ; les pics
prolongés positifs coïncident avec les épisodes La Niña alors
que les périodes prolongées de SOI négatif, coïncident avec
les évènements El Niño.
Contrairement à ENSO, processus équatorial
répondant à une seule sollicitation physique, la PDO
apparaît comme une réponse à une sollicitation physique
complexe, basée en premier lieu sur une influence
immédiate (concomitante) des évènements El Niño, et en
second lieu sur une influence différée et extratropicale de
ceux-ci. Cette influence extratropicale est la réponse à la
convection profonde que les évènements El Niño
engendrent dans l’atmosphère. Elle se traduit par
l’apparition d’une anomalie de température de la surface
du Pacifique sous les latitudes moyennes, durant l’hiver
qui suit les évènements El Niño.
Interviennent en outre sur la PDO des
ENSO influence la circulation globale de l’atmosphère lors
modifications
de la gyre Nord Pacifique et du cycle
d’un évènement El Niño, via un transfert de chaleur
saisonnier
que
constituent i) la « réémergence des eaux
important dans l’atmosphère au dessus de la zone
chaudes
»
en
surface aux latitudes moyennes (voir
anormalement chaude et une convection profonde de celui-ci,
explication
ci-après)
et ii) les transferts de chaleur décrits
qui va se propager à des milliers de kilomètres de l’équateur,
au
§
ENSO
(de
l’océan
vers l’atmosphère et pont
sous forme d’ondes de chaleurs réfléchies par le pôle. On
appelle « pont atmosphérique » (Fig. 46b) cette influence atmosphérique). La présence d’eaux chaudes en surface
d’un hiver à l’autre mais pas durant l’été entre les 2, est
ENSO à distance sur la zone Aléoutienne via
la troposphère.
Fig. 47b : « mixed layer »
b
- PDO / Pacific Decadal
Oscillation, Couplage OcéanAtmosphère
Depuis longtemps, il a été observé sur
le Pacifique Nord sous les latitudes moyennes
des anomalies de températures qui sont
soumises à des variations à longue période
(pluridécennales, 50-60 ans). En 1976 et 1977
déjà, C. Frankignoul et K. Hasselmann du
Max-Planck-lnstitut
fur
Meteorologie,
expliquaient ces variations par leur concept de
« modèles stochastiques aléatoires du
climat », pour lesquels ces variations sont une
réponse de la tranche océanique de surface à
des sollicitations atmosphériques de période
courte.
http://www.locean-ipsl.upmc.fr/~cdblod/mld.html
C’est dans le cadre d’une étude
de la production des saumons de N.
Mantua et al. 1997 qu’apparut le
nom de Pacific Decadal Oscillation
(PDO), pour décrire le fait que la
température de surface de l’océan
(SST) augmente à l’Est pendant
qu’elle diminue à l’Ouest (phase dite
positive ou chaude, Fig. 47a gauche) ;
puis le phénomène s’inverse (phase
dite négative ou froide Fig. 47a
droite) sur les échelles de temps de 20
à 30 ans. Cette oscillation sous les
latitudes moyennes est actuellement
décrite pour les Pacifiques Nord et
Fig. 47a : cartographie de la SST, Sea surface temperature ;
Phase chaude
Phase froide
http://jisao.washington.edu/pdo/
- 137 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Fig. 48a-1: Structure spatiale de la NAO d'hiver.
L'incrément entre contours est de 0,5 millibar et les
points représentent la localisation des stations
météorologiques Lisbonne (Anticyclone des Açores) et
Stykkisholmur (Dépression Islandaise) dont les relevés
sont utilisés pour construire l'indice NAO.
Fig. 47c : Index PDO
1- Variation de l’index PDO depuis 85 ans
http://www.nwfsc.noaa.gov/research/divisions/fed/oeip/ca-pdo.cfm
2-
Fig. 48a-2 : Impacts des deux phases de la NAO (from
Martin Visbeck, Lamont-Doherty Earth Observatory).
Comparaison de l’index avec la hauteur de l’océan
http://www.esr.org/pdo_index.html
causée par le cycle saisonnier que subit la tranche supérieure
de l’océan. On nomme « mixed layer » cette tranche
supérieure turbulente, soumise au vent et donc aux courants
d’Ekman, dont la température est verticalement homogène,
(Fig. 47b). La profondeur du mixed layer atteint 100 à 200 m
de plus en hiver qu’en été dans cette zone du Pacifique
Nord. Il en résulte une moindre importance de la température
(basse en hiver, chaude en été) des eaux de surface. Durant
l’été, la majeure partie de cette tranche reste piégée sous les
eaux surchauffées de surface, et réapparaît l’hiver au
suivant, d’où le nom de "reemergence mechanism" donné
par M.A. Alexander et C. Deser 1995.
48a-3 : déplacement du jet stream avec la NAO
Enfin, le processus inventé par Frankignoul et
Hasselmann résiderait naturellement dans le passage de
tempêtes qui modifient le niveau d’énergie contenu dans le
mixed layer, via les vents et courant d’Ekman induits.
L’implication du pompage d’Ekman dans le
phénomène apparaît clairement dans la superposition des
courbes de l’index PDO et de l’altitude de la surface de
l’océan dans cette zone (Fig. 47c-2). On notera la
coïncidence des périodes positives chaudes avec les périodes
d’élévation de la température durant le XX° siècle (Fig. 47c1). Cet index, résultat d’une combinaison de paramètres dont
bien sûr la SST, est considéré par certains auteurs comme
discutable dans la mesure où les auteurs introduisent la
soustraction d’une quantité liée au réchauffement global afin
de s’en affranchir. Reste la courbe de hauteur de l’océan et la
variation de la taille des cernes des arbres de Baja California,
qui ne peuvent être entachées du même défaut, pour attester
de la réalité physique du phénomène PDO.
c - NAO / North Atlantic Oscillation ou
AO/ Arctic Oscillation, un même
couplage Océan-Atmosphère
L'Atlantique Nord est caractérisé en hiver par l'existence de 2
structures, i) une dépression centrée sur l'Islande et ii) un
anticyclone centré sur les Açores et la Péninsule Ibérique.
http://www.newx-forecasts.com/nao.html
Ces 2 structures bien définies (Fig. 48a-1) présentent un
mode de variabilité caractérisé par une forte cohérence
spatiale à grande échelle, qui représente
une
redistribution des masses atmosphériques entre les régions
arctiques ou subarctiques et les régions subtropicales de
l'Atlantique.
Cette variation est appelée Oscillation Nord
Atlantique (NAO). On parle de phase positive (NAO+,
- 138 -
ENSM-SE, 2° A : axe transverse P N
Fig. 48 à gauche) lorsque les deux centres
d'action se renforcent — creusement de la
16/10/12
Fig. 48c : D'après le National Snow and Ice Data Center, l'AO et la NAO sont
2 façons de décrire le même phénomène"
dépression d'Islande, gonflement et intensification
de l'Anticyclone des Açores — et de phase
négative (NAO-, à droite) lorsque les deux
s'affaiblissent
simultanément.
Ces
fluctuations ont des conséquences directes sur
le climat, depuis la côte Est des Etats-Unis à
l'Eurasie, et de l'Afrique du Nord et du
Moyen-Orient jusqu’en Arctique, que l'on
peut résumer comme suit :
1 - Un indice NAO+ correspond à une
pression plus élevée que la moyenne en
hiver sur les Açores — l'anticyclone (A) y
est plus fort que la normale — et une
pression plus faible que la moyenne sur
l'Islande — avec une dépression (D) plus
creuse — (Fig. 48a-2 gauche). L'impact
d'un NAO+ est un courant-jet direct (Fig. 48a-3) et un
renforcement des vents d'ouest à sud-ouest entre les
deux structures. Cela conduit à plus de douceur, plus de
pluie et à des tempêtes plus fréquentes (et plus
violentes) sur l'Europe du Nord à partir du nord de la
France. La moitié sud de la France connaît alors un
climat hivernal méditerranéen, sec et doux. Sur le nord
du Canada et le Groenland, l'hiver est alors froid et sec
et l'est des États-Unis subit un temps doux et humide.
2 - Un indice NAO- (Fig. 48a-2 droite) correspond à la
situation inverse — l'anticyclone des Açores (A) est plus
faible que sa valeur normale d'hiver et la dépression
d'Islande (L) est faiblement marquée — imposant au
courant-jet de contourner le Groënland (Fig. 48a-3).
Par conséquent, les vents d'ouest ne sont pas très forts,
les tempêtes sont rares sur l'Europe du nord qui passe
sous l'influence de l'Anticyclone de Sibérie, générant
un hiver froid et sec. Les trains de perturbations
circulent au niveau de la Méditerranée ; l’hiver est
humide aux latitudes sud-européennes et nordafricaines, plutôt doux au Groenland et la côte Est des
États-Unis est soumise à des épisodes froids et neigeux.
La NAO étant caractérisée classiquement par le
champ de pression au niveau de la mer — pour lequel on
dispose de longues séries chronologiques des moyennes mensuelles
Fig. 48 b: valeurs annuelles de l'indice NAO depuis 1830
(barres rouges NAO+ ou bleues NAO-). La courbe en trait
plein noir correspond à une moyenne glissante filtrant les
fluctuations inférieures à 4 ans.
On observe clairement des périodes de plusieurs années où
l'indice moyen est plutôt positif (1980-1998), et d'autres où il
est plutôt négatif (1955-1974).
http://www.ifremer.fr/lpo/cours/nao/nao3.html
http://nsidc.org/arcticmet/patterns/arctic_oscillation.html
— on peut rechercher la signature de la NAO (Fig. 48b)
dans l'histoire. Son évolution temporelle présente une
forte variabilité sans échelle de temps caractéristique
contrairement aux phénomènes ENSO ou PDO. C.
Cassou et L. Terray notent que la fin du XX° siècle est
dominée par l'alternance de périodes décennales qui
privilégient les phases négatives dans les années 50 à 60 et
positives depuis. Pour les auteurs, ces 30 dernières années
se rapprochent du début du siècle, où une certaine
persistance en phase positive était également décelable,
mais contrastent par les fortes valeurs de l'indice (7 parmi
les 10 valeurs les plus élevées au cours des 150 dernières
années ont été enregistrées depuis 1980).
Les modèles de circulation générale atmosphérique
(dans lesquels on impose les températures de surface de la
mer) dessinent des structures de pression évoluant de
façon similaire à la NAO, suggérant que celle-ci est en fait
un mode de variabilité intrinsèque à l'atmosphère. Les
mécanismes en reposeraient seulement sur l'interaction
entre l'écoulement ordinaire de l’atmosphère (courant-jet
de haute altitude, ondes atmosphériques stationnaires etc.)
et des tourbillons transitoires (ou tempêtes). Ainsi, le
modèle d'atmosphère n'a pas « besoin » de la variabilité
océanique ou des autres sous-systèmes climatiques pour
reproduire le mode spatial NAO (contrairement à
l'ENSO) ; Cassou et. Terray notent en revanche que les
fluctuations temporelles de la NAO simulées ne
privilégient
aucune
période
caractéristique,
et
n’expliquent pas les fluctuations décennales observées.
Pour les auteurs, une possibilité est l'influence d'un autre
sous-système climatique capable de modifier l'occurrence
et/ou la persistance de phases spécifiques de la NAO.
L'océan est le principal candidat. On observe en
effet des anomalies des températures océaniques de
grande échelle sur le bassin Atlantique étroitement liées
aux phases de la NAO (Fig. 48a-2). Pour Cassou et
Terray, c'est à travers la modification des échanges airmer (chaleur latente et sensible) que l'atmosphère
« imprime » ses anomalies à l'océan de surface, y
dessinant une structure à trois branches en phase NAO +:
1 - Le renforcement des vents d'Ouest sur le nord du
bassin Atlantique, associé à la course plus
septentrionale des tempêtes tend à refroidir
davantage l'océan par augmentation de l'évaporation
de surface ; les descentes d'air froid et sec d'origine
- 139 -
ENSM-SE, 2° A : axe transverse P N
polaire sur le Nord-Ouest du bassin tendent également
à refroidir la Mer du Labrador ;
2 - Aux moyennes latitudes, règnent alors des conditions
plus clémentes qui tendent à réchauffer anormalement
l’eau de surface (diminution de l'évaporation) ; les
remontées d'air plus chaud (régime de Sud-Ouest
dominant) tendent à réchauffer l’océan médian le long
des côtes américaines et européennes.
3 - Sous les tropiques, l'intensification des alizés due au
renforcement de l'Anticyclone des Açores induit un
refroidissement du bassin tropical de l'Atlantique Nord
en réponse à une évaporation de surface plus intense.
En période NAO-, c'est la structure inverse qui se
dessine.
D'après le National Snow and Ice Data Center, la
NAO et l'AO (Arctic Oscillation, Fig. 48c) sont 2 façons de
décrire le même phénomène. L'AO est une variation d'une
année à l'autre de la différence de pression atmosphérique au
niveau de l'océan, entre le pôle et la latitude 20°N. Cette
variation se traduit bien sûr dans la position et l'intensité des
dépressions arctiques et des anticyclones au Sud. A la
différence de la NAO qui n'intéresse que l'Atlantique ou de la
PDO qui ne s'applique qu’au Pacifique, l'AO couvre tout
Fig. 49: Atlantic multidecadal oscillation (AMO)
a) évolution temporelle de l'index AMO depuis 1860
16/10/12
l’hémisphère Nord.
L'AO est en phase AO+, comme en NAO+,
lorsqu'une plus grande différence de pression existe entre
les basses pressions polaires et les hautes pressions des
latitudes tempérées. Elle est en AO- comme pour la NAOlorsque les différences de pression entre les 2 structures
sont faibles.
Cette situation à la surface du globe est intimement
liée au comportement de la haute troposphère et de la
stratosphère. En phase AO+, la stratosphère se refroidit.
Le contraste Nord-Sud renforce alors les vents Ouest-Est
tournant autour du pôle Nord et creuse profondément un
vortex polaire, responsable d'un pôle Nord stratosphérique
très froid en phase AO+.
d
- AMO
Oscillation
Atlantic
Multidecadal
L'AMO est une oscillation des températures de
surface de l'océan qui fut observée pour la première fois
en 2000. En 2001, D.B. Enfield, A.M. Mestas-Nuñez et
P.J. Trimble montrent que l'AMO est en relation avec les
pluies et les débits des fleuves US. L'index AMO est
défini comme l'anomalie de température résiduelle après
soustraction (de la valeur brute annuelle) de la moyenne
glissante de la variation (trend) sur 10 ans. Les
températures utilisées sont celles de l'Atlantique Nord,
entre les latitudes 0 et 70.
En 2008 G.P. Compo et P.D. Sardeshmukh —
du Climate Diagnostics Centers, University of Colorado, et de la
Physical Sciences Division, Earth System Research Laboratory,
NOAA — ont publié dans Climate Dynamics une nouvelle
http://en.wikipedia.org/wiki/File:Amo_timeseries_1856-present.svg
b) comparaison de l'AMO avec la pluviométrie de la Floride depuis 1900
étude selon laquelle le réchauffement global est une
réponse au réchauffement des océans, bien plus qu'une
réponse directe à l'accroissement des GES. La courbe
oscillante de l'AMO, dont la période de 70ans environ,
gouverne l'ensemble des variations climatiques dans cette
région. Elle coïncide avec les périodes de réchauffement
et de refroidissement observées (Fig. 17 et 49). Elle est
très comparable à celle des pluies en Floride (Fig.49b) et à
celle de l'énergie dissipée par les cyclones en Atlantique
Nord (ACE Fig. 49c). Pour les auteurs, plusieurs études
récentes suggèrent que la représentation des températures
de surface de l'océan dans les modèles couplés océanatmosphère utilisés pour les rapports du GIEC présentent
des erreurs substantielles sur les échelles interannuelles et
pluridécennales.
5 - Le modèle du Tapis Roulant
c) comparaison de l'AMO avec l'énergie dissipée par les cyclones en
Atlantique, depuis 1860
Nous avons remarqué que l’ensemble des trois
océans montre une grande similitude dans la distribution
des masses d’eau sous les hautes latitudes Sud, mais que
cette
ressemblance
s’estompe
vers
le
Nord,
particulièrement pour l’Atlantique, en particulier à cause
des eaux provenant de la Méditerranée.
Mer quasi fermée aujourd’hui, et qui le fut
quelques temps au Messinien (durant 6 Ma environ), la
Méditerranée est soumise à une forte évaporation ; son
bilan de masse déficitaire est équilibré par des échanges
- 140 -
ENSM-SE, 2° A : axe transverse P N
Fig. 50a: Circulation océanique Nord Atlantique
Fig. 50b: Plongement des eaux froide le long de l’Islande
avec l’atlantique, à travers le détroit de Gibraltar, qui est
parcouru en surface par un courant rentrant, de salinité plus
faible que les eaux méditerranéennes. Cette eau de surface
s’alourdit avec l’évaporation, et vient finalement alimenter
les eaux profondes du bassin. L’excédent d’eaux profondes,
sur-salées et denses, déborde du bassin méditerranéen dans
l’atlantique par un courant de fond important, qui marque
nettement les eaux de l’Atlantique profond, et les eaux de
surface par mélange à un moindre degré (en rose dans la
coupe NS de l’Atlantique, Fig. 38b, latitude 30°N profondeur
maxi 2500 à 3000m ces eaux arrivent perpendiculairement à
la figure). Les volumes d’eau des grands fleuves qui se
déversent en Méditerranée sont tellement insuffisants à
combler le déficit de masse lié à l’évaporation que, lorsque
Gibraltar se ferma au Messinien, le niveau de la mer est
descendu de quelques 2000m sous le niveau actuel. En
attestent par exemple l’incision d’un canyon du Rhône,
comblé depuis mais connu par sismique et sondages jusqu’à
Valence, ou celui du Nil, connu jusqu’à Assouan. La
Méditerranée presque asséchée, sursaturée, s’est transformée
Fig. 50b: Circulation océanique Arctique ;
fonds <2000 m en gris bleu
Limites schématiques plancher océanique
continent
16/10/12
en d’énormes dépôts de sel, reconnus eux aussi par
sondage et affleurant maintenant au plancher de la
méditerranée. Cet épisode n’a semble-t-il duré que
quelques dizaines de milliers d’années et nous n’étions
pas là quand l’Atlantique se mit à cascader furieusement
pour remplir « notre mer ».
En Atlantique-Nord, c’est la branche nord du GulfStream (courant Nord-Atlantique in Fig. 50a) qui marque
les eaux. Une part essentielle de ce courant, qui s’est déjà
partiellement refroidi, vient buter sur les fonds élevés du
seuil Islandais (en grisé sur la figure 50b) entre Islande et
Iles Britanniques. L’Islande est située sur la ride médioocéanique et elle est en même temps un point chaud, ce
qui conduit à une production importante de laves créant le
seuil plateau en question (<2000m54 ). La partie du Gulf
Stream qui ne franchit par le seuil (détroit du Danemark
dans la figure 50c) s’écoule au fond de l’Atlantique. Le
reste du courant Nord-Atlantique pénètre dans l’Arctique
par la Mer de Norvège, en longeant l’Ecosse et la Norvège
(Fig. 50b), avec une température et une salinité
anormalement élevées pour ces latitudes. Ses eaux se
mêlent ensuite à celles de l’Arctique, et elles cèdent leur
chaleur à l’atmosphère et à la banquise en hiver. Toutes
Fig. 51a : répartition des masses d’eau dans l’Atlantique, coupe NS
54
; dans la figure, les fonds océaniques sont pour une
large partie les marges continentales d’Eurasie et
d’Amérique-Groënland. Dans le seuil Islandais, l’essentiel
des haut-fonds sont d’origine volcanique océanique
- 141 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
L’océan Antarctique est parcouru indéfiniment par
un courant circum-Antarctique qui isole le continent
polaire et ses eaux périphériques froides du reste de
l’océan mondial (Fig. 51a, AABW).
Fig. 51b : schéma simplifié de la MOC Meridional
Overturning Circulation
http://www.bodc.ac.uk/about/news_and_events/rapid_watch.html
les conditions sont alors réunies pour que ces eaux plongent
dans les bassins profonds de l’Arctique.
L’exutoire de ces eaux froides et denses est constitué
par deux courants franchissant le seuil de l’Islande entre
Islande et Groenland principalement (Fig. 50b), mais aussi
le long de la côte Est Islandaise. Elles s’écoulent ensuite au
fond de l’Atlantique (NADW, North Atlantic Deep Water in
Fig. 51a) avec celles de la première branche refoulée par le
seuil ; elles vont parcourir le fond de l’Atlantique et atteindre
ainsi les hautes latitudes Sud. L’ensemble de cette boucle
plongeante, qui recycle les eaux de surface vers les
profondeurs océaniques est unique.
Les études paléoclimatiques ont montré que la latitude
de la boucle plongeante Nord-Atlantique a joué un rôle clef
dans le climat européen (actuellement chaud pour la latitude
considérée). On sait aujourd’hui qu’elle n’est pas fixe, elle
peut descendre jusqu’au 30° parallèle et le climat européen
devient alors beaucoup plus froid. La question posée
actuellement est de savoir si le Gulf Stream et la Meridional
Overturning Circulation (MOC, recirculation dans la
Fig. 51b) sont en train de s’arrêter, elle est encore largement
débattue55.
55
La topographie du fond des océans fait le reste.
L’étroit passage de Drake impose au courant d’eaux
froides et profondes sortant de l’Atlantique de se diriger
vers l’océan Indien et le Pacifique. L’ouverture de ce
passage est récente. Dans le cadre du programme Relief
(de l'Institut National des Sciences de l'Univers), Y.
Lagabrielle et al. 2009 ont montré (Fig. 53a) que
l’histoire chaotique de l’ouverture du passage de Drake
coïncide remarquablement avec l’histoire climatique du
Tertiaire (Fig. 53b) que nous avons évoqué au début de ce
chapitre (§ B.1.c, Fig. 9). Elle se situe entre 43 Ma. et 10
Ma., date de la fin de la séparation de l’Antarctique et de
l’Amérique du Sud. Préalablement, alors que
l’Antarctique dérivait déjà vers le pôle Sud, l’Australie
(Tasmanie)
et
l’Antarctique
s’étaient
séparés,
commençant à créer les conditions d’une circulation
circum-Antarctique (Antarctic Circum Current ACC
(Fig. 52).
Il apparaît donc clairement maintenant comment la
Terre est passée d’un régime chaud, pendant lequel les
eaux profondes étaient chaudes, (sans doute plus de 10°C,
14-15°C ?) au régime actuel où leur température est de
2°C. Reprenant Y. Lagabrielle, nous pouvons affirmer que
« ce courant est donc un acteur majeur du système
climatique actuel car il isole thermiquement l'Antarctique
et empêche les eaux chaudes de surface en provenance de
l'Equateur de venir lécher les côtes de ce continent »
Dès lors que cette circulation superficielle d’Ouest
en Est se met en place, elle subit la force de Coriolis (en
rotation vers la gauche dans cet hémisphère) et il en
résulte un courant d’Ekman important dirigé vers le nord.
Ce courant de surface, froid, plonge un peu vers 45° de la
latitude Sud, sous les eaux de surface atlantiques,
constituant la couche appelée intermédiaire AntarctiqueAtlantique (Antarctic-Atlantic Intermediate Water,
Le schéma est largement médiatisé par notre crainte
évoquée plus avant (§ E.3.a) de voir le Gulf Stream s’arrêter
en raison du réchauffement climatique. Cette question est
largement reprise par la presse car, deux articles de H.
Bryden, H. Longworth et Stuart A. Cunningham d’abord
puis Cunningham et al. ensuite, concluaient que la dérive
méridionale atlantique (Meridional Overturning Circulation,
MOC) s'est ralentie de 30% entre 1957 et 2004. L’accent a
été mis en 2007 par les mêmes auteurs sur la grande
variabilité annuelle et de cette gyre (variation probablement
couplée au cycle pluri décennal de la NAO) — moyenne
annuelle 18.7 ± 5.6 sverdrups (1 Sv = 106 m3s-1) avec un
débit variant avec les saisons entre 4.0 et 34.9 Sv — estimant
que « fondamentalement, il faut encore 10 ans de mesures
ininterrompues pour s’assurer que les variations saisonnières
sont bien connues et mettre en évidence les variations
interannuelles » de cette gyre. On voit donc clairement que
toute annonce dans ce domaine est encore largement
prématurée.
Le terme de Meridional Overturning Circulation, MOC est
utilisé soit pour parler de la circulation océanique dans cette
région de l’océan mondial, soit en lieu et place de l’ensemble
de la circulation mondiale. Plus souvent on utilise le terme de
Fig. 52 : représentation schématique de la partie
Antarctique – Atlantique Sud de la circulation
généralisée de l’océan (convoyeur à bande)
Divergence Atlantique
« Circulation ThermoHaline » (THC) ou encore « tapis
roulant » ou « Ocean Conveyor Belt » § E3f
- 142 -
ENSM-SE, 2° A : axe transverse P N
AAIW).
La
figure 52
montre
l’impact de ce courant d’Ekman
sur les eaux profondes (vu vers
l’Ouest). Elle complète la coupe
Nord-Sud de la figure 51a. Initié
par les 50iemes, et chassant l’eau
de surface vers le Nord, il
provoque un upwelling côtier le
long de l’Antarctique, qui tire
ainsi vers la surface une partie
des eaux profondes et semi
profondes (Upper and Lower
Circumpolar
Deep
Water,
UCDW and LCDW), issues de
l’Atlantique Sud. En remontant à
la surface, les eaux les plus Sud
entrent en contact avec la glace
antarctique ou l’atmosphère
polaire glacial. Elles subissent
une augmentation de densité et
replongent, créant en surface la
divergence
Antarctique
et
nourrissant en profondeur les
eaux périantarctiques (AntarcticAtlantic Bottom Water, AABW).
16/10/12
Fig. 53b : Ouverture de passage de Drake entre 43 et 10 Ma et modifications du climat.
Noter la coïncidence de l’ouverture à 32 Ma avec les modifications du proxi de
température δ18O
Celles-ci viennent s’étaler
en profondeur dans l’Atlantique
sous les couches UDCW et
LDCW
lorsqu’aucun
seuil
topographique suffisant ne les bloque. En aspirant les eaux
profondes provenant de l'Atlantique nord, le courant CircumAntarctique joue un rôle important d’activateur de la
circulation thermohaline.
Le courant profond et froid qui s’écoule dans la plaine
abyssale atlantique ouest depuis l’Islande (bassin et plaine de
Caera dans la figure 50c) longe le talus continental américain,
Nord puis Sud (Fig. 54) ; cette langue d’eau est appelée North
Atlantic Down Water (NADW Fig.51a). Elle vire vers l’Est
lorsqu’elle rejoint, en Atlantique Sud, les eaux des Upper et
Fig. 53a : Ouverture de passage de Drake entre 43 et 10 Ma
Lower Circumpolar Deep Water (UCDW et LCDW, Fig.
52). Puis, elle passe le Cap de Bonne Espérance où
l’ensemble se disperse dans l’Océan Indien et le Pacifique
(Fig. 54, bleu).
Les eaux de surface de la gyre sud de l’Atlantique
(non figurée dans la Fig. 54, voir figure 39b) subissent
aussi une rotation vers la gauche. Donc, leur direction
Nord-Sud suivie le long de l’Argentine devient Ouest-Est
avec les hautes latitudes. Elle est alors parallèle au courant
Circum-Antarctique (AAC) dans la figure 52. Dans cette
région Atlantique sud elles vont boucler la gyre atlantique,
en s’adjoignant les eaux de surface en provenance de
l’océan Indien (Fig. 54 courant rouge). Ce mix d’eaux
refroidies de la gyre Atlantique Sud, d’eaux froides du
Fig. 54 : Le convoyeur à bande
http://forces.si.edu/arctic/04_00_16.html
- 143 -
ENSM-SE, 2° A : axe transverse P N
courant circum-Antarctique et d’eaux chaudes venant de
l’Indien est donc renvoyé vers l’équateur. Ces eaux transitent
alors pour partie, après une traversée océanique Est-Ouest ,
vers le nord avec le Gulf-Stream et le courant Nord
Atlantique.
Les eaux de l’océan parcourent ainsi une sorte de
tapis roulant (Fig. 54), le Great Ocean Convoyer Belt de
Wallace Broeker (#1990), largement responsable de la
régulation du climat planétaire et de la chimie des eaux
océaniques.
6 – Eustatisme = Variations du niveau marin
Nous avons vu au paragraphe §B1c sur le changement
climatique que le trait de la côte est en perpétuel
déplacement, en raison de changements à courte période
(marées), mais aussi et surtout sous l’effet de variations
climatiques. Le terme d'eustatisme fut donné par E. Suess en
1890 aux variations générales du niveau moyen des mers de
même amplitude dans toutes les régions du globe. Nous
venons de voir comment la dérive des continents introduit
des changements essentiels dans la circulation océanique et
donc comment l’activité interne de la planète peut intervenir
dans les changements majeurs du climat de la Terre. Les
variations du niveau marin, dont nous avons évoqué avec le
changement climatique les variations infinitésimales à
l’échelle de temps de la vie humaine ou de nos sociétés, ont
en fait une quintuple origine si l’on change d’échelle :
16/10/12
poussant l’eau sur les plateformes continentales ou
abaissant son niveau de plusieurs dizaines de mètres,
variations observables à l’échelle de la planète,
qu’utilise la stratigraphie séquentielle.
3 - A l’échelle de temps des changements climatiques,
quelques milliers d’années à quelques dizaines de
milliers, le bilan de masse des glaciers continentaux
gère le niveau marin. Il est le résultat de la
compétition entre précipitations neigeuses et fonte
ou sublimation ; Un bilan global négatif conduit
certes à un excédent d’eau, mais qui allège la
bordure continentale soulagée de sa glace, et à
l’inverse un bilan positif stocke de l’eau solide
(cryosphère) sur des continents alourdis, voir -4. La
variation brutale du bilan de masse des glaciers
continentaux est à l’origine des variations brutales
de forte amplitude (plus de 100m) du niveau marin
comme celles que l’on a enregistré sur les côtes
d’Europe ou d’Amérique du Nord lors des dernières
glaciations ou déglaciations, et qui transformèrent
par exemple la Manche en une large vallée couverte
par la toundra durant les périodes glaciaires du
dernier million d’années. La dernière déglaciation a
démarré il y a 19 000 ans, et malgré une courte
période froide intermédiaire (Dryas) le climat actuel
est presque aussi chaud que durant les maxima
interglaciaires. Nous sommes donc en présence de
phénomènes rapides et discontinus (cf. § B.1.c).
4 - Conséquence du bilan des glaciers continentaux, les
mouvements verticaux d’ajustement isostatique des
continents, tels que les rebonds postglaciaires, se
font sentir avec retard sur une échelle de temps de
10 000 à 20 000 ans. Leur influence est « locale».
5 - La variation de température de l’eau de surface (500
premiers mètres) et donc de son poids volumique,
qui conduit à un gonflement - dégonflement de
l’océan (dilatation thermique des eaux).
1 - A très long terme, la cause première des changements
de niveau marin est la distribution des masses
continentales. Dans le cycle des Pangée(s) successives
et de leur morcellement, qui écartèle « aux quatre
coins » du globe les continents avant de les assembler à
nouveau sur un rythme de 400 ? 500 ? millions
d’années, la position relative des continents commande
l’activité biologique continentale et marine, ainsi que la
morphologie des bassins ; leur latitude et l’échange de
On observe de nos jour grâce aux mesures
chaleur entre l’équateur et les pôles imposent le trajet
satellitaires
que la montée globale du niveau marin n’est
des courants, le climat résultant gère des variations du
pas spatialement homogène, comme le soulignent A.
niveau marin de plus de 100m.
Cazenave et C. Cabanes en 2002 ((Fig. 55a, b, c, Extrait de
2 - A une échelle de temps plus basse, entre 10 et 100 Ma
la Lettre n°14 du Programme International Géosphère
environ, la vitesse d’expansion des rides océaniques
Biosphère-Programme Mondial de Recherches sur le Climat
intervient à son tour. Le premier à avoir observé le PIGB). En 2001, en s’appuyant sur des modèles
phénomène fut C. Darwin, qui déduisit de la
croissance des coraux autour des îles du Pacifique Fig. 55a : Variation du niveau marin ; a) variation altimétrique
que le bassin central de l'océan devait s’enfoncer moyenne pour la période 1993-1998 ;
lentement, permettant ainsi aux ceintures de corail
de grandir sur les anciens volcans submergés qui
donnaient les atolls. Ce phénomène d’enfoncement
du plancher océanique au droit des points chauds
est régional et les variations du niveau marin qui
l’accompagnent le sont aussi. Par contre,
contrairement aux points chauds, les rides
océaniques sont immenses et nous avons vu au
chp. 4 qu’elles sont en équilibre hydrostatique sur
le manteau terrestre ; nous avons vu aussi qu’elles
sont d’autant moins denses (et donc plus larges et
peu profondes) que la vitesse des plaques est
importante, traduisant une intense production de
magma et de chaleur. Ainsi le fond des bassins
respire au rythme des rides à l’échelle mondiale,
- 144 -
ENSM-SE, 2° A : axe transverse P N
climatiques couplant océan et atmosphère, le GIEC estimait
que la montée moyenne du niveau marin était de 0,7 mm par
an pour le XXe siècle, dont 0.5 mm provoqués par le seul
gonflement océanique, les 0.2 mm restant résultant de la
fonte des glaciers.
16/10/12
Fig. 56 : Evolution du taux annuel d’élévation du niveau marin
depuis 1905 sur 9 stations fiables et 177 stations depuis 1955
environ
Rappelons que seuls les glaciers de montagnes
contribuent à ces 0.2 mm ; l’Antarctique (stable ou en
expansion, § B1c4) et le Groenland (en régression mais
beaucoup plus petit) ne contribuent que de façon négligeable
à l’élévation du niveau de la mer à l’heure actuelle.
Rappelons aussi que le travail du GIEC reposait
principalement sur des données de marégraphes
majoritairement installés dans l’hémisphère nord, à proximité
des côtes européennes et nord-américaines ; leur répartition
n’était donc pas idéale (fig. 55c triangles blancs).
En outre, l’élévation du niveau marin apparaît depuis
2007 comme un phénomène plus complexe qu’une simple
réponse à l’augmentation de la température. Pour S. J.
Holgate du Proudman Oceanographic Laboratory à
Liverpool, la moyenne d’élévation obtenue pour le XX°
siècle à partir mesures des marégraphes considérés comme
les plus fiables (anciens, situés loin de zones tectoniques
mobiles dans des régions non susceptibles de rebond
postglaciaire ; Fig. 55c ronds noirs) est de 17.4 mm (donc
dans la fourchette haute des autres estimations moyenne)
mais le taux de variation n’apparaît pas linéaire. Pour
S. J. Holgate, il est cyclique (Fig. 56), avec les taux
d’élévation maximum en 1939 et en 1980, déniant ainsi
d’une part l’idée d’un accroissement progressif du taux
d’élévation de l’océan dans la fin du XX° et d’autre part
celle d’une relation simple entre élévation du niveau
marin et teneur atmosphérique en CO2.
Mais les choses ont changé d’une part avec la mise
en orbite des satellites comme Topex-Poséidon dont les
données ont été acquises en continu entre 1993 et 2001 et
d’autre part avec la mise en place en 2000 du réseau de
sondes dérivantes du réseau ARGO, complémentaire du
satellite altimétrique Jason. Ces sondes (au nombre de
Fig. 55 b-c : Variation du niveau marin ; b) variation altimétrique
3255 au 11 avril 2010, http://www.argo.ucsd.edu/index.html)
calculée attribuée à la seule dilation thermique pour la période
plongent régulièrement et enregistrent les courbes de
1993-1998 ; c) idem pour la période 1955-1996 , la position des
température et salinité de la colonne d’eau sur environ
marégraphes est donnée par les triangles blancs
2000 mètres. En 2002, Cazenave, Cabanes et Le
Prevost ont mis en évidence une élévation du niveau
moyen des océans de 2.5± 0.2 mm/an (Fig. 55a). Les
auteurs ont estimé ensuite la contribution de
l'expansion thermique en comparant les données
altimétriques précédentes aux mesures directes de la
température (compilées jusqu’en 1998 par la NOAA)
des 500 premiers mètres d’eau. Pour la période de
recouvrement (1993-1998, Fig. 55b) des deux séries
d’observations sont parfaitement corrélées. Enfin, ont
été pris en compte les températures moyennes des
3000 premiers mètres des océans pour les quarante
dernières années. Les auteurs ont ainsi pu calculer
l’évolution du niveau marin due au réchauffement des
océans, soit 0.50 ± 0.05 mm/an entre 1955 et 1996,
valeur comparable à celle prédite par la plupart des
modèles climatiques.
On pouvait donc encore conclure avec les
auteurs jusqu’en 2008-2010 que si le niveau moyen
des océans s’est bien vraisemblablement élevé de 0.5 à
0.7 mm/an en moyenne au cours des dernières
décennies, cette élévation avait pour cause principale
la dilatation thermique des océans et que celle-ci est
moins forte que ne le laissent supposer les
observations marégraphiques, presque toutes situées
en zone chaude (rouge dans la figure 55).
Nous avons vu que l’avènement de l’altimétrie
satellitaire haute résolution permet de s’affranchir de
cette mauvaise distribution des marégraphes. La
- 145 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
figure 57 (Wunch et al 2008) représente les variations F - Histoire de l'atmosphère
régionales autour de la moyenne mondiale d’élévation du
niveau marin. Celle-ci est évaluée à 2.8±0.4 mm an-1 à partir
des relevés de Topex/Poséidon pour la période 1993-2001
1 - L'atmosphère primaire de la Terre : héritage
(A. Cazenave et S.R. Nerem, 2004). Pour nombre d’auteurs,
des gaz piégés lors de l’accrétion
une telle valeur signifie clairement que le processus
Très tôt, au moment même de l’accrétion,
Fig. 57 : Variation du niveau marin, période 1993-2004.
la Terre s’est entourée d'une enveloppe gazeuse.
Durant cette épisode, une partie de la fraction
gazeuse (non condensée) de la nébuleuse mère a
été capturée comme, et avec, les solides. Compte
tenu de son origine, la composition de cette
atmosphère primaire de notre Terre et des autres
planètes telluriques devait alors être très proche
de celle du soleil (Tableau 4) ; et c'est encore
cette composition que nous observons de nos
jours autour des planètes géantes gazeuses
externes, mais ce n’est plus celle d’aucune
planète rocheuse, situées en deçà du domaine des
glaces dans la séquence de condensation (Chp.
2). Avec l’augmentation de pression et de
température, les corps planétaires deviennent
liquides, et une partie des gaz piégés avec les
solides s’y dissolvent alors que le reste participe
à la création de l’atmosphère de ces corps. Plus
un corps devient massif, plus il devient capable
de retenir cette première atmosphère.
d’élévation de température, de dilation thermique et de fonte
généralisée des glaciers et des inlandsis est en pleine
La figure 58 montre que les rapports des
accélération, la catastrophe climatique annoncée est d’ores et concentrations des gaz atmosphériques terrestres aux
déjà amorcée… Mais dans un papier récent, Wunch et al concentrations solaires sont extrêmement variés, ce qui
(2008) considèrent que l’essentiel des variations autour de la suggère que si l'atmosphère terrestre est issue d'une telle
moyenne globale dans la figure 56 est lié aux variations atmosphère primaire, des processus sont intervenus depuis
régionales de masse, salinité et température (paramètres liés), pour en modifier les rapports: deux types de processus
et que cela montre qu’un lien étroit existe entre changement sont envisageables:
du niveau marin et circulation thermohaline générale...
Fig. 58 : abondances relatives des gaz atmosphériques par
Et la discussion n’est pas close… A Cazenave et al.
rapport au Soleil
ont montré en 2009 que si l’affaire paraissait entendue pour
l’heure pour la période ante-2003 déjà évoquée plus haut —
le niveau moyen mesuré de façon très précise entre 1993 et 2003
par les satellites franco-américains Topex/Poséidon et son
successeur Jason-1 était monté à un rythme relativement constant
de 3 mm/an dont plus de la moitié était due à la dilatation des eaux
océaniques qui se réchauffent (contribution stérique), alors que 1,2
mm/an provenait des pertes de masse des calottes polaires et des
glaciers de montagne — on constate toujours depuis 2003 une
hausse assez rapide (2,5 mm/an) du niveau marin, mais le
réchauffement de l'océan semble faire une pause, sa
contribution à la hausse du niveau des mers n'étant que de
0,4 mm/an. Les auteurs s’appuient sur un calcul de la
dilatation conduit par 2 méthodes indépendantes, i) à partir
du réseau de bouées Argo qui transmettent des profils de 900
m de profondeur de la température et de la salinité pour
l'ensemble de l'océan mondial, ii) par mesures de la
différence entre la montée du niveau des mers observée par
les altimètres de Topex/Poséidon et Jason-1 et l'augmentation
du stock d'eau dans les océans vue par GRACE. Les auteurs
en concluent donc que l'accroissement de la masse d'eau
de l'océan est majoritairement responsable de la hausse
du niveau marin depuis 2003.
- 146 -
Tableau 4: composition du soleil
ENSM-SE, 2° A : axe transverse P N
16/10/12
1 - En premier lieu, le piégeage sélectif dans la géosphère
des gaz; un tel phénomène pourrait en effet avoir
modifié fortement les rapports de ces gaz par rapport à
la nébuleuse solaire. Cependant les gaz neutres (Néon,
Argon, Krypton et Xénon), qui sont extrêmement peu
réactifs, auraient dû être piégés de conserve et donc
conserver les rapports initiaux… il n'en est rien
(Fig. 58).
dégazage que nous observons de nos jours n'en serait alors
que la suite normale.
2 - En second lieu, la perte vers le cosmos d'une part
importante des gaz initiaux pourrait aussi produire à
une grande diversité des concentrations. Une fois
encore les gaz neutres nous apportent un élément de
réponse. Puisque non réactifs, s'ils avaient subi des
pertes vers le cosmos, celles-ci auraient dû se faire
simplement en raison inverse de leurs poids
moléculaires. La figure 58 montre encore qu'il n'en est
rien.
Le rapport entre un isotope radiogénique et un des
isotopes stables du même élément va donc évoluer dans le
temps avec la désintégration de son parent, jusqu'à
épuisement de ce dernier. En se concentrant tôt ou tard
dans l'atmosphère, ces isotopes peuvent alors être utilisés
pour en décrypter l’histoire. En effet
On peut donc en conclure que l’atmosphère terrestre
ne porte plus la signature de la nébuleuse solaire,
confortant l’hypothèse d’un Soleil jeune sans doute passé
comme n’importe quelle étoile de la séquence principale par
la période de forte activité dite T. Tauri, plus lumineux
qu’aujourd’hui de 10%, et dont le vent solaire plus violent
aura expulsé à cette époque les atmosphères des planètes
telluriques vers des régions plus lointaines.
2 - L'atmosphère secondaire de la Terre : fille des
volcans
Les planètes internes se sont donc constituées une
seconde atmosphère. Vénus et la Terre, suffisamment
massives, ont conservé jusqu’à nos jours cette seconde
enveloppe gazeuse. Mercure et Mars n’y sont pas parvenues,
en raison de leur faible masse, et, pour Mercure, en raison
aussi de la proximité du Soleil. Mars conserve toutefois une
atmosphère très ténue (10-3 atm.), dont la composition est
très comparable à celle de Vénus. Cette ressemblance
témoigne de la similitude des processus qui ont présidé à la
naissance des atmosphères des planètes internes. Parmi les
composés volatils qui sont arrivés à la surface figuraient le
CO2 (le premier en masse, 95%), N2 (2-3%), les oxydes de
soufre, H2S, HCl et les gaz rares, Hélium, Argon, Xénon,
Krypton et Néon. Dans une telle atmosphère, la proportion
d’oxygène était < 1%.
Cette atmosphère secondaire est “ fille des
volcans ”. Elle résulte du dégazage de leur manteau, dont la
constitution date du fractionnement des corps rocheux en un
noyau dense et métallique et un manteau silicaté.
L'origine des gaz contenus initialement dans le
manteau est encore très controversée. L'hypothèse première
est que ces gaz ont été acquis lors de la phase d'accrétion à
froid. Mais la géochimie et l'observation récente de systèmes
stellaires à disques de poussières et de gaz suggèrent que
l'essentiel des éléments volatils des planètes pourrait provenir
du bombardement cométaire sur les planètes jeunes déjà
formées.
Nous allons voir que l'histoire du dégazage de la Terre
apparaît compatible avec une origine mantellique de notre
atmosphère. Cela suggère que si l'origine de nos volatils est
cométaire, leur acquisition fut suffisamment précoce pour
qu'il se soit établi un équilibre avec le manteau terrestre. Le
Son étude nous est accessible à travers l’étude de la
composition isotopique des gaz rares. Ceux-ci ont un
double intérêt. Par nature ils sont peu susceptibles de
réagir avec leur environnement, et certains de leurs
isotopes sont produits par la radioactivité naturelle.
Nous allons ainsi nous intéresser à 3 réactions56 :
56
Rappel -1: tous les éléments ou presque
possèdent des isotopes. Certains sont stables, d'autres ne le
sont pas. Au-delà du bismuth (Z=83), il n’existe aucun
noyau parfaitement stable. Les interactions nucléaires de
ces énormes atomes deviennent trop faibles au regard de
leur taille ; cela favorise leur dégradation spontanée en
espèces plus légères.
Rappel –2 : la composition isotopique de notre
système est une donnée initiale, fixée au moment ou notre
nébuleuse gazeuse, considérée comme homogène, va
s'effondrer en un soleil et son système planétaire ; les
rapports des isotopes stables de ce système homogène sont
alors fixés. Par contre, le chronomètre de la décroissance
des isotopes radioactifs est démarré à cet instant dans
notre système. Certains, comme 26Al, ont totalement
disparu de nos jours. D'autres, comme 238U, dont la
période est de l'ordre de grandeur de l'âge de la Terre ont
épuisé seulement la moitié de leur stock initial.
Inversement les produits de ces désintégrations voient (ou
ont vu) leur quantité croître durant la même période de
temps. Les rapports isotopiques de ces éléments ont donc
évolué depuis la création du système solaire.
Rappel –3 : dans notre système sont apparus des
sous systèmes que l'on peut considérer chacun comme
homogène en première approximation. Ces sous-systèmes,
ou réservoirs, sont reliés entre eux par des flux de
matières, gérés par des processus physico-chimiques ou
biochimiques; la Terre peut ainsi être considérée
globalement comme un sous-système, avec ses flux
d'échanges avec le reste du système solaire; elle est aussi
"découpée" en sous-systèmes (Manteau, croûte,
hydrosphère, atmosphère), autant de réservoirs
"homogènes" qui échangent des flux de matière.
Rappel –4 : si les processus physico-chimiques
sont susceptibles de modifier les rapports de teneurs entre
des éléments différents, ils agissent de manière plus
subtile sur les rapports isotopiques d’un élément donné,
puisque les isotopes d’un même élément ont un
comportement chimique identique qui dépend du cortège
électronique de l’élément, et ils diffèrent par leur masse.
D'une manière très générale la constante d’équilibre
isotopique K est peu différente de 1, de sorte que les
variations isotopiques détectées dans la nature dépassent
rarement quelques 10-3. Cette constante d'équilibre K est
thermo-dépendante (fonction inverse de T°); elle tend vers
1 aux températures élevées.
- 147 -
ENSM-SE, 2° A : axe transverse P N
1)
129
2)
40
3)
3
I ⇒ 129Xe +e-,
K +e- ⇒ 40Ar + γ,
réaction βdemi-vie λ = 17 Ma.
capture électronique
demi-vie λ = 1.2 Ga.
H (Tritium) ⇒ 3He + e-, réaction βdemi-vie λ = 12 ans et 4 mois.
Les rapports 129Xe/130Xe ou 40Ar/36Ar, vont évoluer
dans le temps avec la désintégration de le129I et de 40K,
jusqu'à épuisement du parent.
a - le dégazage du manteau terrestre a-til été précoce ou tardif?
Comment a pu se produire le dégazage du manteau
terrestre ? A-t-il été précoce ou tardif? Supposons pour
simplifier qu’il ait été instantané et unique. Au moment où il
se produit, il opère une différentiation entre les éléments :
1) Il regroupe alors tous les volatils, tous disponibles à cet
instant dans le manteau (dont le Xénon ou l'Argon), et
constitue l’atmosphère; le manteau ne contient plus de
gaz à cet instant;
2) l’Iode (moins volatil), et le potassium, restent
préférentiellement dans le manteau.
Deux cas peuvent alors se présenter:
1- tout 129I ou tout 40K sont déjà consommés à cet instant,
et il ne peut plus y avoir de production ultérieure de
129
Xe ou de 40Ar dans le manteau;
2- il reste de l'129I ou du 40K à cet instant, et il y aura à
nouveau production de 129Xe ou de 40Ar dans le
manteau.
La figure 59 retrace l’évolution des compositions en
129
Xe et 130Xe dans le manteau.
129
I,
1- Bien évidemment, la teneur en 129I est décroissante dans
le manteau, que celui-ci subisse ou pas de dégazage.
2- Avant et après cet événement, les teneurs en 130Xe sont
constantes puisque cet isotope est stable; par contre la
teneur en cet élément volatil chute dans le manteau
pendant le dégazage, considéré comme quasiinstantané.
Considérons maintenant l’évolution de la teneur en
Xe et du rapport 129Xe/130Xe dans les deux réservoirs,
manteau et atmosphère. Dans le manteau avant le dégazage,
la concentration en 129Xe augmente tant qu'il reste de l'129I à
désintégrer, et le rapport 129Xe/130Xe aussi. Dans
129
Fig. 59 : évolution des compositions dans le manteau en 129I,
129
Xe et 130Xe
16/10/12
l'atmosphère, qui prend naissance au moment où le
manteau dégaze, la concentration en 129Xe et la valeur du
rapport 129Xe/130Xe
sont fixées par les quantités
disponibles dans le manteau à cet instant. Si le dégazage
est précoce, la quantité d'129I désintégré est faible, et celle
de 129Xe disponible dans le manteau l'est aussi. La teneur
dans l'atmosphère créée à cet instant l'est tout autant. Au
contraire, elle sera maximale si l'on a attendu
suffisamment (>10λ) pour que presque tout 129I soit
désintégré. La différence entre les rapports 129Xe/130Xe du
manteau et de l'atmosphère qui se créée (en équilibre) est
négligeable (129Xe/130Xe mantellique = 129Xe/130Xe
atmosphérique) au regard des variations de ce rapport
provoquées par la radioactivité de 129I du manteau.
Revenons au manteau dans la figure 59 et supposons que
le dégazage ait eu lieu au temps Tc, avant épuisement de
129
I du manteau. La désintégration ultérieure de cet iode
restant va provoquer une nouvelle augmentation
progressive de la concentration en 130Xe et du rapport
129
Xe/130Xe mantellique. C'est précisément ce que les
observations faites de nos jours nous enseignent. Les
mesures du rapport isotopique129Xe/130Xe, effectuées sur
l’atmosphère et sur des basaltes de rides océaniques (donc
issus du manteau), sont respectivement de l’ordre de 7.7
et 6.5. Si les basaltes des fonds océaniques ont
comparativement plus de 129Xe que l’atmosphère, c’est
donc nécessairement que lorsque le dégazage a eu lieu, il
restait une quantité significative de 129I dans le manteau.
Or sa période de demi-vie λ n'est que de 17 Ma!
Une première réflexion s’impose. Le dégazage
terrestre, qui correspond à la naissance de la seconde
atmosphère, a eu lieu très tôt, moins de 170 Ma. après
la phase d’accrétion différenciation, située à 4.55 Ga.
Une deuxième réflexion s’impose: on sait que le
Soleil, depuis sa naissance jusqu’au stade géante rouge
(qu’il atteindra vers 10 à 12 Ga.), ne sera pas capable de
synthétiser autre chose que de l’Hélium. Par conséquent,
les éléments de notre système plus lourds que H et He, y
compris 129I, proviennent d’au moins un autre épisode de
nucléosynthèse (de type nova) antérieur ou au mieux
contemporain de l’effondrement gravitaire de la nébuleuse
solaire. La présence d'iode 129I en quantité notable dans le
système solaire impose donc aussi qu'il s'est déroulé très
peu de temps, certainement moins de 200 Ma. entre
l’explosion de la Nova qui fabrique 129I et non
seulement l'effondrement gravitaire de notre
nébuleuse, mais aussi l'histoire précoce de la Terre
jusqu'au dégazage de son manteau... Décidément, toute
notre histoire s’est jouée “ dans un mouchoir de poche! ”.
Si nous nous plaçons dans l'hypothèse d'une
acquisition cométaire de l'atmosphère terrestre et de son
équilibrage avec le manteau, la présence de 129I du
manteau qui va modifier le rapport 129Xe/130Xe du
manteau par rapport à celui de l'atmosphère permet de
penser que la capture du Xe à partir de comètes aurait
aussi été terminée avant les premiers 170 à 200 Ma. de la
vie terrestre.
- 148 -
ENSM-SE, 2° A : axe transverse P N
b - Le dégazage du manteau terrestre at-il été Instantané ou lent? Unique ou
multiple? Total ou partiel?
Nous pouvons utiliser en premier lieu un autre couple
d’isotopes, ceux de l’Argon, pour répondre à cette question.
La réaction nucléaire 40K ⇒ 40Ar, modifie lentement dans la
géosphère le rapport de l’isotope radiogénique 40Ar à
l’isotope stable non radiogénique de l’argon, 36Ar. Au
déclenchement du chronomètre, le rapport initial 40Ar/36Ar
peut être considéré comme nul (Fig. 60) car 40Ar est
exclusivement radiogénique. La période du 40K étant très
longue, comparable à celle de la vie de la Terre, l’évolution
du rapport 40Ar/36Ar est très lente, et contraste fortement avec
l’évolution du rapport 129Xe/130Xe qui nous a permis de
mettre en évidence que le dégazage du manteau fut très
précoce
Lors de cet épisode, le 40K est resté dans le manteau
dégazé, alors que 36Ar l’a quitté pour rejoindre l’atmosphère
comme les autres gaz rares. Plus ce dégazage aura été
important et plus la teneur en 36Ar du manteau aura chuté
lors de cet évènement. En corollaire, on peut donc attendre
du rapport 40Ar/36Ar qu’il signe le degré de dégazage atteint
par le manteau (Fig. 60), car après cet épisode le rapport
40
Ar/36Ar a augmenté d’autant plus vite que la teneur en 36Ar
était devenue basse, c’est à dire que le manteau était dégazé.
Les mesures du rapport 40Ar/36Ar, effectuées sur
divers basaltes issus du manteau et dans l’atmosphère ont
montré des différences significatives :
30000 environ pour les basaltes des dorsales océaniques
3000 environ pour les basaltes des points chauds
300
environ pour l’atmosphère
Nous pouvons en tirer une première conclusion
essentielle : ces mesures révèlent l'existence de deux
réservoirs isotopiquement très différents, et confortent
l’hypothèse évoquée au chapitre précédent d’un manteau
à deux étages de convections, au moins relativement
étanches.
L'étude du processus de fractionnement de la croûte
continentale à partir du manteau supérieur nous a enseigné
(Chp. 4) que ce lent processus de construction de la croûte
continentale et d'appauvrissement du manteau supérieur avait
commencé vers 2.7 Ga et se serait poursuivi depuis57. Le
dégazage de l'argon du manteau terrestre est-il un processus
comparable?
Fig. 60 : évolution des compositions en argon dans le manteau
roche issue d'un manteau à la fois très dégazé et ayant très
largement contribué à la formation de la croûte
continentale (typiquement le manteau supérieur). A
l'opposé un point de mesure situé en bas à droite (y=3000;
x=0.7050) représentera une roche issue d'un manteau à la
fois très peu dégazé et n'ayant que très peu contribué à la
formation de la croûte continentale, comme le manteau
inférieur.
On constate en premier lieu qu'il n'existe pas de
roches provenant d'un manteau profond (n'ayant pas
contribué à la formation de la croûte; x>0.704) et qui soit
fortement dégazé (y>10000). L'étanchéité du réservoir
manteau inférieur s'étendrait donc bien à son contenu
gazeux.
En second lieu, nombre des échantillons
représentés viennent se repartir le long de l'hyperbole de
mélange (vert foncé sur la figure: en représentation
linéaire, la courbe de mélange de deux rapports est une
hyperbole et non une droite) ce qui signifie que nombre de
roches volcaniques doivent représenter soit un mélange de
liquides magmatiques issus de deux sources distinctes,
soit que les deux sources peuvent être mélangées, la
fusion partielle du mélange produisant aussi une signature
mixte.
Nous pouvons en tirer une seconde conclusion
essentielle :Le manteau profond, qui donne naissance
au volcanisme des points chauds de rapport 40Ar/36Ar
faible, et qui n'a que fort peu contribué à la fabrication
de la croûte, apparaît donc nettement moins dégazé
que le manteau supérieur qui donne naissance au
volcanisme des dorsales à rapport élevé, et qui a déjà
largement contribué à l'édification des continents.
Nous pouvons enfin tirer de tout cela une troisième
conclusion essentielle. Grâce au volcanisme qui amène en
surface des laves d'origine mantellique, le dégazage lent
du manteau se poursuit sur Terre…
Fig. 61: Diagramme 40Ar/36Ar versus 87Sr/ 86Sr
Les chronomètres Rb ⇒ Sr et K ⇒ Ar étant
du même ordre de grandeur et commensurables avec l'âge de
la Terre, il apparaît intéressant de confronter ces deux
systèmes. Dans la figure 61, on a porté en abscisse le rapport
87
Sr/ 86Sr comme indicateur du degré de fractionnement du
manteau; en ordonnée, le rapport 40Ar/36Ar constitue
l'indicateur du dégazage mantellique. Un point de mesure
situé en haut à gauche (y=30000; x=0.7025) représentera une
87
87
40
16/10/12
40
57
L'évolution du rapport 87Sr / 86Sr de la croûte terrestre
augmente inexorablement plus vite que celui de la moyenne
terrestre alors que celui du manteau voit sa croissance
d'autant plus ralentie.
- 149 -
ENSM-SE, 2° A : axe transverse P N
Fig. 62: Coupe verticale de l'océan au droit de la ride
Est-Pacifique, montrant le panache d'3He en provenance
des sources thermo-minérales
16/10/12
continuent encore à le faire. Il convient don d’admettre
que si notre atmosphère actuelle porte les traces d’une
filiation mantellique, elle porte aussi celles d’une origine
extraterrestre riche en eau, en carbone et en azote.
3 - L'atmosphère tertiaire de la Terre : le sceau de
la vie ?
A cet égard, le comportement de l'isotope 4 de
l’hélium, 4He, est particulièrement intéressant. L’origine de
ce gaz est double :
1- Il entre continuellement dans l’atmosphère, sous forme
de particules alpha (4He) du vent solaire, mais en
très faible quantité.
2- Il est aussi et surtout produit par la désintégration du
Thorium et de l'Uranium terrestres; l’Hélium ainsi
formé dans la géosphère chemine jusqu'à
l’atmosphère, à moins qu'il ne reste piégé quelque
part dans la géosphère, dans les poches de gaz
naturels par exemple.
De masse très faible, l'hélium peut échapper
partiellement à l’attraction de la Terre. Il s’est donc établi un
équilibre entre pertes et gains d’hélium dans l’atmosphère,
où sa concentration est constante: 5,2 ppmv. Dans
l'atmosphère, son isotope stable 3He présente lui aussi deux
origines possibles:
1- Il provient forcément pour partie du stock initial de la
Terre;
2- Il provient aussi de la désintégration de 3H (tritium).
Mais le tritium terrestre, lui, n'a qu'une seule origine. Il est
formé dans la haute atmosphère, entre 10 et 30 km d’altitude,
par la réaction des neutrons cosmiques (n) sur l’azote: 14N +
n ⇒ 3. 4He + 3H, et sa période de demi-vie (12 ans) est
courte. Une partie se trouve piégée dans la vapeur d'eau, et le
reste, très léger tend à quitter l'atmosphère terrestre
rapidement, de même que son élément fils, 3He. On peut
donc considérer l'influence de 3He radiogénique comme
négligeable dans la basse atmosphère ou l'hydrosphère, et
dire que les concentrations en 3He y sont le reflet du stock
initial terrestre.
Or on constate que le rapport 3He/4He dans l’eau de
mer est très variable géographiquement, et constitue un
marqueur remarquable des sources sous-marines liées au
volcanisme des rides océaniques (Fig. 62). Il faut donc en
conclure que, lorsque le manteau terrestre fond partiellement
pour donner des liquides magmatiques qui vont alimenter le
volcanisme de ces rides, une partie de l'hélium initial
terrestre est encore contenue dans le manteau et se sépare
de ce dernier pour venir rejoindre l'atmosphère. L’empreinte
du dégazage du manteau terrestre est donc encore bien
visible, et celui-ci apparaît même encore actif. Toutefois
nous avons souligné plus avant (Chp2.A.1.a) que l’eau
océanique porte la même signature isotopique D/H que les
chondrites carbonées hydratées qui ont bombardé la Terre de
façon très intensive à l’Hadéen (4.56 Ga à 3.8 Ga.), et qui
Vénus présente encore de nos jours cette
atmosphère très peu évoluée depuis le dégazage de son
manteau. Son enveloppe épaisse et dense exerce une
pression de quelques 92 atm. Dominée par le CO2 (95%)
qui engendre un effet de serre très important, elle présente
une température au sol de 470°C. Tout conduit à penser
que l’atmosphère terrestre fut comparable, avec une
pression au sol de l’ordre de 260 atm. Mais l’atmosphère
de notre hôte allait subir deux événements majeurs durant
son histoire :
1 - la précipitation de l’océan, épisode que Mars a dû
connaître elle aussi, mais sous quelle forme ?
L’étude des écoulements (Fig. 63), des figures
sédimentaires
et
l’analyse
des
sédiments
commencent à peine et ne nous permettent pas
encore de préciser la nature et la forme de
l’hydrosphère Martienne.
2 - l’apparition de la vie, qui a complètement bouleversé
la composition de l’atmosphère terrestre.
a – La précipitation de l’océan sur Terre
Y. Paccalet décrit la naissance de l’océan terrestre
comme « sublime ». Après 300 à 400 Ma. d’existence,
peut-être même moins, la Terre s’est suffisamment
refroidie pour atteindre le point de condensation de l’eau,
soit 375°C à 260 atm. L’atmosphère se condense en
nuages, et pour la première fois, il pleut! La signature
isotopique 18O/16O élevée de zircons datés de 4.3 à 4.4
Ga.. (Mojzsis et al 2001) témoigne d’une hydratation
conduisant à la formation d’argiles recyclées dans le
manteau, ce qui suggère qu’un cycle hydrologique existait
dès cette époque. La forte solubilité du CO2 et de HCO3dans l’eau liquide enrichit corrélativement l'atmosphère en
azote. Les pluies contiennent aussi beaucoup d'acides,
HCl, H2SO4, HNO3. Elles vont changer la face du globe.
Les acides attaquent les roches magmatiques et
volcaniques terrestres, entraînant plus encore que de nos
Fig. 63 : réseau hydrographique de type désertique sur Mars
- 150 -
ENSM-SE, 2° A : axe transverse P N
jours les éléments dissous, Si4+, Al3+, Mg++, Fe++, Ca++, Na+,
K+, vers quelque flaque qui se transforme rapidement en un
océan qui couvre suppose-t-on 95% de la planète. Dans cette
eau vont naître de nouvelles espèces minérales, résultant de
l’hydrolyse des roches :
1 - des argiles, fabriquées à partir des ions les moins
solubles (Si4+, Al3+, Mg++, Fe++) ;
2 - des sels tels que les chlorures, NaCl ;
3 - des carbonates, qui vont jouer un rôle fondamental dans
la composition de l’atmosphère. La spéciation des
espèces en solution montre en effet que les espèces CO2
et H2CO3 sont présentes en faible quantité seulement
dans l'eau de mer, et que les ions carbonates HCO3-,
CO32- sont par contre très dominants. Deux équilibres
en solution sont donc essentiels dans cet océan
primordial:
HCO3- + H+ → H2O + CO2
CO32- + 2H+ → H2O + CO2
Ils vont gérer le stockage du CO2 atmosphérique dans l'océan
qui vient de se former.
L'ion Ca2+ étant très abondant dans l'océan et le
carbonate de calcium (CaCO3) peu soluble, l’apparition de
l’océan planétaire soustrait du CO2 de l’atmosphère et le
stocke sous forme solide dans la géosphère. Ces premiers
sédiments archéens montrent la texture caractéristique
(texture “Lazarus”) des carbonates précipités par saturation.
Avec eux, l’effet de serre peut enfin diminuer
Pour H. Holland, la décroissance du CO2
atmosphérique fut sans doute rapide, et cet auteur considère
que le niveau actuel est atteint à 3.5 Ga. environ (Fig. 67
§ ,F.3.c). Pourtant les carbonates recensés de nos jours sont
presque tous d'origine biochimique. Plus encore, c'est avec
l'explosion de la vie pluricellulaire vers 700 Ma., que les
coquilles et les calcaires abondent. Pour J. Lovelock, auteur
de la théorie Gaïa, selon laquelle l'équilibre à la surface le la
Terre s'établit entre la géosphère, l'atmosphère plus
l'hydrosphère, et la biosphère, l'élimination du CO2
atmosphérique est biologique.
Le premier relevé de la composition chimique de
l'atmosphère martienne a été réalisé par l'américain G.H.
Kuiper (1952). Il compara les spectres de la lumière
renvoyée par la Lune et par Mars et certifia la présence d'un
pourcentage élevé de CO2 dans l'atmosphère martienne. On
sait depuis les missions Mariner 4, 6, 7 et 9 que l'atmosphère
de Mars contient 95.3 % de CO2, 2,7 % d'azote et 1,6 %
d'argon, des traces d'oxygène (0,13 %), de CO (0,07 %) et
d'hydrogène. L'oxygène proviendrait de la décomposition du
CO2 des calottes polaires.
Mars a-t-elle subi le même déluge vital que la Terre?
Des traces de réseau hydrographique comparable à ce que
l’on peut observer dans des régions désertiques terrestres
(Fig. 63) tendent à prouver que Mars a bien eu, elle aussi,
sa période faste. Depuis, le manque de masse de la planète a
joué son rôle et Mars a perdu presque totalement son
atmosphère. L’eau existe toujours sur Mars, mais en raison
de la pression très basse qui y règne, de l’ordre de celle du
point triple de l’eau, c’est un rythme à 2 temps qui s’y joue
actuellement : sublimation; cristallisation (Fig. 64). Mars a-telle connu la même décarbonatation de son atmosphère? Si
oui, fut-elle strictement chimique, ou biochimique? Nombre
16/10/12
de questions sont encore débattues.
b – La précipitation de l’océan sur Mars ?
On espérait donc trouver de nombreux
affleurements de roches carbonatées sur Mars, d’autant
que la plupart des météorites martiennes trouvées sur
Terre contiennent des carbonates dans les fissures. C’est
d’ailleurs dans de telles fissures de la météorite
ALH84001 que des structures filamenteuses comparables
au vivant ont été observées en 1996 (Chp. 2, C2). Toutes
les données dont nous disposons actuellement sur Mars,
collectées par spectrométrie IR tant en orbite qu’au sol,
suggèrent que les carbonates sont absents de la surface de
Mars. Nos spectromètres ne sont certes pas très adaptés au
sol rugueux de Mars et peut-être, dans ces conditions
vaudrait-il, mieux choisir la mesure d’autres bandes
spectrales, dans le proche IR ? Nombre de scientifiques en
doute, qui considèrent que l’absence de carbonate sur
Mars et à l’inverse l’abondance des sulfates, doivent être
admis comme des faits. Cette absence actuelle ne signifie
d’ailleurs pas que les carbonates n’ont jamais été présents.
Peut-être le sont-ils encore en profondeur, ou dans des
anfractuosités des roches ? L’atmosphère actuelle très
tenue de Mars et l’absence d’ozone ne protègent pas son
sol des UV solaires. Ceux-ci semblent en mesure de
dissocier tout carbonate qui serait présent de nos jours à la
surface de Mars. Qu’en était-il de Mars jeune ? Elle
possédait une atmosphère proche de celle de la Terre ou
de Vénus à cette époque, mais en quantité plus faible en
raison de sa taille et d’un dégazage probablement limité
par son refroidissement plus rapide. Sur Mars encore plus
éloignée du Soleil que la Terre, l’eau liquide n’a pu
exister qu’avec un effet de serre suffisant pour dépasser le
point de congélation de l’eau. Les conditions furent très
probablement réunies sur Mars, avec une atmosphère post
dégazage qui devait dépasser les 2 atmosphères de
pression de CO2. Si la précipitation de l’eau s’est produite,
et avec elle celle des carbonates, pourquoi la surface de
Mars n’en montre-t-elle plus aujourd’hui ? Les UV ont-ils
fait disparaître tout carbonate de sa surface ? Pourquoi
Mars a-t-elle perdu son atmosphère ? Il semble que la
réponse se trouve dans le fonctionnement interne de la
planète. Lors de la précipitation de l’eau vapeur en océan
le stockage du CO2 atmosphérique sous forme de
carbonate a fait s’effondrer l’effet de serre, sur Mars
comme sur la Terre.
Mais notre planète est dotée d’une quantité
d’énergie suffisante pour que son manteau convecte, alors
Fig. 64: diagramme de phases de H2O ; le trait bleu, P = 1 bar,
montre que sur Terre les 3 états de l’eau sont possibles ; le trait
vert montre qu’à la pression partielle en eau de l’atmosphérique
martienne (0.7 mbars ) l’eau ne peut être liquide.
- 151 -
ENSM-SE, 2° A : axe transverse P N
que sur Mars ce processus a dû s’arrêter très tôt. Or cette
convection est indispensable au recyclage du carbone58. Dans
les zones de subduction, une partie des carbonates CaCO3
précipités au fond de l’océan est injectée dans le manteau. La
transformation en profondeur du carbonate de calcium en
silicates calciques libère le carbone qui est ensuite réinjecté
dans l’atmosphère par les volcans sous forme de CO2. C’est
probablement ainsi que la Terre a pu garder un effet de serre
en équilibre et donc son eau liquide, quand Mars allait
inexorablement voir disparaître son eau liquide. A partir de là
tout concourt pour lui faire perdre son atmosphère :
1 - Chaque impact de météorite qui confère aux molécules
atmosphériques une vitesse supérieure à leur vitesse de
libération contribue à appauvrir une atmosphère qui
n’est plus renouvelée. Comme sur Terre, l’épisode de
bombardement intensif a cessé très tôt et ce
phénomène a dû devenir rapidement peu significatif ;
2 - L’échappement continu des gaz dans la région externe
de l’atmosphère, définie au début du chapitre 5,
l’exosphère. Ce mécanisme a lieu tout au long de la vie
de la planète. Il fonctionne selon deux modes :
l'échappement thermique est comparable au mouvement
brownien, et ne concerne sur Mars comme sur Terre
que les atomes de H, très légers et suffisamment
accélérés par le rayonnement de basse fréquence du
soleil jusqu'à atteindre la vitesse de libération de la
planète; l'échappement non thermique met en jeux le
rayonnement solaire de haute fréquence, dont la grande
énergie permet de casser (photodissociation) les
molécules H2O, CO2 ou CH4 O2, N2. L’hydrogène peut
alors acquérir une énergie cinétique suffisante pour
s'échapper dans l'espace.
L’atmosphère externe des planètes est soumise au
vent solaire, qui transporte avec le plasma une fraction du
champ magnétique solaire gelé. Les atomes ionisés de cette
région de l’atmosphère des planètes sont accélérés par ce
champ, et précipités vers la planète. Sur une planète
possédant un champ propre actif, comme la Terre, ces
particules n’atteignent pas l’atmosphère dense. Mars est une
planète de petite taille et donc refroidie rapidement, qui a
donc perdu rapidement sa convection mantellique et la
protection de sa magnéto hydrodynamique59 (vers 4 Ga.).
Très tôt, elle s’est vue criblée par ces ions à haute vitesse
dont les collisions avec les molécules de l’atmosphère
communiquent aux atomes une vitesse souvent supérieure à
la vitesse de libération de la planète.
Sans eau liquide, sans protection magnétique, et sous
58
L'étude isotopique menée sur la météorite en provenance
de Mars QUE 94201 a montré que le rapport initial D/H de
l'eau sur Mars est similaire à celui des comètes alors que
celui de la Terre est de l’ordre de 2. L’eau martienne serait
donc quasi exclusivement d’origine cométaire, quand celle
de la Terre résulte sans doute d’un mélange d’eau cométaire
et d’eau mantellique.
16/10/12
une atmosphère de plus en plus ténue, les carbonates
martiens ont peut-être eux aussi totalement disparu de la
surface de la planète sous l’effet du bombardement des
UV?
Les rapports isotopiques (tableau 5) que nous
avons utilisés précédemment pour étudier l’atmosphère
terrestre nous apportent pour Mars des enseignements du
même ordre. Certains sont d’ailleurs similaires (12C/13C,
16
O/18O et 36Ar/38Ar). Le rapport deutérium/hydrogène
(D/H) est par contre beaucoup plus élevé dans
l'atmosphère martienne que sur Terre, suggérant bien que
'hydrogène plus léger que le deutérium s'est donc échappé
plus largement au cours du temps sur Mars que sur Terre.
Sa valeur actuelle suppose qu'une énorme fraction de
l’hydrogène a quitté Mars.
Le rapport 14N/15N est lui aussi très différent de celui de
notre atmosphère, traduisant encore un échappement
référentiel de isotope léger, 14N. Un tel enrichissement
relatif en 15N (60% par rapport à la Terre) est
généralement considéré comme le résultat d’une fuite
significative en azote. Il en va de même pour le rapport
40
Ar/36Ar
Par contre, les rapports isotopiques de l'oxygène
(16O/18O) et du carbone (12C/13C) montrent moins de 5%
de différence avec les valeurs de l'atmosphère terrestre. La
perte apparaît ici minimale, laissant à penser qu’en
interagissant fortement avec les roches le CO2 et la vapeur
d'eau (H2O), auraient subi des pertes très faibles.
Le rapport 129Xe/132Xe suppose à l’inverse un
enrichissement relatif en isotope léger dans l’atmosphère
martienne par rapport à celle de la Terre, or il s’agit là
d’isotopes d’un élément lourd, et normalement se sont les
atomes les plus légers qui s’évadent en plus grand.
Rappelons que 129Xe provient de la décomposition de
l’iode 129I, et que lors de l’épisode de dégazage, cet iode
moins volatil que le xénon est resté préférentiellement
dans le manteau. Nous avons vu qu’après cet épisode de
dégazage, précoce dans l’histoire des planètes, le 129Xe
était progressivement relargué par les volcans, faisant
augmenter le rapport 129Xe/132Xe. Si le même phénomène
s’est produit sur Mars, l’excès de 129Xe ne peut
s’expliquer que par un déficit du xénon strictement
atmosphérique, 132Xe. Si celui-ci fait défaut c’est sans
doute qu’une part importante de l’atmosphère martienne
avait disparu AVANT le relargage du 129Xe par le
manteau dans l’atmosphère. Pour les « nirgalogues »
(Nirgal est à Mars ce que Gaïa est à Geo) un tel
phénomène conduit à penser qu’une violente collision
aura pu dépouiller très tôt Mars de son atmosphère fille
des volcans. Cet épisode violent s’est sans doute passé
très tôt dans l’histoire de Mars, car la fameuse météorite
ALH 84001, formée il y a 4.5 Ga. présente dans les gaz
qu’elle contient un rapport 129Xe/132Xe comparable à celui
de l’atmosphère actuelle de Mars. L’abrasion de
Tableau 5 : Rapports isotopiques des l'atmosphères
59
Mars Global Surveyor a découvert les traces d’un
magnétisme rémanent fossile dans les hauts plateaux de
l'hémisphère sud, régions les plus anciennes de la planète et
qui correspondraient à un gigantesque continent sur Terre.
Ces reliques magnétiques prouvent que Mars possédait alors
dans un champ magnétique actif global.
- 152 -
Rapport
Mars
Terre
D/H
12
C/13C
16
O/18O
14
N/15N
0,00077
90 (+/- 5)
490 (+/- 25)
170 (+/- 15)
0,00015
89
489
272
36
5,5 (+/- 1,5)
3000 (+/- 500)
2,5
5,3
296
0,97
Ar/38Ar
Ar/36Ar
129
Xe/132Xe
40
ENSM-SE, 2° A : axe transverse P N
l’atmosphère martienne est donc antérieure ou
contemporaine de la formation de cette météorite. Par contre
le rapport 14N/15N des gaz de ALH 84001 est beaucoup plus
fort que celui de l’atmosphère actuelle, ce qui démontre qu’à
l’époque ou cette météorite a quitté Mars, les effets du vent
solaire sur son atmosphère n’étaient pas encore identifiables,
la planète étant sans doute encore tectoniquement et
magnétiquement active.
c - L’apparition de la vie et l’apparition des
conditions oxydantes
De « notre » point d’observation, êtres vivants, le rôle
essentiel de cette précipitation primordiale en océans,
lagunes ou étangs aux eaux tièdes aura été d’apporter à la vie
l’eau liquide indispensable qui lui manquait pour se
développer. Solvant essentiel, elle allait en outre constituer
l’abri la soustrayant aux UV solaires qu’aucune ozone
stratosphérique ne venait contrecarrer à l’époque. Au-delà,
les imaginaires vont bon train : certains se calent sur nos
chroniques de la naissance du monde, déplaçant la main des
dieux au gré des découvertes de la cosmochimie et de la
biologie; d’autres se font l’inventeur du lieu où la première
association de composés est devenue biotique, et leurs
schémas d’apparition sont complexes…
Dans une première voie endogène (vie apparue sur
Terre) les chercheurs se sont tournés vers la chimie
prébiotique. Ainsi les briques qui constituent le vivant sont
sorties du chaudron de S. Miller, qui fut dans les années 50 le
remarquable expérimentateur des idées d’ A. I. Oparin et J.
Haldane (soupe de composés carbonés, azotés, phosphatés
soumise à des décharges électriques).
Cette voie expérimentée pendant plus de trente ans a
toujours donné naissance à des acides aminés, mais elle n’a
jamais été susceptible de produire les macromolécules du
vivant, ni bien sûr l’ARN indispensable à toute vie…
Aucune expérience n’a jamais vu non plus se constitue une
cellule, même en partant de protéines et/ou d’acides
nucléiques déjà présents. Dans ses expériences, Oparin a
montré que le dipôle hydrophile et hydrophobe des
macromolécules conduit à fabriquer des membranes qui
peuvent se fermer sur elles-mêmes et constituer ainsi un
milieu intérieur séparé du milieu extérieur. S. Fox a montré
dans les seventies que ces microsphères peuvent échanger
avec le milieu extérieur, absorber de l’eau et des petites
molécules ; au-delà d’une certaine taille elles peuvent même
se diviser en 2. Mais ces structures ne présentent aucune des
caractéristiques métaboliques et reproductrices du vivant.
Cette voie, souvent reprise, est pour l’heure sans issue.
Cairns-Smith , ou Wächtershäuser, proposent une
autre voie endogène qui prend le relai de la précédente au
stade où les premières briques du vivant sont formées. Pour
ces auteurs, la structures répétitive et les liaisons faibles
présentent sur certaines des faces des minéraux (les argiles
pour Cairn-Smith et la pyrite pour Wächtershäuser) sont à
l’origine d’une part de la sélection des molécules
sélectionnées par le vivant avant que celui-ci ne soit
autoreproductible, et d’autre part le lieu de naissance des
macromolécules indispensables au vivant. Nombre d’auteurs
acceptent aujourd’hui l’idée que la chiralité gauche de
16/10/12
molécules du vivant soit le fruit de la géométrie électrique
de surface des minéraux. Ainsi, alors que les expériences
de la chimie prébiotique fabriquent autant de molécules
carbonées gauches et droites (ceci est également vrai pour
les molécules carbonées contenues dans les météorites), le
piégeage d’une forme plutôt que l’autre par les minéraux
aurait permis une sélection par le vivant de la forme
gauche. On sait en effet que l’homochiralité est un
caractère nécessaire à la vie car les propriétés des
molécules (enzymatiques en particulier) dépendent de leur
forme. La présence de deux formes, gauche et droite
d’une même molécule n’est donc pas compatible avec le
vivant. En outre, plusieurs chercheurs ont montré que les
argiles offrent un support privilégié aux briques
constitutives de l’ARN, ouvrant peut-être ainsi la voie à la
fabrication des protéines ? Pour Wächtershäuser, les
premières entités vivantes furent des revêtements
moléculaires adhérant aux surfaces de la pyrite (sulfure de
Fe, FeS). De fait on constate que certaines enzymes
métaboliques contiennent des atomes de Fe et de S ? Les
réactions biologiques font intervenir l’ammoniac NH3 qui
pouvait être produite dans l’océan primordial au niveau
des rides océaniques. La réaction d’hydratation de
l’olivine du manteau [SiO4](Fe, Mg)2 +H2O l’oxyde en et
serpentine libère du dihydrogène H2,
Olivine + H2O → Serpentine + H2
Par réaction avec le CO2 et l’azote dissous,
apparaissent le méthane et l’ammoniac libérés par les
fumeurs noirs des sources hydrothermales, fumeurs noirs
construits essentiellement en pyrite. Somme toute, les
constituants des réactions pouvant conduire à la vie étaient
ici réunis, et l’on peut écrire :
{210CO2 + H2PO4- + (Fe, Mn, Ni, Co, Zn)2+}océan
+
{427H2 + 10NH3 + HS-}fumeur noir
{C70H129O65N10P (Fe, Mn, Ni, Co, Zn) S}proto-vie
+
{70H3C-COOH + 219H2O}déchet .
Cette voie est intéressante dans la mesure où la
Greigite (Fe5NiS8) est un sulfure aux propriétés catalyseur
reconnues, qui aurait pu accélérer la production du
premier ARN, formé à partir de 3 ATP, molécule
facilement
disponible
dans
les
conditions
physicochimiques des fumeurs noirs, en les associant en
un premier triplet simple AAA à la surface de la pyrite...
La voie exogène suppose que les briques de la vie
ont été fabriquées dans le cosmos, puis transportées et
déposées par les météorites, en particulier celles du type
chondrites carbonées hydratées de Murchison, ou les
comètes qui ont croisé notre chemin comme le propose la
panspermie de H.E. Richter puis de S. Arrhénius à la fin
du XIX°-début XX°, et comme le montrent les
observations actuelles de la cosmochimie… Si une telle
origine présente un intérêt certain au plan philosophique,
la vie sur Terre devant alors être considéré comme un
processus très ordinaire au-delà d’un certain degré de
complexité, son intérêt strictement scientifique est mince ;
cela peut s’appeler « reculer pour mieux sauter » ! En
outre, pour l’heure, cette voie n’apporte rien en matière de
chiralité ni d’obtention des macromolécules indispensable
- 153 -
ENSM-SE, 2° A : axe transverse P N
Une chose est certaine, la vie est apparue très tôt
sur la Terre, probablement dès que les conditions
physiques l’ont permis, c'est-à-dire sans doute dès la
précipitation de l’océan et c’est une des raisons
fondamentales qui poussent à imaginer que la vie fut aussi
possible sur Mars. Sur Terre, les roches sédimentaires (seules
susceptibles de contenir des fossiles) les plus anciennes
reconnues sur Terre sont celles d’Isua au Groenland. Elles
datent de 3.8 Ga. Mais il s’agit de roches transformées par
métamorphisme ; la pression et la température atteintes
auront alors effacé toute trace morphologique de vie que ces
roches pouvaient contenir. Mais le métamorphisme ne
transmute pas les éléments chimiques et ne modifie pas les
rapports isotopiques des éléments. Or, le rapport isotopique
13
C/12C, d’échantillons de ces roches anciennes est dit non
minéral, c'est-à-dire qu’il est différent de celui que l’on
mesure d’ordinaire en chimie minérale. On observe en effet
que le vivant prélève plus de 12C que de 13C sur son
Fig. 65 : stromatolithes actuelles
16/10/12
environnement pour se développer. Si l’on se réfère à
l’âge attribué au bombardement cométaire et météorique
très intense subi par les planètes internes — Chp. 4, §D-1-b,
700 Ma. après la formation du système solaire soit environ 3.9
Ga. — qui a sans doute stérilisé complètement la surface
terrestre, le rapport 12C/13C non minéral d’Isua montre
qu’il aura fallu très peu de temps pour atteindre la
complexité biologique nécessaire pour que le métabolisme
signe sa présence sur la Terre (3.8 Ga.). On imagine que
ces formes de vie primitives, dans les conditions très
réductrices qui régnaient alors, sont très probablement des
bactéries anaérobies.
Les premières concrétions carbonatées produites
par le vivant ont été identifiées dans des roches
d’Australie à peine plus récentes (3.5 Ga.). Leur texture,
bien différente de la texture Lazarus évoquée plus haut,
est similaire à celle des stromatolithes actuels (Fig. 65).
Il s’agit de voiles bactériens, produit de l’activité d’algues
unicellulaires (algues bleues ou cyanobactéries).
L'accroissement du taux d'oxygène dans l'air est lié en
premier lieu à l’activité des cyanobactéries.
L’existence de la chlorophylle vers 2.7 Ga. est
semble-t-il attestée par l’observation de petits prismes
dénommés pristanes, qui miment la chlorophylle dans
quelques échantillons rocheux. La présence de formations
sédimentaires appelées BIF (Fig. 66; Banded Iron
Formations), constituées par l’alternance de lits de grains
de quartz et de lits d’oxyde de fer Fe2O3, suggère
fortement qu’il y ait eu de l’oxygène libre dans l’océan
pour rendre possible leur formation et cela renforce l'idée
que la photosynthèse était déjà à l'œuvre à cette époque.
En effet, l'atmosphère née des volcans étant
principalement constituée de CO2, N2, SO2 et H2O, ni
l'océan ni elle, ne sont oxydants. Le Fer arraché aux
roches par les pluies acides est donc transporté et stocké
sous sa forme réduite (Fe2+), qui est très soluble. Dans
l'hypothèse où les BIFs résulteraient de la précipitation du
Fe2+ en Fe3+ en présence d'oxygène libre, il aura donc fallu
dans un premier temps que les algues saturent en oxygène
tous les minéraux de l’océan. Cependant, il existe des
BIFs à 3.5 Ga., qui sont bien antérieurs aux pristanes.
S'agit-il simplement d'un manque de fossiles de cette
époque?
Stromatolithe fossiles (Australie-Plbara 3.5 Ga.
Filament fossile 3.5 Ga. (taille quelques dizaine de microns)
Lame mince
Existe-t-il un autre mécanisme possible pour
fabriquer ces BIFs? Peut-être n'a-t-il pas fallu attendre la
saturation en oxygène de l'océan pour transformer Fe2+ en
Fe3+? Le rôle joué par la chlorophylle dans la
photosynthèse est d'arracher des H+ de l'eau (ce qui libère
de l'oxygène), car en effet la construction du vivant
réclame une quantité importante d'hydrogène.
Fig. 66: banded Iron formation
- 154 -
ENSM-SE, 2° A : axe transverse P N
Prenons la composition moyenne du vivant, soit à peu
près C60O40N2H100, et tentons de le construire à partir des
molécules dissoutes dans l'océan à cette époque:
1- les 60.C viennent du CO2 ou du HCO3- et le bilan est,
pour 60.C: 0 ≤ H ≤ 60; 120 ≤ O ≤ 180
On connaît en effet de part le monde un type de
série de faciès rocheux qui laisse à penser que des
conditions très dures sont réapparues qui ont pu mettre en
péril la vie sur Terre, à plusieurs reprises, d’abord vers 2.3
Ga. puis à quatre reprises entre 1Ga et 550 Ma. Cette
association est la suivante :
2- Les 2.N viennent du NO2 ou du NO3, ce qui ne
compense pas le déficit d'au moins 40.H
1- la base de la série est constituée d’un sédiment
identique aux dépôts glaciaires marins actuels,
provoqués par la fonte les icebergs ;
Il nous manque donc une source d'hydrogène, et c'est
peut-être le Fe2+ qui a alors joué ce rôle, de façon indirecte.
On sait que Fe2+ peut être oxydé sous l'effet des UV, selon la
réaction:
Fe2+ + hν (UV) → Fe3+ +eL'électron ainsi éjecté va, en se combinant à un proton,
donner un H+ qui sera immédiatement capté par la vie.
L'effet d'un tel mécanisme est donc d'une part de déplacer
l'équilibre en faveur du Fe3+ qui, beaucoup moins soluble que
Fe2+, précipite en BIF, et d'autre part de favoriser la vie en lui
cédant les hydrogènes qui lui manquent.
Selon David C. Catling et al 2001, la concentration basse en
O2 dans l’atmosphère archéenne implique que le méthane
était 100 à 1000 fois plus abondant qu’aujourd’hui. On sait le
rôle positif du CH4 dans l’effet de serre et sa capacité à
absorber la lumière solaire, mais il pourrait avoir eu un autre
rôle dans l’histoire de notre atmosphère. Soumis au
rayonnement solaire UV, le CH4 est aisément dissocié et,
comme nous l’avons vu à propos de Mars, l’hydrogène ainsi
libéré atteint aisément la vitesse de libération de la planète,
celle de Mars bien sûr, mais aussi celle de la Terre. Cette
perte est celle d’un puissant réducteur, ce qui revient de facto
à oxyder la planète Terre. L’apparition de la photosynthèse
aurait, selon ces auteurs, favorisé ce processus. En effet, en
dissociant l’eau en O2 et H2, la photosynthèse favorise les
processus méthanogènes qui associent H et C en CH4. Dès
lors la perte irréversible d’hydrogène vers le cosmos devient
possible, et l’on peut exprimer ce processus comme suit :
CO2 + 2H2O
(
CH4 + 2O2 + CO2 + O2 + 4H
cosmos)
En résumé, les voies de l’oxydation de l’atmosphère
terrestre ont sans doute été multiples, et elles concourent à
élever brutalement et définitivement le taux d’oxygène libre
dans l’atmosphère vers 2.5 à 2 Ga. (Fig. 67). La période des
BIFs ne s’étend pas au delà de 1.7 Ga.
16/10/12
2- la série continue avec des dépôts de fer identiques
à ceux des Banded Iron Formations ; enfin la
série se termine par un dépôt de carbonates de
type archéen, à texture Lazarus .
Enfin la série se termine par un dépôt de carbonates de
type archéen, à texture Lazarus .
Leur extension quasi généralisée jusque vers les
basses latitudes (au moins jusqu’aux tropiques) a fait dire
à Joseph L. Kirschvink en 1992 que le globe a dû être « a
Snowball Earth », conformément au modèle de Mikhail
Budyko (1964), qui prédit que l’accroissement de l’albedo
lié au pouvoir réflecteur de la glace et de la neige pourrait,
par emballement, entraîner l’englacement total de la
planète. La surface croissante de la glace réfléchit une
grande partie des rayons solaires, qui sont alors plus
renvoyés dans l'espace sans réchauffer la Terre, et le
refroidissement s'accélère. La glace gagne ainsi les
tropiques, peut-être même l’équateur ? D’autres parlent
de « Planète Igloo ». Totales ou pas, les glaciations ont
bien eu lieu durant cette période, leur durée aurait été à
chaque fois de 10 Ma. environ et les conditions très
froides qu’elles imposent paraissent bien avoir provoqué
une diminution considérable de la biomasse assurant la
photosynthèse et que pourrait traduire le rapport 12C/13C
très abaissé de ces sédiments d’après certains auteurs.
Inversement la biomasse anoxique, en particulier
méthanogène, pourrait avoir proliféré, augmentant PCH4
d’équilibre entre l’atmosphère et l’océan et favorisant la
précipitation d’hydrate de méthane dans les sédiments. La
présence de BIF témoigne d’un abaissement important du
potentiel redox juste avant ou au début de la précipitation
des carbonates. Ceux-ci, parce qu’ils coiffent les dépôts
glaciaires, témoignent d’un retour des conditions chaudes,
mais aussi du déplacement de la PCO2 d’équilibre entre
l’atmosphère et l’océan. On imagine alors que, la
glaciation généralisée ayant fait chuter la biomasse
photosynthéthique, la part du CO2 volcanique dans
l’atmosphère remonte. Ce nouvel emballement, de l’effet
de serre cette fois, conduirait alors à la fusion brutale de
CO2Cette explosion de la vie implique une
surconsommation du carbone, et l’on a vu que le CO2 est une
denrée qui s’est raréfiée dans l’atmosphère dès 4 Ga.. Dans
une atmosphère devenue oxydante, la photosynthèse soustrait
une fraction du CO2 qu’elle stocke dans les végétaux
(fussent-ils unicellulaires), mais à leur mort, la dégradation
du vivant renvoie le CO2 à l’atmosphère, et il Fig. 67 : évolution de la composition de l'atmosphère
s’établit un équilibre entre le réservoir
atmosphérique et la biosphère. C’est ainsi que de nos
jours, une forêt mature, en équilibre, présente des
bilans de consommation de CO2 et de production
d’O2 globalement nulle. Mais à cette époque
ancienne, l’équilibre ne sera atteint que vers 2 Ga. et
le bilan en oxygène apparaît très largement positif.
L’effet de serre a donc probablement continué à
décroître durant cette période. Est-il le seul
responsable de l’apparition des premières
glaciations ? C’est en tous cas vers 2.3 Ga. que l’eau
solide apparaît sur la Terre pour la première fois.
- 155 -
ENSM-SE, 2° A : axe transverse P N
la glace et à la précipitation du carbonate. La vie reprenant
ses droits sous des auspices plus cléments, un nouvel
équilibre serait atteint.
L’explication de ces formations reconnues et
caractérisées depuis 40 ans environ est encore très
controversée aujourd’hui. Quel rôle la tectonique des
plaques joue-t-elle dans la régulation du climat ? Mars nous
montre qu’avec l’arrêt de la tectonique globale cesse le
recyclage du CO2 et avec lui l’effet de serre. Le cycle des
« Pangée(s) » a-t-il pour effet de ralentir ce recyclage du
CO2 ? Nous avons vu au chapitre 1 §B qu’un supercontinent
agit comme un couvercle sur le manteau et que les modèles
suggèrent qu’il s’en suit une augmentation de la taille des
cellules convectives? Toujours est-il que les quatre épisodes
successifs de boule de neige 1Ga-550 Ma. sont à peu près
contemporains de la première Pangée reconnue, Rodinia (cf.
Chp. 3 § E1b) et qu’ils cessent avec le morcellement de
Rodinia. Faut-il voir dans la glaciation carbonifère
correspondant à la Pangée un bégaiement de l’histoire? Les
causes ne sont jamais uniques, et la glaciation carbonifère est
très différente des précédentes, sans Lazarus et sans BIF.
Mais cela signifie-t-il que la Pangée n’a joué aucun rôle ?
L’époque de la première glaciation, il y a 2,3 Ga. correspond
semble-t-il à une baisse d'intensité lumineuse reçue du Soleil.
Le système solaire serait passé à travers des régions
poussiéreuses de l'espace qui aurait diminué l'énergie solaire
reçue par la Terre ? Cause unique là encore ?
d - L’explosion de la diversité, un scénario
très mal documenté
Si l’impact des conditions géotectoniques sur
l’apparition et le maintient de la vie est fondamental, celui de
la vie sur l’atmosphère terrestre fut et reste considérable. Il
ne fut pas immédiatement visible, et ce n’est que lorsque la
saturation en oxygène de l'océan aura été atteinte que la
composition de l’atmosphère aura pu aussi changer et que le
cycle de l’ozone aura pu démarrer. Dès lors, les UV
solaires très énergétiques n’auront plus atteint le sol terrestre,
et la vie continentale sera devenue possible.
On a longtemps pensé que le premier eucaryote est
apparu dans les océans peu après la saturation de l’eau en
oxygène; il est âgé d’environ 1.5 Ga. On disait alors qu’il
aura donc fallu plus de 2 Ga. pour voir le code génétique
s'individualiser dans la cellule! Si le maximum de complexité
a bien été atteint (de nos jours) par les eucaryotes, rien n'est
venu prouver la supériorité des cellules à noyau, en termes
d'adaptation de la vie aux conditions extérieures. Et il va
d'ailleurs se passer 1 Ga. pendant lequel nous ne connaissons
pas de changements significatifs. Selon ce schéma,
l’'apparition des premiers pluricellulaires remontait aux
environs de 670
Fig. 68 : Fossile de Franceville (Gabon)
Ma.,
et
la
première faune
connue
(Ediacara,
en
Australie) était
datée de 600550 Ma., c’est à
dire peu après le
dernier snowball
connu.
16/10/12
Fig. 69 : La faune d’Ediacara
a) les fonds océaniques au temps d’Ediacara
b) On y observe des organismes ressemblant à des méduses
(a), à des coraux mous (b, Rangea), à des arthropodes ou à
des vers annélides (c, Spriggina). Par contre, (d,
Parvancorina et e, Tribrachidium) ne ressemblent à aucune
forme animale connue.
c) distribution mondiale des site de faunes d’Ediacaria
Mais en 2010 la découverte au Gabon de plus de
250 fossiles de formes et de dimensions diverses, dans des
terrains datés de plus de 2.1 Ga, apporte la preuve de
l’existence d’organismes pluricellulaires à cette époque.
D’après l’équipe de A. El Albani la morphologie de ces
fossiles ne peut s’expliquer par des processus purement
physico-chimiques. Leur taille (jusqu’à 12 cm) est trop
grande et leur structure interne (Fig. 68, image obtenue
par tomographie de rayons X) trop complexe pour que
l’on soit en présence de procaryotes ou d’eucaryotes
unicellulaires. La reconnaissance du caractère « vivant »
de ces fossiles pyriteux dans leur gangue argileuse été
conduite en s’appuyant sur la distribution des isotopes du
soufre, dont les rapports dans la matière organique
transformée en pyrite sont différent du soufre minéral de
l’argile. La distribution relative de la matière organique a
été précisément cartographiée. Cette matière est ce qu’il
reste de l’organisme vivant, qui s’est transformé en pyrite
(un minéral formé de disulfure de fer) au cours de la
fossilisation.
La faune d’Ediacara, datée de 600-550 Ma. est
constituée d’invertébrés variés (fig. 69a-b-c) qui
apparaissent à peu près partout dans le monde à la même
- 156 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
chausse pied, sur les branches basses d’un cône de
diversité représentant les embranchements connus, et
dont la base inconnue se perd dans les terrains azoïques
du Précambrien.
Fig. 70: Faune tommotienne:
Elle contient certains organismes d'aspect moderne (D), et de petits
élément considéré par les auteurs comme des lames, tubes,
aiguilles, calottes ou coupoles d'affinité incertaine (A-C)
époque. Cette faune témoigne donc d’une adaptation efficace
puisque largement conquérante (Fig. 69b), mais elle est sans
descendants ? Aucun des organismes présents à cette époque
ne paraît être en mesure de représenter l’ancêtre d’une espèce
animale vivant de nos jours… surprenant ?
En fait Burgess représente une disparité
considérable dont l’iconographie en arbre ne peut rendre
compte. Ce phénomène sera de très courte durée dans
l’histoire de la vie. Il sera rapidement suivi d’une
décimation des formes créées. Parmi elles, un petit
nombre de formes sont les fondateurs de tous les
embranchements que nous connaissons aujourd’hui,
auxquels il faut ajouter celui des éponges déjà présent
dans la Faune tommotienne. Le caractère unique de
l’évènement, qui s’est déroulé en quelques dizaines de
Ma. au plus (Fig. 72 ; NB la faune tommotienne, entre
Ediacara et Burgess n’est pas représentée, celle de
Franceville non plus) n’avait pas échappé à Darwin, mais
toutes ses patientes observations convergeaient vers l’idée
que la diversité, en fidèle représentante de l’évolution des
espèces, reflète des modifications trop lentes sur un
Fig. 72: datation des premières faunes fossiles.
Une étape importante de l'évolution après
l'apparition des métazoaires à corps mou est la
minéralisation des squelettes. La découverte récente
d'organismes à squelette minéralisé dans des couches de
la fin du Précambrien et du début du Cambrien (entre 550
et 540 Ma.) démontre que l'apparition de la
minéralisation des squelettes est quasi contemporaine de
la faune d'Ediacara. La Faune observée d’abord à
Tommot, une petite ville de Sibérie (faune
tommotienne, Fig. 70), puis un peu partout dans le
monde est à peine postérieure, 530 Ma. Elle aussi fut de
courte durée (quelques millions d'années seulement).
Néanmoins, cette faune tommotienne est importante
parce qu’elle marque l'apparition d'un groupe
d'organismes, les archéocyathes, qui n'a vécu que jusqu'à la
fin du Cambrien, mais qui appartient très probablement à
l'embranchement des éponges. C’est donc à cette période
qu’apparaît le premier des plans d’organisation qui ont
encore des descendants de nos jours.
nombre de branches trop constant pour qu’elle ne fût pas
régulièrement décroissante en reculant dans le temps, et
qu’elle n’aille se perdre en un rameau unique dans les
temps protérozoïques.
Pour Stephen Gay-Gould (« La vie est belle » page 48)
A ce stade, l'évolution de la vie va subir une diversification mieux vaut utiliser le terme de « disparité » pour
foudroyante dont témoigne la faune de Burgess Pass souligner la distance entre les plans d’organisation des
(Colombie Britannique), d’abord décrite par Sir Charles organismes appartenant à des embranchements différents,
Doolittle Walcott lors de sa découverte en 1909. L’erreur de et parler de « diversité » au sein d’un même
Wallcott et de ses suivants fut de considérer que la Faune de embranchement pour souligner le nombre des espèces de
Burgess se situant début de la vie animale connue ou ce groupe. Il prend les cas suivants « une faune comprenant
presque, la diversité que l’on y observe obéit aux mêmes lois trois espèces distinctes de taupes » et « une faune comprenant
que tous les organismes que l’on rencontre depuis ; les un éléphant, un escargot et une fourmi » donc trois
formes de Burgess sont donc nécessairement
embranchements. On sera d’accord avec
des ancêtres du monde vivant actuel. Or ils sont
l’auteur pour dire que la diversité est faible
Fig. 71 : cône de
déjà diversifiés et doivent donc s’inscrire dans
dans la première faune et forte dans la
diversité croissante
le
cône
de
diversification
(Fig. 71),
seconde, et pourtant, il n'y a dans chaque cas
représentation prêtée à C. Darwin60, reprise
que trois espèces. La faune du Schiste de
ensuite par Thomas H. Huxley et développée
Burgess a montré que celle-ci recelait de la
surtout par Herns Heackel Les fossiles de
diversité, dans le sens de disparité des plans
Burgess devaient donc se ranger, fusse avec un
d'organisation anatomique. Appréciée en
tant que nombre d'espèces, la diversité de la faune de Burgess
n'est pas très élevée. Ce fait souligne un «paradoxe capital
60
La représentation de C. Darwin de l’évolution était celle propre aux premières formes de la vie. Comment une telle
d’un corail buissonnant (voir couverture du poly), beaucoup disparité des organisations anatomiques a-t-elle pu
'
'
plus proche de la représentation sphérique qu’on en donne apparaître, alors même qu il n y avait pas de grande
diversité dans le nombre des espèces? ».
aujourd’hui
- 157 -
ENSM-SE, 2° A : axe transverse P N
L’époque
est
donc
exceptionnelle en effet, et en
totale contradiction avec
l’image
communément
admise de la diversité aux
embranchements de plus en
plus touffus. Contrairement
Stephen Jay Gould.
à ce que l’on a longtemps
[http://scienceblogs.com/worldsfair/200
7/11/what_do_you_think_of_stephen_j.
pensé
les
premiers
php]
pluricellulaires que nous
avons évoqués ont pu avoir un règne très long (1.5 Ga.)
L’apparition de la coquille puis, très rapidement, celle de
tous les embranchements connus de nos jours plus bien
d’autres plans d’organisation mis en évidence sur le site de
Burgess Pass, suggère une accélération brutale du
foisonnement du vivant. Les 25 embranchements qui y sont
représentés sont tous aussi différents les uns des autres qu'un
chordé (être à squelette interne comme l'homme et le
poisson) et un arthropode (être à squelette externe comme le
crabe). Les plans d’organisation de ces êtres vivants sont si
déroutants, si différents de ceux que nous connaissons qu’il
est parfois difficile, voire impossible, d’attribuer des
fonctions à leurs appendices. Il apparaît de nos jours que
l’évolution des espèces ne traduit rien d’autre que la réponse
de plans d’organisation variablement diversifiés aux
sollicitations de leur environnement. Il semble bien que
Charles Darwin ai déjà compris, lorsqu’il écrit « il est
probable que les périodes pendant lesquelles elle a subi des
modifications, bien que longues, si on les estime en années,
ont dû être courtes, comparées à celles pendant lesquelles
chacune d'elle est restée sans modifications » que l’évolution
des espèce n’a pas le caractère linéaire qu’on lui confère
souvent (gradualisme phylétique) et il revient à Stephen Jay
Gould, figure importante du darwinisme contemporain,
d’avoir formulé en 1972 avec Eldredge la théorie des
équilibres ponctués, selon laquelle les transitions évolutives
entre les espèces au cours de l’évolution se font brutalement
et non graduellement. Ainsi l’évolution ne traduit aucune
direction préférentielle vers quelque que ce soit et, reprenant
le « corail de la vie » de Darwin, sa meilleure représentation
actuelle est sphérique (voir 4° de couverture). Mais revenons
un instant au zoo d’exception de Burgess, dont si peu de
membres eurent une descendance :
Marella est un petit animal de 2cm maximum. Sa
tête porte 2 antennes et 2 pattes
spécifiques, 2 cornes latérales
tournées vers l’arrière et une
protection dorsale en forme de
lyre;
son
corps
segmenté
comprend 25 articles biramés,
une patte articulée et un
appendice branchial ; un telson termine le corps
Yohoia est très particulier. Sa tête porte 3 paires de
pattes uniramées classiques pour
la marche chez les trilobites plus
une paire de pattes pour la
nutrition se terminant par quatre
piquants,
une morphologie
inconnue chez tous les autres
arthropodes depuis. Les 10
premiers segments du corps portent un seul appendice, en
éventail.
16/10/12
Opabinia est un être extraordinaire, de 5 à 7 cm,
équipé de 5 yeux, d’une
trompe terminée par une sorte
de double mâchoire équipée
d’épines en guise de dents ?
Un must dans le bestiaire de
Burgess Pass. Son corps
comporte
15
segments
biramés, avec 1 lobe majeur et 2 petits lobes latéraux
portant la rame branchiale.
Odontogriphus, l’énigme édentée, est un petit
animal très plat, équipé de
deux organes (sensoriels ?)
latéro-frontaux et d’une sorte
de bouche à 25 « dents », petit
cônes qui ne sont sans doute
que des petits tentacule ?
Dinomischus est un organisme fixé et sans doute
immobile, assez semblable aux coraux
dont il n’a pas la symétrie 6 ou 8. Il
ressemble aussi aux crinoïdes, mais
sans la symétrie 5 des échinodermes.
Equipé de lames ressemblant à des
pétales, il montre 2 orifices reliés
entre eux, bouche et anus sans doute.
Amiskwia est peut-être l’un des
rares organismes ne vivant pas sur le
fond marin. En effet ses appendices
(latéraux et caudal) suggèrent la nage.
Par ailleurs sa tête semble équipée un
double organe sensoriel et de 2
tentacules.
Hallucigénia ! comme le dit S.G. Gould, comment
peut-on décrire une forme
vivante dont on ne comprend
pas où est l’avant et l’arrière, le
haut et le bas. La bouche serait
le tube en bout ? Les épines des
béquilles ? des pattes ? une
paire par segment. Sur le dos( ?)
une sorte de tentacule placé en
quinconce avec les « pattes ». Si hallucinant que l’on se
demande encore s’il ne s’agirait pas d’un fragment d’un
autre animal, non trouvé à ce jour. Mais Hallucigénia
n’existe pas qu’à un seul exemplaire ? Une énigme…
Odaraia ressemble à un arthropode, à carapace
bivalve, sans antennes, avec une
queue d’avion pour faire bonne
mesure. Vivait-il sur le fond ?
se propulsant avec la queue ?
Pas
d’antennes,
pas
d’appendices buccaux, encore
une fois un organisme très
différencié et rien qui indique un caractère primitif.
Wiwaxia est un petit animal
de 5 cm en moyenne, couvert de
rangées de plaques dont deux en
forme de lignes d’épines. Pas de
segmentation, Wiwaxia n’est pas un
- 158 -
ENSM-SE, 2° A : axe transverse P N
annélide, ni un arthropode. Sa bouche est équipée d’un outil
qui rappelle la radula des gastéropodes (sorte de râpe). Fautil dès lors le ranger dans les mollusques ?
Anomalocaris mesure 60 cm, un monstre pour
l’époque. Il est le plus grand
prédateur de cette faune.
Actuellement
les
paléontologues s’accordent à
le
ranger
dans
les
arthropodes, dont il constitue
l’une des formes ancestrales
présentes à Burgess Pass.
Fig. 73 : La vie est Belle, taxons connus de nos jours :
a) Canadapsis, un pré-crabe b) Ottoïa, ancètre des priapilien
modernes c) Canadia, un annélide,
d) Pikaïa, l’ancètre de tous les chordés, notre aieul,
e) Aysheïa, le précurseur possible de deux phyla,
les annélides et les arthropodes.
Voilà pour les espèces restées sans descendance, ce
qui ne signifie pas que le nombre des individus de chacune
d’entre elles était petit ou qu’elles étaient inadaptées. Par
voie de conséquence, nous sommes incapables des classer
dans les phyla contemporains. Mais bon nombre d’autres
espèces présentes à Burgess Pass se rangent dans des phyla
qui portèrent descendance, dont notre ancêtre Pikaia (Fig. 73
page suivante), Pourquoi tant de diversité dans cette période
charnière pour les pluricellulaires? Bien sûr, la pression
démographique est probablement encore faible et la
concurrence entre tous ces embranchements qui viennent
d'apparaître n'est sans doute pas aussi rude qu'elle ne le sera
par la suite, mais pourtant tous ces organismes très différents
paraissent déjà très adaptés à leur milieu, et il semble de plus
en plus évident avec la multiplicité des sites de fouilles qu'ils
étaient bien déjà partis à la conquête de tout l'océan. A notre
schéma de cône de diversité il faut substituer un schéma de
disparité – décimation – diversification (fig. 74).
Pourquoi une telle décimation se produit-elle parmi
des formes qui viennent de conquérir les océans du monde
entier ? Quels hasards auront, 40 Ma. plus tard au Cambrien
(560 Ma.), réduit le panel des formes de vie sur la Terre à ce
que nous connaissons aujourd’hui. Comment s'est opérée la
sélection ? Dire que les formes qui subsistent ont survécu
parce qu’elles étaient les plus adaptées en partant du principe
darwinien que c’est la pression de l’environnement qui
préside à la sélection confine à la tautologie, puisque l'on
identifie les plus aptes comme ceux qui ont survécu. Mais ce
n’est pourtant pas une raison de suivre les créationnistes, qui
ont récemment brandi cet argument, prétendant ainsi réfuter
la notion même d'évolution.
Une difficulté majeure que présente Burgess pour la
communauté scientifique est que rien dans cette faune ne
permet de prédire lesquelles, parmi les espèces présentes,
sont celles qui sont, A PRIORI, les plus adaptées aux
conditions que l’on sait devoir régner d’ici peu. Ainsi, rien ne
nous dit que si le film des évènements pouvait être rejoué,
notre ancêtre Pikaïa, moins de 5 cm et seul chordé de
Burgess Pass, serait au nombre des élus à la loterie de
l’évolution… Considérant la théorie de Darwin, et suivant
Gould, on peut dire que la
faune de Burgess « pose deux Fig 74: schéma de
grands problèmes au sujet de Décimation - diversification
l'histoire de la vie. Ils se
situent symétriquement par
rapport à la faune de Burgess
elle-même, l'un avant, et
l'autre après :
1 - comment,
étant
donné
16/10/12
notre vision traditionnelle d'une évolution
extrêmement lente, une telle disparité a-t-elle pu
surgir aussi rapidement ?
2 - si la vie actuelle est le résultat de la décimation de la
faune
de
Burgess,
quelles
particularités
anatomiques, quels caractères physiologiques, quels
changements d'environnement départagèrent ceux
qui allaient gagner de ceux qui allaient perdre ? »
Suivant Gould, trois types de mécanismes évolutifs
sont susceptible de rendre compte de l'explosion du
Cambrien ayant conduit à la disparité rencontrée à
Burgess.
1 - Le remplissage initial du tonneau écologique.
« Selon la théorie darwinienne conventionnelle,
l'organisme propose et l'environnement dispose. Les
organismes fournissent un matériau brut sous forme
de variation génétique exprimée dans des différences
morphologiques. Au sein d'une population, ces
différences sont toujours petites, et ce qui est plus
61
important dans la théorie, non dirigées . Le
61
« Les manuels de biologie parlent souvent de variations
«au hasard ». Ce n'est pas vrai au sens strict. Les
variations ne se font pas au hasard, dans le sens littéral
où elles seraient également probables dans toutes les
directions ; chez les éléphants, il ne se produira jamais de
variations génétiques déterminant la formation d'ailes.
Mais l'emploi du terme «hasard» a pour but de faire
ressortir une notion cruciale : sur le plan génétique, rien
ne prédispose les organismes à varier dans des directions
- 159 -
ENSM-SE, 2° A : axe transverse P N
changement évolutif (par opposition à la simple
variation) est produit par le jeu de la sélection naturelle
émanant de l'environnement externe (les conditions du
milieu, aussi bien que les interactions entre les
organismes). Les organismes ne fournissant que le
matériau brut et celui-ci ayant été jugé presque
toujours suffisant pour produire toutes sortes de
changements
selon
des
rythmes
darwiniens
extrêmement lents, l'environnement est donc considéré
comme le facteur qui contrôle la vitesse et l'ampleur de
l'évolution. Par conséquent, selon la théorie
conventionnelle, les grandes vitesses atteintes lors de
l'explosion cambrienne signalent que quelque chose
d'inhabituel a dû se passer dans l'environnement à cette
époque… …lorsqu'on cherche en quoi pouvait consister
cet « inhabituel » dans l'environnement, ayant pu
engendrer l'explosion cambrienne, la réponse est
évidente et saute aux yeux. Cet événement a représenté
le moment du remplissage initial du tonneau écologique
par la vie multicellulaire. Ce fut une époque où les
places disponibles pour des modes de vie variés
abondaient, à un point qui n'a jamais plus été égalé
depuis. Presque n'importe quoi pouvait trouver sa niche
écologique. La vie multicellulaire opérait une radiation
dans un espace totalement libre et elle put donc
proliférer à une vitesse exponentielle… Dans le remueménage et l'agitation de cette période unique en son
genre, l'expérimentation régnait, le monde était
pratiquement libre de toute compétition pour la
première et la dernière fois… … Pratiquement toute la
littérature sur Burgess fait appel à cette vision
traditionnelle. Le maître mot des interprétations a été :
compétition moins rigoureuse ».
2 - Le changement des systèmes génétiques au cours du
temps. Gould écrit : « Dans le cadre de la vision
darwinienne traditionnelle, les morphologies subissent
des processus de vieillissement, mais non le matériel
génétique. Si le changement évolutif connaît des
variations de rythme, c'est que des modifications de
l'environnement redistribuant les pressions de la
sélection naturelle évoquent de nouvelles réponses de la
part d'un substrat matériel (les gènes et leur action),
mais celui-ci ne change pas au cours du temps. Or, il se
pourrait que les systèmes génétiques « vieillissent », dans
le sens où ils « deviendraient moins capables de
restructurations majeures » (J.W. Valentine). Les
organismes modernes ne peuvent peut-être plus
engendrer rapidement de nouvelles gammes
d'organisations anatomiques, quelles que soient les
niches écologiques qui s'ouvrent ». Gould ajoute : «Je
n'ai pas vraiment de suggestions à faire concernant la
nature de ce vieillissement, mais je demande
simplement que l'on prenne en considération une telle
alternative… ... Les génomes de l'époque cambrienne
étaient-ils plus simples et plus flexibles ? ».
adaptatives. Si l'environnement change de telle sorte qu'il
favorise les organismes plus petits, les mutations génétiques
ne se mettent pas à produire des variations orientées dans le
sens d'une diminution de la taille. En d'autres termes, la
variation elle-même n'a pas de composante directionnelle.
La sélection naturelle est l'agent du changement évolutif ; la
variation organique est seulement le matériau brut. »
16/10/12
3 - Diversification initiale et ultérieure, en tant que
loi générale des systèmes. Stu Kauffman, a mis au
point un modèle pour montrer que le développement
maximal rapide de la disparité suivi d'une
décimation, observés à Burgess, sont une loi
générale des systèmes qui n’a pas à recourir à une
hypothétique faiblesse initiale de l’intensité de la
compétition ou un « vieillissement » du matériel
génétique. Reprenons Gould dans le texte :
« Considérons la métaphore suivante. Le cadre dans
lequel se déroule l'évolution est un paysage
complexe comprenant des milliers de pics, chacun de
hauteur différente. Plus le pic est élevé, plus est
grand le succès évolutif de l'organisme qui y
figure… …Saupoudrez ce paysage d'un petit nombre
d'organismes pris au tout début de leur évolution, et
laissez-les se multiplier et changer de place: Les
changements peuvent être petits ou grands, mais
nous ne nous intéresserons pas ici aux premiers, car
ils permettent seulement aux organismes de monter
plus haut sur leurs pics particuliers et ne conduisent
pas à de nouveaux plans d'organisation. Ceux-ci
n'apparaissent qu'à l'occasion de grands bonds, plus
rares……Les grands bonds sont extrêmement risqués
ils réussissent rarement mais rapportent beaucoup.
Si vous atterrissez sur un pic plus élevé que celui sur
lequel vous' étiez vous prospérez et vous vous
diversifiez ; si vous atterrissez sur un pic moins élevé,
ou dans une vallée, vous êtes perdu. Maintenant,
nous nous posons la question : quelle est la
fréquence des grands bonds qui réussissent (donnant
un nouveau plan d'organisation) ? Kauffman a
montré que la probabilité de succès est d'abord très
élevée, puis chute rapidement et atteint bientôt le
niveau zéro tout comme l'histoire de la vie. Ce
scénario est assez conforme à nos intuitions. Les
premières espèces, peu nombreuses, sont localisées au
hasard dans le paysage. Cela signifie qu'en moyenne
la moitié des pics sont plus hauts, l'autre moitié plus
bas que les localisations initiales. Par suite, les
premiers grands bonds ont grosso modo 50% de
chances de réussir (les autres concurrents sont
éliminés, note JLB). Mais ensuite, l'espèce qui a
réussi se trouve sur un pic plus élevé donc le
pourcentage de pics plus élevés qui lui restent
offerts est moindre. Après un petit nombre de bonds
réussis, très peu de pics plus hauts restent
disponibles, et la probabilité de pouvoir même se
déplacer chute brutalement. En fait, si les grands
bonds se produisent assez souvent, tous les pics les
plus élevés seront occupés dès les premières phases
du jeu, et personne n'aura plus de place où aller.
Alors les vainqueurs vont s'implanter et se doter de
systèmes de développement si étroitement liés à leur
pic, qu'ils ne pourront plus changer, même si
l'occasion s'en présente ultérieurement. Par la suite,
ils ne pourront donc plus que s'accrocher fermement
à leur pic ou mourir. Le monde est rude, et beaucoup
vont connaître ce second destin… …parce que même
des extinctions au hasard vont laisser des places
vides, qui ne pourront plus être occupées par
personne. »
On sait maintenant que la vie a essuyé par la suite
de nombreuses crises, parmi lesquelles cinq crises
- 160 -
ENSM-SE, 2° A : axe transverse P N
terribles qui ont dépeuplé la Terre. Chacun de ces coups du
sort ont entraîné la disparition de 40%, voir même 60% de la
diversité dans chacun des embranchements, mais il est
toujours resté assez d’espèces en chacun de ces rescapés du
cambrien pour que la diversité donne dans chaque intervalle
toute sa mesure. Mais la disparité de Burgess ne sera plus
égalée. Toujours est-il que même si la suite peut paraître
somme toute monotone, “ la vie est belle ” et c’est tant
mieux !
16/10/12
excentriques venus du nuage de Oort. Dans la glace du
forage
européen
EPICA,
deux
couches
de
micrométéorites, espacées d’environ 50 000 ans (481 et
434 Ka.), ont été observées. Leur concentration en
particules extraterrestres est 10 000 à 100 000 fois
supérieure à la concentration moyenne observée dans
l’Antarctique. S'agit-il de deux pluie de micrométéorites
issues de l'explosion de bolides extraterrestres ? Pour
d’autres chercheurs, le passage du plan de la Voie Lactée,
qui survient tous les 30 à 40 millions d'années,
constituerait pour le Système Solaire une région
dangereuse à franchir car plus denses en gaz et poussière.
Ceci provoquerait des instabilités gravitationnelles à
l'intérieur de l’ensemble du Système Solaire augmentant
le risque de collision entre la Terre et un des petits corps,
astéroïde ou comètes, qui le peuplent. La dernière
collision majeure ayant eu lieu il y a 35 Ma. environ,
sachant notre position actuelle proche du plan galactique,
nous découvrons là une belle occasion de nous procurer
quelques sueurs froides médiatiques !
D’origine volcanique, météoritique, climatique ou les
trois peut-être comme il y a 65 Ma., ce sont ces crises
observées dans le vivant qui ont imposé au géologue le
découpage des temps fossilifères (Fig. 75a). Sans doute ontelles créé à nouveau des espaces favorables à la diversité,
pourtant aucun foisonnement similaire à celui de la fin du
Protérozoïque n'est venu les combler. Les deux premières
crises majeures se situent au sein de l’ére Primaire (ou
Protérozoïque) et séparent d’une part l’Ordovicien du
Silurien (A), et d’autre part le Dévonien du Carbonifère(B);
elles résultent de glaciations certes très importantes, mais
plus comparables aux glagiations modernes (quaternaires)
qu’à un épisode de type snowball. Les autres coupures 4 –L’ultime évolution de l’atmosphère-biosphère,
introduites dans le Primaire témoignent de l’évolution des Le sceau de l’homme
espèces et de leur diversité. La troisième grande crise, la plus
Mais
les
phénomènes
géologiques
ou
grande, se situe à la fin du Permien (C); elle inaugure l’ère
Secondaire. Elle coïncide cette fois avec un épisode astronomiques ne sont plus les seuls capables de générer
volcanique majeur, qui met en place les trapps de Sibérie, et de telles crises. L’Homme se révèle être le plus
précède de peu la crise de la fin du Trias (D). La crise de la formidable prédateur que l’évolution des espèces ait
limite Crétacé Tertiaire (E) est sans doute beaucoup moins jamais engendré. La pression qu’il exerce sur son
importante en nombre d’espèces disparues que celle du environnement est si forte que beaucoup d’espèces
Permien, mais la médiatisation de son origine au moins vivantes n’y résistent pas, au point que de nos jours, le
partielllement météorique et ses effets partiels sur la nombre des espèces qui disparaissent de la surface de la
disparition des dinosaures en ont fait un best seller. Certains Terre par unité de temps est comparable à ce qui s’est
auteurs, Raup et Sepkoski (1986) ont attiré l'attention sur passé durant ces épisodes de crises majeures. Ferons-nous
l'aspect périodique des extinctions. Ils estiment qu’il disparaître nous aussi 60 à 90% des espèces vivantes ?
existerait une fréquence autour de 1 crise par 26 Ma. environ Notre espèce résistera-t-elle aux dommages qu’elle
(Fig. 75b), et qu’une telle périodicité pourrait témoigner de la engendre dans son environnement?
traversée de l’orbite terrestre par un groupe d’objets très
La question doit être posée car au-delà de la
pression que sa nature lui fait exercer sur le vivant,
Fig. 75: a) évolution du nombre des familles denombrées
l’Homme moderne (celui de la révolution industrielle et
en paléontologie, Les 5 grandes crises du vivant, A à E,
de l’ère post industrielle) est peut-être en train de modifier
organisent les coupures géologiques
le climat terrestre dans des proportions telles qu’elles
puissent elles aussi contribuer à bouleverser la
biodiversité terrestre. Nous avons tenté de montrer au
paragraphe troposphère (§ B2b) combien il est difficile
d’établir une relation univoque entre augmentation de la
teneur en GES et la température moyenne de l’atmosphère
terrestre, et pour nous y aider nous avons commencé à
regarder le passé historique de notre atmosphère. Mais ce
recul de quelques siècles instrumentés est très insuffisant
pour étayer une analyse prédictive du comportement de
b) Extinctions (familles et genres) depuis le Permien.
notre atmosphère. Aussi nous faut-il maintenant mettre
ces résultats historiques en perspective avec les archives
paléoclimatiques terrestres enregistrées par les glaces et
les sédiments.
a - Le décryptage des archives glaciaires
L’étude des gaz emprisonnés dans les bulles de la
glace des calottes polaires, tels que CO2 ou CH4 donne la
composition de l’atmosphère ancienne, car leur temps de
résidence dans l’atmosphère est court, environ 10 ans,
mais suffisant pour permettre à l’atmosphère d’être
- 161 -
ENSM-SE, 2° A : axe transverse P N
homogénéisée à l’échelle de la planète. En outre la
géochimie des poussières minérales permet de remonter aux
régions désertiques qui les ont émises ou aux volcans qui ont
explosé, faisant des calottes glaciaires de formidables
archives. Outre les teneurs en gaz, 3 rapports d’isotopes
stables constituent des traceurs géochimiques très efficaces et
très utilisés dans le décryptage de ces archives.
Pour l'eau, le rapport 18O/16O est modifié
significativement lors de l'évaporation et de la précipitation;
l'eau du réservoir atmosphérique est ainsi déprimée en 18O
par rapport à l'eau du réservoir océanique, et l'eau de pluie
est enrichie en 18O par rapport à l'eau atmosphérique. Avec le
transport de l'air à travers les cellules convectives (Hadley,
Ferrel, et cellule polaire) et les précipitations successives
qu'il peut subir pendant son transport, cet air voit ainsi son
rapport 18O/16O décroître, et lorsqu'il précipite finalement en
neige sous les hautes latitudes, il constitue du réservoir solide
(apparenté à la géosphère) aux propriétés isotopiques très
différentes de celles de l'océan (18O/16O plus bas de quelques
%0). Durant les périodes glaciaires, le stockage d'un énorme
volume de glace provoque un enrichissement de l'eau
océanique en 18O par rapport à 16O, et inversement pendant
les périodes chaudes, il s'opère un déstockage de 16O. On
peut suivre ces évolutions dans la composition isotopique de
l'oxygène dans la composition des glaces, dont les archives
les plus anciennes, carottées à 3600m de profondeur dans la
calotte Antarctique (Vostok), remontent à 420 Ka.. On peut
remonter beaucoup plus loin en étudiant la composition
isotopique de l'oxygène des carapaces des organismes
vivants (CaCO3 par exemple). Mais cette lecture est rendue
complexe par deux phénomènes:
18
(à composition isotopique assez constante) qui en définit
le rapport 13C/12C. Toutefois, les réactions du métabolisme
cellulaire s’accompagnent le plus souvent d'un
fractionnement isotopique du 12C au détriment du 13C, et
l'on constate ainsi que, lorsque le CO2 provient surtout de
l’activité bactérienne dans les sols et les vases, les
carbonates diagénétiques 62qui en résultent ont une teneur
en 13C beaucoup plus basse. C'est en analysant ce rapport
13 12
C/ C que l'on a pu affirmer que certains sédiments
vieux de 3.8 Ga. portent la signature isotopique du vivant.
Inversement, les variations de 13C/12C sont aussi un
excellent marqueur de l’évolution diagénétique de la
matière organique.
b - Les changements cycliques du climat
Les quatre époques les plus récentes de glaciations
mondiales, bien connues des géologues alpins (tableau 6)
Les calottes polaires de l’Antarctique et du
Groenland constituent la majeure partie de la cryosphère
(90 % Vol de l’eau douce de la planète). La
transformation de la neige en glace est rapide, mais
l’évolution de cette glace en profondeur (recristallisation
progressive en cristaux de grande taille) est lente, jusqu’à
2000 ans. Les calottes épaisses, jusqu’au delà de 3000 m,
enfoncent le continent sur lequel elles reposent. Matériau
granulaire, la glace présente des propriétés mécaniques de
fluide visqueux anisotrope qui provoque son fluage sous
Tableau 6 : périodes glaciaires du Quaternaire
Période
glaciaire
1ère période
Günz
2e période
Mindel
16
1 - en premier lieu, le rapport O/ O est thermodépendant; il existe donc une stratification du rapport
18
O/16O avec la température et donc la profondeur de
l'océan en région intertropicale, mais ce phénomène
sera peu ou pas notable en région polaire; on ne peut
donc utiliser ce rapport qu'en établissant un bilan (à
travers les concentrations mesurées dans des coquilles,
souvent du plancton), entre des organismes vivant sur
le fond de l'océan (benthiques) et des organismes
nageurs vivant en surface (pélagiques), et en
interrogeant des organismes vivant sous des latitudes
très différentes.
2 - en second lieu, les organismes vivants opèrent une
sélection de 18O, et leur rapport 18O/16O est donc
différent de celui de l'océan contemporain. Ces
mécanismes doivent être pris en compte dans le calcul
des paléo températures océaniques.
On exprime généralement ce rapport sous la forme δ18O, qui
représente l’écart de ce rapport à la valeur moyenne de l’eau
de mer, son unité est le 0/00.
De la même manière on utilise beaucoup le rapport du
Deutérium 2H (ou D) à l’hydrogène, et là encore on définit
un δD, exprimé en 0/00.
Pour les carbonates, les compositions isotopiques sont
déterminées par le système CO2-HCO3 -CO32 en solution.
Outre la température, l’origine du CO2 entrant dans la
constitution des carbonates est le paramètre essentiel de leur
composition isotopique. Ainsi lorsqu'un organisme vivant
dans l'océan se constitue une coquille de calcite (CaCO3) en
pompant des ions de l'eau, c’est le stock océanique de HCO3-
16/10/12
Âge
Période interglaciaire
600 000
540 000
1ère période interglaciaire,
de Günz-Mindel
480 000
430 000
2e période interglaciaire,
de Mindel-Riss
240 000
3e période Riss
180 000
3e période interglaciaire,
de Riss-Würm
120 000
4e période
Würm
10 000
http://fr.wikipedia.org/wiki/Glaciation
62
La diagenèse est la suite des transformations qui
transforment une vase sédimentaire née dans
l'hydrosphère en roche de la géosphère. Elle se produit là
où la minéralogie de la roche devient instable en raison du
changement soit des conditions (P,T) soit de la chimie du
sédiment. Elle transforme le sable en grés, la boue en
argile en marne ou en calcaire, etc. Elle se déroule en
plusieurs étapes dont les principales sont la compaction,
l'authigénisation et la cimentation:
La compaction résulte de l'évacuation de l'eau sous le
poids du squelette solide du sédiment. Elle peut
conduire des phénomènes de dissolution partielle de ce
squelette aux points de contact entre les grains
L'authigénisation est la production par précipitation ou
réaction de substances minérales dissoutes dans l’eau
interstitielle (quartz = SiO2, calcite = CaCO3, hématite
= Fe(OH)3nH2O ; Argile = silico-aluminate complexe
et de composition variable)
La Cimentation utilise les minéraux authigènes pour
souder entre elles les particules, d’un sable par
exemple. Es principaux ciments observés sont :
calcaire (CaCO3) ; dolomitique (CaMg(CO3)2) ;
siliceux (SiO2)
- 162 -
ENSM-SE, 2° A : axe transverse P N
Fig 77a : Paramètres orbitaux influant sur le climat terrestre
Tableau 7 :
Sites
Vostok
(Antartica)
GRIP
(Greenland)
Taylor Dome (Antartica)
GISP2
(Greenland)
Byrd
(Antartica)
Dome C
(Antartica)
Dye3
(Greenland)
16/10/12
Profondeurs
3310 m
3000 m
554 m
3040 m
2142 m
900 m
2035 m
son propre poids et son écoulement lent.
Points froids de la Terre, les calottes interagissent
avec le climat global. Elles sont susceptibles de se
développer en quelques siècles (peut-être même quelques
décennies) grâce à un effet de feed-back positif entre
précipitation neigeuse et albédo. Inversement elles peuvent
disparaître en moins de 10 000 ans (cas de la dernière
période glaciaire), en libérant de grandes quantités d’icebergs
(vêlage) qui viennent perturber la circulation océanique et le
climat.
Les carottages dans la glace (tableau 7) nous
fournissent donc des enregistrements continus de
l’environnement passé au cours des derniers cycles
climatiques, dont la représentativité géographique n’est pas
limitée à la région. Au début des années 70, les Américains
ont atteint 2138 m de profondeur avec le forage de Byrd,
mais dans une glace très déformée au delà de 50 000 ans par
l’écoulement et donc difficilement exploitable. En
Antarctique encore, les Russes atteignaient 2082 m en 1982
avec le forage de Vostok. Dès 1983, le profil isotopique de
Vostok étudié par Claude Lorius révéla sans ambiguïté une
histoire continue du climat sur plus de 140 000 ans, montrant
la fin de la dernière glaciation vers -15 000 ans, son
maximum vers -25 000 ans, et la glaciation précédente vers 140 000 ans. La progression des forages nous a permis
d’étendre notre connaissance de l’évolution de l’atmosphère
à 4 cycles climatiques, en s’appuyant sur les concentrations
en CO2 et CH4 qui ont oscillé depuis 400 000 ans
Fig. 76 : CO2,CH4 et T°C calculées depuis 400 000 ans
1 - L’excentricité de l’orbite terrestre (Fig.77a ) passe
d’un stade circulaire à un autre en passant par un
maximum d’allongement de l’ellipse selon deux
périodes 100 000 et 413 000 ans ;
2 - L’inclinaison de l’axe de rotation terrestre par
rapport à la normale au plan de son orbite oscille
entre 22° et 24.5° avec une période de 41 000 ans
(Fig. 77b) ;
3 - La précession des équinoxes, qui résulte du fait que
l’axe de rotation terrestre est en rotation lente autour
de la normale au plan de l’écliptique et décrit un
cercle sur la sphère céleste en 25 800 ans. Ce faisant
notre équateur céleste subit aussi un lent
déplacement sur la même période. Par définition
l’équinoxe correspond au moment où dans sa
rotation autour du Soleil la Terre fait coïncider son
plan équatorial avec le plan de l’écliptique. Partant
de cette coïncidence, 1 an plus tard la Terre retrouve
sa position mais son axe de rotation s’est légèrement
déplacé, et le point d’équinoxe est déjà dépassé.
Fig 77b : Paramètres orbitaux influant sur le climat terrestre
respectivement entre 200-280 ppmv et 350-700 ppbv
(Fig. 76).
Outre le calage somme toute satisfaisant avec les
datations classiques souvent délicates à conduire, et l’allure
très similaire des courbes de variations du volume des glaces
tirées de l’étude des sédiments marins (non figuré ici), la
cyclicité de ces variations de grande amplitude autour d’une
période de 100 000 ans est remarquable. Autre observation,
le signal climatique de Vostok contient des périodes de 20
000 et 40 000 ans caractéristiques elles aussi des variations
de l’orbite terrestre. Ceci accrédite la théorie mise au point
par Milutin Milankovitch entre 1920 et 1941 associant les
modifications des climats aux paramètres orbitaux terrestres.
Trois paramètres jouent un rôle fondamental :
- 163 -
ENSM-SE, 2° A : axe transverse P N
Fig 77c : Paramètres orbitaux influant sur le climat terrestre
16/10/12
Fig. 77e :
extrêmement brutal.
c - Les oscillations rapides du climat
Cela se traduit par le déplacement des équinoxes dans
le plan de l’écliptique, avec une période de 19 000 ans
(Fig. 77c)
La variation des paramètres orbitaux fait osciller la
Terre entre deux extrêmes :
1 - forte excentricité de notre orbite, forte inclinaison
(comme de nos jours) et faible distance Terre-Soleil en
été sont propices à des saisons très contrastées
2 - orbite quasi circulaire, faible inclinaison et une grande
distance Terre-Soleil en été sont au contraire propices à
des saisons peu contrastées.
Ces variations des paramètres orbitaux conduisent
donc à des variations de la quantité de lumière solaire captée
par la Terre, et si l'insolation globale annuelle change peu,
les modifications de l'insolation aux hautes latitudes en été
(la seule période recevant de l’énergie solaire) apparaissent
relativement importantes (Fig. 77d).
La situation 2, aux saisons peu contrastées, est
vraisemblablement favorable aux périodes glaciaires car si
les conditions sont telles que l’enneigement d’hiver ne se
résorbe pas ou mal en été, les conditions du déclanchement
d’un feed-back positif entre précipitation neigeuse et albédo
sont peut-être réunies. Inversement, la situation 1 aux étés
chauds et hivers rigoureux paraît très défavorable à une
période glaciaire (Fig. 77e).
Il est enfin très intéressant de noter sur les courbes de
la figure 76 la pente très forte des indicateurs et de la
température calculée lors de l’installation de chacun des
épisodes interglaciaires, signe d’un réchauffement
Fig. 77d : Insolation entre 60 et 70° de latitude Nord au
mois de juillet
L'apparente stabilité du climat durant la dernière
période glaciaire a été régulièrement interrompue par des
oscillations rapides, d'une durée comprise entre la
décennie et le millénaire. On avait bien observé le coup de
froid brutal du « Younger Dryas » vers la fin de la
dernière déglaciation, mais il demeurait une exception. On
sait maintenant que cette apparente stabilité a été
régulièrement interrompue par des oscillations rapides du
climat, d'une durée comprise entre la décennie et le
millénaire.
Ces oscillations mémorisées dans les carottes de
glace, appelées « cycles de Dansgaard-Oeschger », ont
été mises en évidence par Dansgaard et al en 1994. Elles
débutent par un refroidissement rapide de 5 à 10°C en
quelques siècles, suivis d’un réchauffement encore plus
rapide, en quelques décennies ; La fréquence de ces
évènements serait approximativement de un tous les 1500
ans (Fig. 78a, page suivante).
Ces oscillations ont aussi été observées dans les
sédiments océaniques de l’Atlantique Nord (entre 40 et
60°N) par Heinrich en 1988, mais on y observe aussi la
présence d'autres événements froids, se traduisant par des
arrivées brutales et massives de sables et débris grossiers
transportés par des icebergs. Appelés « événements de
Heinrich », ces épisodes froids se produisent avec une
relative périodicité de 7 000 à 8 000 ans. Les glaces du
Groenland montrent que les changements climatiques sont
amples,
rapides,
et
largement
étendus.
Les
refroidissements se produisent en plusieurs temps, alors
que les réchauffements ont lieu en une seule étape. Les
réchauffements les plus forts ont atteint 8°C. Ils se
traduisent par un doublement des précipitations neigeuses,
un effondrement de la quantité des poussières apportées
par les vents, témoignant de conditions atmosphériques
nettement plus humides. L’augmentation de la teneur en
CH4 est interprétée comme le résultat de l’accroissement
de la masse végétale et conforte les observations
précédentes. Le réchauffement qui termine vers 11500 ans
l’épisode le mieux documenté à ce jour, celui du Young
Dryas (YD sur la figure 78b) s’est probablement opéré en
moins de 20 ans. Le taux d’accumulation de la neige a
doublé en moins de 5ans. Le méthane augmente plus
- 164 -
ENSM-SE, 2° A : axe transverse P N
Fig. 78a : Succession des événements de Dansgaard/Oeschger.
Quelle a été l'extension géographique des
événements Dansgaard/Oeschger durant les derniers
100000 ans ? Sur le continent, les enregistrements
climatiques de tels événements abrupts sont rares :
citons la séquence palynologique des lacs des Echets,
du Bouchet et des Maars du Velay (Massif Central)
observée par Reille et Beaulieu (1988) ou par Guiot
et al (1993. Mais, au-delà de la limite de datation du
14
C, les échelles de temps présentent des incertitudes
considérables.
Les
cahiers
du
CNRS
(www.cnrs.fr/cw/dossiers) résument l’étude des
archives continentales contenues dans une stalagmite
(Vil-stm9, Fig. 79) de Dordogne entre 83 et 32 ka.. On
dénomme spéléothèmes les cycles climatiques
enregistrés dans la croissance des carbonates
karstiques. Sur les 7 hiatus visibles sur la stalagmite, 3
correspondent à des périodes où les conditions
empêchaient toute croissance ; ces arrêts sont de 2
types :
1 - le climat était suffisamment froid et sec pour
empêcher toute infiltration et précipitation de
calcite dans la grotte entre 61,0 ka. et 67,4 ka.;
c’est le cas de la discontinuité la plus importante,
elle coïncide avec l'événement de Heinrich H6.
a) signal δ18O et signal Ca dans la glace du Groenland et des
événements de Heinrich dans les sédiments marins de l'Atlantique
Nord (signal IRD : «ice rafted detritus», et signal de susceptibilité
magnétique.
http://www.cnrs.fr/cw/dossiers/dosclim/biblio/pigb15/03_evenements.htm
lentement, en quelques 30 ans et son augmentation est
sensible dans les deux hémisphères, suggérant que la
modification climatique est sensible sur l’ensemble de la
flore terrestre. La quantité de sels dans la glace Ca2+ et Na+
montre une diminution brutale de la salinité de l’océan lors
du réchauffement, suggérant une débâcle intense durant cette
période.
Vingt-quatre de ces événements ont été dénombrés
dans les carottes de glace du Groenland depuis la fin du
dernier interglaciaire. Ils ont aussi été reconnus dans les
carottes marines de l'Atlantique Nord, de la Méditerranée
occidentale et du Pacifique Nord (Bond et al, 1993 ; Cachot
et al, 1999 ; Kiefer et al, 2001).
Fig. 78b : détail de l’évènement YD (Dryas récent) :
16/10/12
2 - Les hiatus sont liés à des inondations dans la
grotte lors de périodes très humides.
Les effets des événements Dansgaard/Oeschger se
font donc sentir au moins jusque sous nos latitudes
moyennes. La figure 79 montre que le δ13C a enregistré
l'événement D/O20 de façon remarquable, et sa
terminaison abrupte dans l’évènement de Heinrich qui
clôt ce cycle.
Ces variations de δ13C sont principalement liées au
développement du sol et de la végétation : le carbone
dissous dans l'eau d'alimentation des stalagmites provient
en majeure partie du CO2 du sol. Or, les variations
d'activité pédologique et de la végétation vont
conditionner la quantité de CO2 d'origine biologique
dissoute dans l'eau d'infiltration. En conséquence, les
événements froids, qui ralentissent l'activité végétale et
bio-pédologique, sont marqués par un δ13C élevé. ¼ de
l'amplitude du signal δ13C (renforcement) est produit par
la température. En effet, le fractionnement isotopique du
carbone dans la dissolution du CO2 dans l'eau et lors de
Fig. 79 : Section polie de la stalagmite Vil-stm9 autour de
l'événement D/O20.
High-resolution data from the GISP2 ice core, Greenland, and
the Byrd ice core, Antarctica, covering the Younger Dryas
interval (YD) and adjacent times ;
www.ngdc.noaa.gov/paleo/icecore/greenland/summit/index.html.
- 165 -
ENSM-SE, 2° A : axe transverse P N
la précipitation de CaCO3 va dans le même sens.
Le décalage entre le début d'un réchauffement et le
minimum sur la courbe du δ13C, qui caractérise le maximum
d'activité végétale varie entre 500 et 2000 ans. La remise en
route du système bio-pédologique qui produit le CO2 du sol
peut donc être très rapide, comme lors de l’évènement de
Heinrich qui interrompt le cycle D/O 20 Avec le système
bio-pédologique redémarre la dissolution-précipitation des
carbonates qui amorce la chute du signal δ13C. Le temps de
réponse du sol est nettement plus rapide que celui mis en
jeu par les différents taxons végétaux qui vont ensuite
successivement recoloniser le milieu.
Les paléoclimatologues interprètent les évènements
de Heinrich comme de résultat de l’effondrement de la
calotte Nord-Américaine (Laurentide) sous l'effet de sa
propre dynamique. La glace s'accumulant pendant plusieurs
millénaires d’un épisode froid sur l'Amérique du Nord aurait
atteint progressivement une épaisseur telle que la chaleur
interne de la Terre ne serait plus parvenue à se dissiper vers
l'atmosphère. L’eau des sédiments sous-jacents aurait alors
fondu, induisant un effondrement de la calotte et le vêlage de
nombreux icebergs. Leur fonte aurait alors injecté des
quantités d'eau douce considérables dans les eaux de surface
de l'Atlantique Nord. Cette eau de surface froide mais malgré
tout peu dense parce que douce aurait stratifié l'océan et
ralenti la formation d'eaux profondes aux hautes latitudes.
16/10/12
On est en droit de se demander si de tels
événements pourraient intervenir dans les décennies ou les
siècles à venir ? Le « petit âge glaciaire », refroidissement
sur l’Atlantique nord entre le XI° et le XIV° siècle
pourrait représenter la dernière de ces anomalies ? Faut-il
craindre le scénario catastrophe que nous promettent les
climatologues ? Le sceau de l’homme est mesurable dans
la concentration GES. Doit-on lui imputer une part
significative de l’augmentation de la T° au XX° siècle ?
Nous avons tenté de vous faire saisir l’extrême
complexité des phénomènes naturels, l’interdépendance
des paramètres, l’existence d’effets de seuil,
d’emballements, de boucles rétroactives… Et d’attirer
ainsi votre attention sur la difficulté de dresser le bilan
précis de la responsabilité de notre espèce. Afin de
terminer avec une vue globale de la planète, la figure 80
nous offre en un coup d’œil sur 600 Ma, un ensemble de
courbes de coévolution de quelques paramètres dont
l’évolution qui nous préoccupe commence à nous être
familière ; de gauche à droite dans la figure de S. Manoliu
et M. Rotaru 2008 :
Ralentir la formation des eaux profondes, implique de
ralentir ou même de bloquer (?) la circulation globale
thermohaline. Si l'implication de la circulation thermohaline
est reconnue, la cause de ce basculement entre un mode froid
et stable (sans convection profonde en Atlantique Nord) et un
mode plus chaud et instable avec convection profonde en
Atlantique Nord reste encore à déterminer. Traduit-elle une
oscillation interne à l'océan ? Une oscillation couplée entre
océan et calottes glaciaires ? Faut-il des forçages externes au
système climatique pour les déclencher ? Ces oscillations
sont-elles présentes même faiblement pendant les périodes
interglaciaires ? Il reste aujourd'hui beaucoup de glace en
Antarctique et au Groenland.
1 - la T° moyenne de la Terre, variant entre 15 et
25°C;
2 - la teneur en CO2 de l’atmosphère variant de
jusqu’à 20 fois le niveau de teneur actuel ;
3 - le niveau de l’océan, variant de -200m à +200m,
voir beaucoup plus ;
4 - les épisodes de production massive de charbon ;
5 - le nombre des espèces ayant vécu en même temps
sur Terre, avec 5 creux bien identifiés ;
6 - Les impacts majeurs de bolides, pour lesquels il ne
faut pas oublier que le plancher océanique qui
représente 70% de la surface terrestre est
perpétuellement renouvelé et ne peut donc
conserver la mémoire d’un passé plus vieux que
200 Ma. environ.
A suivre donc…
Fig. 80 : quelques paramètres connus à l’échelle planétaire pour les derniers 600 Ma environ
- 166 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Sites WEB consultés
http://daac.gsfc.nasa.gov/CAMPAIGN_DOCS/ATM_CHEM/ozone_atmosphere.html
http://diamant.geo.su.se/Livets_historia_SB/digr_bif_distr.html
http://gershwin.ens.fr/vdaniel/Enseignement/Cours-CircuAtm/Cours-Atm-PP97/Cours-CircAtm-PPT97-1024/sld045.htm
http://gershwin.ens.fr/vdaniel/Enseignement/Cours-CircuAtm/Cours-Atm-PP97/Cours-Vince-PPT97-Low/sld002.htm
http://gsa.confex.com/gsa/2001ESP/finalprogram/session_186.htm
http://icp.giss.nasa.gov/research/oceans/oceanchars/index.html
http://nte-serveur.univ-lyon1.fr/geosciences/geodyn_ext/Cours/CoursTT1Atmosphere.htm
http://image.gsc.nasa.gov/poetry/ask/aatmos.htm
lhttp://www.icimod.org
http://ingrid.ldgo.columbia.edu/SOURCES/.Indices/ensomonitor.html
http://data.giss.nasa.gov/gistemp/graphs_v3
http://mscserver.cox.miami.edu/msc215/2002/A01-Introduction/sld029.htm http://en.wikipedia.org/wiki/File:Post-Glacial_Sea_Level.png.
http://ousrvr2.oulu.fi/~spaceweb/textbook/atmosphere.html
http://nssdc.gsc.nasa.gov/planetary/comet.html
http://pluto.spae.swri.edu/IMAGE/
http://rcs.ee.washington.edu/rrsl/Tutorials/ionosphere.html
http://satftp.soest.hawaii.edu/ocn620/coriolis/
http://tabla.geo.ucalgary.ca/~macrae/Burgess_Shale/
http://universe-review.ca/
http://theory.uwinnipeg.ca/physics/index.html
http://visibleearth.nasa.gov/Atmosphere/
http://ww.biota.org/conf97/explore.html
http://ww.bureaumeteo.com/elnino/
http://ww.ogp.noaa.gov/enso/
http://www.ac-rouen.fr/hist-geo/sat/elnino/windja.htm
http://www.esrl.noaa.gov/gmd/ccgg/iadv/,
http://www.amisdelaterre.org/publications/publications_4.html#introduction http://cr0.izmiran.rssi.ru/mosc/main.htm
http://www.asahi-net.or.jp/~ny3k-kbys/contents/wonderful_life.html
http://www.agu.org/pubs/crossref/2007/2006GL028492.shtml
http://www.carleton.ca/~tpatters/teaching/climatechange/elninolecture/elninolect1.html
http://www.cbl.umces.edu/fogarty/usglobec/news/news14/news14.LTOP-in-NEP.html
http://www.cdc.noaa.gov/ENSO
http://www.cdc.noaa.gov/ENSO/enso.references.html
http://www.cnrs.fr/cw/dossiers/dosclim/biblio/pigb15/03_evenements.htm
http://www.cnrs.fr/cw/dossiers/dosclim/biblio/pigbsom.htm
http://www.cosmovisions.com/Terre.htm
http://www.esrl.noaa.gov/gmd/ccgg/iadv/
http://www.cpc.ncep.noaa.gov/products/analysis_monitoring/ensocycle/enso_cycle.html
http://www.earth.nwu.edu/people/craig/teach/C02-0/jasper.html
http://www.educnet.education.fr/obter/appliped/circula/theme/accueil.htm
http://www.egs.uct.ac.za/engeo/faq/climate-change/faq.html
http://www.ems.psu.edu/~fraser/BadScience.html
http://www.ens-lyon.fr/Planet-Terre/Infosciences/Climats/Rayonnement/Bilan-radiatif/bilan-energie.htm
http://www.ens-lyon.fr/Planet-Terre/Infosciences/Histoire/Paleoclimats/Animations/milankovitch.html
http://www.eo.mtu.edu/weather/
http://www.es.flinders.edu.au/~mattom/IntroOc/lecture05.html
http://www.geol-alp.com/alpes_francaises/alpes_glaciation.html
http://www.ggl.ulaval.ca/personnel/bourque/s4/explosion.biodiversite.html
http://www.ggl.ulaval.ca/personnel/bourque/s4/reponsable.glaciations.html
http://www.gis.nasa.gov/
http://www.ipcc.ch/
http://www.grida.no/climate/ipcc_tar/wg1/048.htm
http://www.ipcc.ch/
http://www.larecherche.fr/VIEW/321/03210603.html
http://www.ldeo.columbia.edu/dees/ees/climate/slides/ocean_index.html
http://www.lifestudies.org/fr/apparition.PDF
http://www.manicore.com/anglais/documentation_a/articles_a/palace_may2001.html
http://www.nasm.edu/ceps/
http://www.ncdc.noaa.gov/paleo/pubs/flueckiger2002/flueckiger2002.html
http://www.nirgal.net/atmosphere.html
http://www.nodc.noaa.gov/dsdt/oisst/
http://www.ogp.noaa.gov/misc/coral/coral_paleo/coralintro.html
http://www.op.noaa.gov/
http://www.scotese.com/sitemap.htm
http://www.pmel.noaa.gov/toga-tao/el-nino-story.html
http://www.tyrrellmuseum.com/bshale/diarama.html
http://www.uea.ac.uk/~e930/e174/l5_geos.html#coriolis
http://www-ccar.colorado.edu/~altimetry/applications/mapreading/
http://www2.bc.edu/~strother/GE_146/lectures/pics21/bif.html
http://www-eps.harvard.edu/people/faculty/hoffman/snowball_paper.html
http://www-geology.ucdavis.edu:8000/~gel3/slushball.html
http://wwwmeteo.org/phenomen/ouragan.htm
http:/www.microtech.com.au/daly/elnino.htm
http:/www.scienceweb.org/burgess.html
http://www.climat-sceptique.com/article-5654147.html
http://www.insu.cnrs.fr/a2913,tectonique-plaques-change-t-elle-climat-global.html
http://www.jeanlouisetienne.fr/poleairship/images/encyclo/imprimer/18.htm http://dimes.ucsd.edu/
http://www.insu.cnrs.fr/a2913,tectonique-plaques-change-t-elle-climat-global.html
http://scienceblogs.com/worldsfair/2007/11/what_do_you_think_of_stephen_j.php
http://www.swpc.noaa.gov/SolarCycle/index.html
http://co2thetruth.e-monsite.com/rubrique,montee-des-mers,404968.html
http://en.wikipedia.org/wiki/File:Post-Glacial_Sea_Level.png
http://www.argo.ucsd.edu/index.html
http://www.ipsl.jussieu.fr/services/Observations/fr/RAMCES/Contexte.htm#CH4
http://arctic.atmos.uiuc.edu/cryosphere/
http://www2.cnrs.fr/presse/communique/1546.htm
http://co2thetruth.e-monsite.com/rubrique,montee-des-mers,404968.htm
http://nsidc.org/data/seaice_index/images//daily_images/S_timeseries.pngl
http://indymedia.org.au/2010/01/08/climate-tipping-point-global-atmospheric-methane-on-the-rise
http://nsidc.org/data/seaice_index/images/daily_images/N_timeseries.png
http://www.ijis.iarc.uaf.edu/en/home/seaice_extent.htm
http://www.woodfortrees.org/plot/hadcrut3vgl/from:1900/offset:-0.15/mean:24/plot/gistemp/from:1900/offset:0.24/mean:24/plot/uah/from:1900/mean:24/plot/rss/from:1900/mean:24
http://cr0.izmiran.rssi.ru/mosc/main.htm
http://geology.uprm.edu/Morelock/patterns.htm
http://nsidc.org/data/nsidc-0081.html
http://maps.grida.no/go/graphic/sea_level_rise_due_to_the_melting_of_mountain_and_subpolar_glaciers
http://ossfoundation.us/projects/environment/global-warming/summary-docs/oss-reports/slr-research-summary-2008
http://www.cnrs.fr/Cnrspresse/n400/pdf/n400rd06.pdf
http://www.sahra.arizona.edu/programs/isotopes/oxygen.html
http://www.nhc.noaa.gov/sshws.shtml
http://coaps.fsu.edu/~maue/tropical/historical.php
http://www.risques.gouv.fr/risques/risquesnaturels/Cyclone/http://reviewipcc.interacademycouncil.net/ReportNewsReleaseFrench.html
http://www.newx-forecasts.com/nao.html
http://www.locean-ipsl.upmc.fr/~cdblod/mld.html
http://www.nwfsc.noaa.gov/research/divisions/fed/oeip/ca-pdo.cfm
http://www.esr.org/pdo_index.html
http://www.ifremer.fr/lpo/cours/nao/nao3.html
http://nsidc.org/arcticmet/patterns/arctic_oscillation.html
http://en.wikipedia.org/wiki/File:Amo_timeseries_1856-present.svg
ftp://ftp.ncdc.noaa.gov/pub/data/paleo/icecore/greenland/summit/gisp2/isotopes/gisp2_temp_accum_alley2000.txt
http://www.ec.gc.ca/pdb/ghg/inventory_report/2003_report/c1_f.cfm
http://www.riaed.net/spip.php?article448
http://www.esrl.noaa.gov/gmd/ccgg/trends
http://www.ladocumentationfrancaise.fr
http://www.esrl.noaa.gov/gmd/ccgg/about/global_means.html
http://www.noaanews.noaa.gov/stories2006/s2709.htm
http://www.trunity.net/weatherandclimate/articles/view/171440/
- 167 -
ENSM-SE, 2° A : axe transverse P N
quelques idées fortes
16/10/12
Quelques idées fortes :
Composition / Stucture de L’atmosphère Terrestre actuelle
Composition chimique : N2 = 78 %pds
O2 = 21 %pds
Ar = 0.9 %pds
CO2 = 0.035 %pds
Structure thermique et chimique :
T° moy au sol = +13°C ; gradient vertical = –6° Km-1,
18 km à l’équateur, 10 km au pôle ; tropopause = gradient de T° s’inverse
La Terre reçoit le flux solaire (Corps noir à 5770°K: émission dans l’UV le visible et le proche IR)
La Terre émet dans l’IR seulement (corps noir à 256°K);
Les gaz triatomiques de l’atmosphère absorbent les IR ;
Donc l’énergie solaire transmise au sol en λ courtes est rendue à l’atmosphère en λ longues et non au cosmos
La différence s’appelle Effet de serre ; sans atmosphère T°équilibre = -18°C ; avec, T°équilibre =+13°C
Statosphère :
T° croissante jusqu'à +20 °C maximum
jusqu’à 50 km environ ; stratopause = gradient de T° s’inverse
La concentration en ozone est maximum entre 20 et 30 Km. (elle est quasi nulle dans la troposphère) ;
L’épaisseur de la couche d’ozone pur que l’on pourrait former avec ce gaz est de 2.5 mm
Production de l’ozone = photo-dissociation de O2 sous l’effet des UV courts.
Destruction de l’ozone : 1) recombiné à l’oxygène atomique O3 +O ⇒ O2 + O2
2) dissocié par des UV plus longs (λ<310nm)
3) cycle catalytique de destruction de l’ozone, X +O3 ⇒ XO +O2 ; XO +O ⇒ X +O2
X = H (monoatomique), NO, les composés halogènés, les CFC
Mésosphère :
T° décroît rapidement avec l’altitude. Vers 80 km, elle atteint -140°C
mésopause = gradient de T° s’inverse
Photodissociation de plus en plus rare avec l’altitude, de O2, de H2O et de CH4
Thermosphère : T° des molécules et atomes (on ne parle plus de gaz) croît très fortement, 2000°C au zénith
s’étend jusqu’à 500 km ;
Absorption des UV très courts ; Photo-dissociation des molécules diatomiques, N2, O2, H2, et d’atomes O, H ;
Siège des aurores polaires.
Troposphère :
La Stratification électromagnétique de l'atmosphère
Neutrosphère :
70 premiers Km ; atmosphère non conductrice
Ionosphère :
jusqu’à 1000 Km
Augmentation non linéaire de la “ concentration ” en électrons- : D (80 Km), E (100Km), F1 (180 Km), F2 (350 Km)
Magnétosphère : plasma à faible densité composé d’électrons et d’ions,
Electrons piégés par les lignes de champ oscillent à haute altitude en rebondissant sur chacun des pôles
Aurore polaire, flot d’électrons et rebond à basse altitude, désexcitation de N et de O après choc avec les électrons
Circulation de l'atmosphère
cellule de Hadley : entre basses pressions de l’ITCZ et hautes pressions des tropiques ;
Coriolis faible (proche équateur), déviation Est ou Ouest faible, alizés de NE et de SE
Cellule de Ferrel : entre les tropiques et le front polaire
Coriolis fort, vents géostrophiques, cyclonique (tourne à Drte, converge et monte) autour des basses pressions,
Anticyclonique (tourne à gauche, diverge et descend) autour des hautes pressions.
Cellule polaire : entre front polaire et pôle ; Coriolis très fort ;
La Circulation océanique
Courants de surface liés au vent :
Ekman : déplacement d’un courant provoqué par le vent perpendiculaire à la direction du vent (Coriolis) ;
Courant géostrophique = déplacement d’eau perpendiculaire au gradient de pression (à droite).
déplacement de la couche superficielle, remplacée par de l’eau profonde = upwelling
upwelling côtier en façade ouest des continents
upwelling équatorial induit par la ITCZ
Courants profonds liés aux différences de densité :
Causes des différences de ρ dans l’océan : T° et salinité ; on parle de circulation thermohaline.
Basses latitudes : ∆T° (surf – prof)>0 fort = thermocline marquée ; ∆ρ fort ; pas de convection
Tropiques : ∆T° (surf – prof)>0 fort = thermocline marquée ; salinité maxi (évaporation sans pluie)
Hautes latitudes : ∆T° (surf – prof)≤0 ;pas de thermocline; ∆ρ≤0; convection (plongement Nord-Atlantique)
ENSO : ensemble de fluctuations cohérentes de la T° (air et eau), de la Patm, des vents et courants ;
El Niño épisode chaud de ENSO ; La Niña, épisode froid de ENSO
L’histoire de l'atmosphère
Atmosphère primaire, héritée de l’accrétion, n’existe plus qu’autour des planètes géantes gazeuses
Atmosphère secondaire résulte du dégazage de leur manteau, elle existe encore autour de Vénus
Atmosphère tertiaire résulte de
la précipitation de l’eau atmosphérique en océan ; CaCO3 peu soluble stocke le CO2
L’activité biologique basée sur la photosynthèse et consomme beaucoup de CaCO3
- 168 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Epilogue
Quelle décision prendre aujourd’hui pour ne pas oblitérer l’avenir? Vous n’avez bien sûr pas trouvé la réponse dans
les 166 pages dont vous achevez la lecture. Elles n’ont d’ailleurs pas une telle prétention ! Il a juste été tenté de ne pas trahir
dans l’écriture de ce poly combien le savoir d’aujourd’hui s’inscrit dans la pensée d’hier, comment il ne peut être
indépendant de la société qui le formule, et ce faisant d’illustrer en quoi la Science est pour l’Homme le mode raisonné
indispensable à se représenter son monde, celui de son époque, avec les outils de son temps, prêt à toutes les remises en
question rendues nécessaires par les faits.
En nous proposant « Sa vérité sur la planète » Claude Allègre (2007) clame que le consensus, maître mot de
l’actualité, n’a aucun sens dans le domaine de la science. La remarque est pertinente. Toute « vérité scientifique » doit
continuer à être opposable à sa falsification par les faits. Comme le soulignait Karl Popper, selon les mots du
http://www.philosciences.com « L'observation d'un certain nombre de faits corroborant la théorie ne la confirme pas
absolument et universellement. C'est un procédé de type inductif et il se peut toujours qu'à un moment donné un fait vienne
contredire une théorie. Mais surtout, c'est la porte ouverte à la complaisance, car on trouve toujours un certain nombre de
faits pour corroborer une théorie, même si elle est fantaisiste. La vérification n'est pas suffisante ». Or le raisonnement
inductif est la démarche usitée en sciences de la Terre, de la vie, et de l’environnement. Nous ne devons pas ignorer la
falsification par les faits. Et il est vrai que parfois la communauté scientifique a pu jeter le discrédit sur les plus novateurs de
ses contemporains… Parmi ceux que nous avons rencontrés dans ce poly, citons Alfred Wegener pour le XX°, Giordano
Bruno plus avant ou Anaxagore de Clazomènes dans un passé plus lointain… Raisons qui font que les arguments des
« sceptiques » publiés dans les revues à comité de lecture ont été utilisés dans l’écriture du poly, et que d’une façon plus
générale, elles doivent inviter à la réflexion. Il en est ainsi de l’ouvrage « Un appel à la raison » de Nigel Lawson (2008),
non scientifique mais ancien secrétaire d'État à l'Énergie en Grande-Bretagne, qui vise à démontrer que la pensée dominante
ne repose pas toujours sur des bases solides, que le remède proposé, la réduction des émissions de GES, est une solution
inapplicable, et que l’adaptation au changement serait probablement plus féconde. Est-il raisonnable de penser que les états
riches d’énergies fossiles, le charbon en particulier, vont se priver de cette ressource ? La réponse sera certainement « oui »
mais pas avant que d’autres énergies, renouvelables par exemple, soient technologiquement disponibles et économiquement
acceptables! Exemple d’une réussite, le remplacement des CFC ; la disponibilité de produits de substitution est arrivée à
point nommé…
Il n’est, pour se convaincre du rôle de l’époque dans les avancées de la science, que de revenir un instant sur l’une des
plus importantes du XIX° siècle, l’évolution des espèces. On la doit à C. Darwin, bien sûr, mais combien la publication de
cette découverte doit-elle à la missive qu’il reçut d’Alfred Russel Wallace ? Vingt-cinq ans après son tour du monde, C.
Darwin n’avait toujours pas publié ses idées sur les implications de la variabilité des pinsons des îles Galápagos. Peut-être,
lui qui un temps s’était destiné à être pasteur avant d’embarquer sur le Beagle, répugnait-il encore à publier le texte qui
bousculerait si profondément les principes de son époque ? Wallace avait certainement lu le voyage du Beagle, mais avait
aussi conduit de nombreuses observations en Amérique du Sud et à Bornéo. En 1855, il souhaite publier « De la loi qui a
contrôlé l’introduction de nouvelles espèces ». Il envoie son manuscrit, pour avis, à C. Darwin qui était déjà reconnu par ses
pairs, et lui demande de le transmettre pour publication à Charles Lyell, membre de la Royal Society, influent et déjà célèbre
géologue continuiste. A la lecture de l’article, Lyell comprend que Wallace va doubler Darwin. Les idées de Wallace sont
très claires, théorisant ses observations de sorte que « cette loi ne se contente pas d’expliquer tous les faits actuellement
inexplicables, mais elle les rend nécessaire », quand celles de Darwin étaient encore trop touffues… La publication sera faite
en 1858 en quelques dizaines de pages, en même temps que celle, en quelques centaines de pages, de la théorie de Darwin,
quelque peu bousculé par son ami Lyell afin qu’il ne perdit pas l’antériorité de ses idées63… L’histoire retiendra « De
l’origine des espèces » de C. Darwin ! Les idées de compétition, de lutte pour l’existence, sont présentes chez les deux
auteurs, rien d’étonnant à cela car elles sont aussi dans l’air du temps. Thomas Robert Malthus a publié 50 ans plus tôt
« Essai sur les principes de population », qui formule que l’augmentation de la population suit une progression géométrique
(doublement à chaque pas de temps), alors que la croissance des ressources est arithmétique, conduisant nécessairement à
une succession de catastrophes alimentaires. Le Darwinisme social est donc, avant la lettre, consubstantiel des idées de
l’époque. Compétition et échec du faible feront florès. Il faudra attendre la théorie synthétique de l’évolution basée sur
l’hérédité de Mendel et la génétique des populations, puis la théorie des équilibres ponctués de Gould et Eldredge (1972) et
enfin le principe de la reine rouge de Leigh Van Valen (1973) pour que l’on abandonne l’idée de compétition des espèces et
que l’on comprenne le rôle de la coévolution des espèces, rendue nécessaire par l’environnement en perpétuel changement.
Et maintenant, la porte s’ouvre à l’altruisme intra-spécifique, comme moteur du succès des espèces, et à l’adaptabilité, par la
transmission des caractères acquis. Lamarck (fin-XVIII°), trop tôt jeté aux orties, refait surface avec la compréhension des
mécanismes cellulaires dans l’influence de l’environnement sur l’expression des gènes (épigénétique).
Le XX° siècle aura eu cela de particulier qu’il est l’instant où, pour la première fois, nous aurons pris la responsabilité
d’être la première espèce vivante capable d’infléchir en conscience les équilibres qui ont présidé jusqu’alors aux destinées de
63
Pour plus de détails, lire J.C. Ameisen 2008, Dans la lumière et les ombres.
- 169 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
l’ensemble des espèces. Notre impact est réel, déterminant peut-être, crucial sans-doute pour le reste du vivant tel que nous
l’observons. De ce point de vue, nous entrons incontestablement dans une autre époque. Mais en ce début de III° millénaire
technocratique et hyperspécialisé, nos sociétés sont fragiles et font peur. Elles nous rendent donc irrationnels. Il est sans
doute tentant de faire de la science et des techniques un Credo (« la science peut tout », « la science prouve que » …), de
faire des sciences de l’environnement, des sciences de la Terre et de la Vie qui nous préoccupent ici, le shaman moderne
capable de restaurer l’harmonie perdue ? Combien d’experts au chevet des politiques pour rédiger les « feuilles de route » à
suivre ? Les conflits d’intérêt sont alors inéluctables, la raison n’est plus le seul argument dont le chercheur doit tenir
compte, sources de désillusions pour les publics concernés. Aussi est-il tentant de se réfugier dans n’importe quel livre de la
connaissance, puisque tout y sera contenu « en vérité », inspiré par la transcendance, prêt à répondre à nos attentes !
Mai il n’est pas de refuge passé, pas de paradis perdu auxquels revenir. L’effort doit être porté sur l’analyse des
changements qui s’imposent, quand bien même nous en serions la cause. Nous aurons à réussir ce pari, et pour ce faire nous
aurons certainement à modifier sensiblement nos modes de pensée, à passer de ce que nous pensions être le savoir, à
l’intégration de savoirs multiples dans une pensée toujours plus complexe, à inscrire nos activités dans une démarche
globalisée, mondialisation et finitude obligent... Il nous faut comprendre et rechercher quelles adaptations conduiront
l’Homme vers la meilleure réintégration dans l’interface étroit qui nous abrite, à peine quelques kilomètres d’épaisseur
vivable entre géosphère et cosmos.
Si nous n’y parvenons pas, la limite Tertiaire-Quaternaire qui a été introduite en géologie par pur anthropocentrisme
— alors que nous avons vu qu’il aurait été peut-être plus intelligent d’instituer une coupure majeure avec le début de l’ère glaciaire vers
32Ma — deviendra-telle finalement une vraie coupure pour les espèces à venir, en raison de l’état dans lequel la nôtre aura
laissé la Terre ? Mais seront-elles préoccupées de paléontologie ? La biodiversité est une richesse absolument fondamentale
que le comportement de l’espèce humaine entame chaque jour au plus profond, tant par son comportement de prédateur sans
limite que par ses pratiques (agraires, déplacement d’espèces…) qui inventent des faces à faces improbables entre espèces et
inaugure de nouvelles compétitions. Nous créons ainsi une sorte de Pangée64, artificielle certes, mais au nombre de niches
drastiquement diminué, dont les incidences sur l’ensemble du vivant sont encore plus inquiétantes que les scénarios
d’épouvante des climatologues!
Les organismes les moins différenciés, les moins fragiles, se reproduisant vite, ils passeront ce cap difficile. Mais
l’espèce humaine sera-t-elle gagnante à cette loterie comme le fut Pikaia en son temps ? Rappelons-nous que l’altruisme
intra-spécifique est un facteur clef du succès des espèces. Ne nous indique-t-il pas que, de l’aide entre individus à
l’apprentissage des plus jeunes, puis à la transmission de la culture, il n’y a que des degrés que l’homme a franchis mieux
que d’autres, servons nous en pour négocier le futur.
J.L.B.
64
La Pangée (du grec pan, tout ; Gaïa, identifiée à la Terre-mère) est le nom donné au super-continent que la dérive des
continents à constitué à la fin de l’ère Primaire, en rassemblant l’ensemble des terres émergées. Le morcellement qui suivit
est responsable d’une intense spéciation du vivant. Le caractère endémique des espèces insulaires fut bien mis en évidence
par C. Darwin, et inversement, la pandémie des espèces sur plusieurs continents fut un des arguments clefs de A. Wegener
dans l’établissement de sa théorie de la dérive des continents (cf. poly La dérive des continents).
- 170 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Ouvrages consultés et illustrations
Mesures CO2 Mona Loa (Annexe 1)
ftp://ftp.cmdl.noaa.gov/ccg/co2/trends/co2_annmean_mlo.txt
USE OF NOAA ESRL DATA
#
# These data are made freely available to the public and the scientific community in the belief that their wide dissemination
will lead to greater understanding and new scientific insights. The availability of these data does not constitute publication of
the data. NOAA relies on the ethics and integrity of the user to assure that ESRL receives fair credit for their work. If the
data are obtained for potential use in a publication or presentation, ESRL should be informed at the outset of the nature of
this work. If the ESRL data are essential to the work, or if an important result or conclusion depends on the ESRL data, coauthorship may be appropriate. This should be discussed at an early stage in the work. Manuscripts using the ESRL data
should be sent to ESRL for review before they are submitted for publication so we can insure that the quality and limitations
of the data are accurately represented.
# Contact: Pieter Tans (303 497 6678; [email protected])
# File Creation: Wed Sep 5 10:55:32 2012
# See www.esrl.noaa.gov/gmd/ccgg/trends/ for additional details.
#
# Data from March 1958 through April 1974 have been obtained by C. David Keeling of the Scripps Institution of
Oceanography (SIO) and were obtained from the Scripps website (scrippsco2.ucsd.edu).
#
# The estimated uncertainty in the annual mean is the standard deviation of the differences of annual mean values
determined independently by NOAA/ESRL and the Scripps Institution of Oceanography.
#
# NOTE: In general, the data presented for the last year are subject to change, depending on recalibration of the reference
gas mixtures used, and other quality control procedures. Occasionally, earlier years may also be changed for the same
# reasons. Usually these changes are minor.
#
# CO2 expressed as a mole fraction in dry air, micromol/mol, abbreviated as ppm
# year mean
unc
year mean
unc
year mean
unc
year mean
unc
1959 315.97 0.12
1960 316.91 0.12
1961 317.64 0.12
1962 318.45 0.12
1963 318.99 0.12
1964 319.62 0.12
1965 320.04 0.12
1966 321.38 0.12
1967 322.16 0.12
1968 323.04 0.12
1969 324.62 0.12
1970 325.68 0.12
1971 326.32 0.12
1972 327.45 0.12
1973 329.68 0.12
1974 330.18 0.12
1975 331.08 0.12
1976 332.05 0.12
1977 333.78 0.12
1978 335.41 0.12
1979 336.78 0.12
1980 338.68 0.12
1981 340.10 0.12
1982 341.44 0.12
1983 343.03 0.12
1984 344.58 0.12
1985 346.04 0.12
1986 347.39 0.12
1987 349.16 0.12
1988 351.56 0.12
1989 353.07 0.12
1990 354.35 0.12
1991 355.57 0.12
1992 356.38 0.12
1993 357.07 0.12
1994 358.82 0.12
1995 360.80 0.12
1996 362.59 0.12
1997 363.71 0.12
1998 366.65 0.12
1999 368.33 0.12
2000 369.52 0.12
2001 371.13 0.12
2002 373.22 0.12
2003 375.77 0.12
2004 377.49 0.12
2005 379.80 0.12
2006 381.90 0.12
2007 383.76 0.12
2008 385.59 0.12
2009 387.38 0.12
2010 389.78 0.12
2011 391.57 0.12
Ouvrages consultés
Encyclopaedia Universalis, thèmes variés
The Interior of the Earth, M.H.P. Bott, Edward Arnold, 1971
Submarine Geology, F.P. Shepard, Harpet & Row, 1973
Phisics and geology, Jacobs, Russel & wilson, 1974
Une revolution dans les sciences de la Terre, A. Hallam, Seuil, 1976
Paleomagnetism and plate tectonics, W.B. Harland, Cambridge university press, Earth science series, 1979
Le système solaire, Collection Planète Terre, Time Life, 1988
Les volcans, Collection Planète Terre, Time Life, 1988,
- 171 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
L’atmosphère, Collection Planète Terre, Time Life, 1988,
Igneous petrogenesis, M. Wilson, London Unwin Hyman, 1989
Ocean chemisty and deep sea sediments, J. Brown et al, The Open University, Pergamon Press, 1989
Les montagnes sous la mer, A. Nicolas, BRGM, 1990
La Terre toujours recommencée, Y Rebeyrol, Ed La découverte, Le Monde, 1990
Gros temps sur la Planète, J.C. Duplessy et P. Morel, Odile Jacob, 1990
Le contrat naturel, Michel Serre, François Bourin, 1990
Les profondeurs de la Terre, J.P. Poirier, Masson, Cahiers des sciences de l'univers-1, 1991
La vie est belle, S. Jay Gould, Seuil, 1991
La Terre et la vie, Y. Paccalet, Larousse, 1991
Sea water: its composition, properties and behaviour, J. Brown et al, The Open University, Pergamon Press, 1991
Waves tides and shallow-water processes, J. Brown et al, The Open University, Pergamon Press, 1991
The ocean basins: their structure and evolution, J. Brown et al, The Open University, Pergamon Press, 1992
Comprendre et enseigner la planète Terre, J.M. Caron, 2° ed, 1992
La vérité sur l’effet de Serre, Y. Lenoir, Ed. La Découverte, 1992
La vérité sur l’effet de Serre, Y. Lenoir, Ed. La Découverte, 1992
De la pierre à l’étoile, C. Allègre, Fayard
La foire aux dinosaures, S. Jay Gould, Seuil, 1993
Ocean circulation, J. Brown et al, The Open University, Pergamon Press, 1993
Océanologie, Bernard Biju-Duval, Géosciences, Dunod, 1994
Formes et mouvements de la Terre, A cazenave et K Feigl, croisée des sciences, 1994
Le noyau de la Terre, J. P. Poirier, Flammarion, Domino, 1996
Climate process at change, E.Bryant, Cambridge University Press, 1997
Sédimentologie, I. Cojan et M. Renard, 2° Ed., Dunod, 1999
Rythmes du temps, Emile Biémont, De Boeock, 2000
Pourquoi j’ai mangé mon Père, Roy Lewis, Actes Sud, 2000
La Plus belle histoire de la Terre, A. Brahic, P Tapponnier, L.R. Brown et J. Girardon, Seuil, 2001
Géologie de la Loire, G. Vittel, Pub de L’Université de St Etienne, 2001
Sismostratigraphie et structure sédimentaire en 3D d'un bassin lacustre, du retrait glaciaire à nos jours (Lac Léman, Suisse)
Thèse Université de Genève, S. GIRARDCLOS
The oceans and marine géochemistry, H.D. Holland & K.K. Turekian Eds, H. Hedersfield, 2004
Géologie isotopique, C. J. Allègre, Belin 2005
Sciences de la Terre et de l’univers, 2d Ed., A. Brahic, M. Hoffert, René Maury, A.Schaaf, M. Tardy, Vuibert, 2006
Géologie, bases pour l’ingénieur, A. Parriaux, Presses Polytechniques Romandes, Lausanne, 2006
Modern Celestial Mechanics; Aspects of Solar System Dynamics. A. Morbidelli, Cambridge Sci. Publ. 2006
Origine et impact climatique d'un changement de circulation thermohaline au cours des prochains siècles dans le modèle
IPSL-CM4 Didier Swingedouw, 2006
Ma vérité sur la Planète Claude Allègre, 2007, Plon/Fayard
New Theory of the Earth, Don L. Anderson, Cambridge University Press, 2007
Un appel à la raison, Nigel Lawson, K& B, 2008
Mon père n’est pas un singe ?, C. Grimoult, Ellipse Ed., 2008
Dans la lumière et les ombres, J. C. Ameisen, Fayard Ed., 2008
Plates vs. Plumes: A Geological Controversy. Gillian R. Foulger, 2010
Climat, Mensonges et propagande, Hacène Arezki, T. Souccar ed., 2011
La voie, Edgar Morin,Fayard Ed., 2011
Le Courrier du CNRS, Juil 1990, un regard global sur notre planète
Gemoc Annual Report, 2002, ARC National Key Center, Macquarie University Sydney,
Rapport de l Osbs Nat de l’ANDRA, 2002, où sont les déchets RA en France
Climate change assessments Review of the processes and procedures of the IPCC, InterAcademy Committee to Review the
Intergovernmental Panel on Climate Change, October 2010, pp 123
Council
Science V293 3 August 2001 David C. Catling,1,2* Kevin J. Zahnle,1 Christopher P. McKay1
Geochimica Cosmochimica acta,
1995, V59-8, The age of the Earth, C. J. Allègre.
1995, V59-15, Chondrules products of collisions, H.C. Conolly
Chemical Geology, May 1998, V147, 1-2, The degassing history of the Earth
Comptes Rendus de l’académie des Sciences, Fev 1999, L’effet de serre, certitudes et incertitudes
Nature 350, Mars 1991,
350, Mars 1991,
351, Juin 1991,
Intermittent mixing of the mantle
Dimensions and dynamics of co-ignimbrite eruption columns
Geometry of geomagnetic reversals
- 172 -
ENSM-SE, 2° A : axe transverse P N
352, Août 1991,
353, Sept 1991,
357, Juin 1992,
357, Mai 1992,
358, Juil 1992,
358, Aout 1992,
359, Oct 1992,
359, Oct 1992,
360, Nov 1992,
361, Fev 1993,
361, Fevr 1993,
370, Juin 1994,
370, Août 1994,
371, Sept 1994,
377, sept 1995,
402, Nov 1999,
402, Dec 1999,
406, Jul 2000,
410, Apr 2001,
438, Dec 2005,
Nature Geoscience 2008
16/10/12
Deep structure of the Northern Japan arc
Tomographic imaging of subducted lithoshere
Formation of an archean continent
Making sense of meteoric chondrules
Water in the earth's upper mantle
Clues to early solar system history from Cr isotopes in carbonaceous chondrites
Dipolar reversal states of the geomagnetic field
The hydrological cycle and its influence on climate
Deep origin of mid-ocean ridges seismic velocity anomalies
Sismological mapping of fine structure near the base of the Earth mantle
Merging at the magnetopause
A snapshot of the whole mantle flow
the role of magmas in the formation of hydrothermal ore deposits
A mystery in the mantle
Mantle plumes and continental breakup
A polar vortex in the Eatrth’s core
Sismic anisotropy of the Earth’s inner core… induced by Maxwell stress
Evidence for a late chondritic veneer in the Earth’s mantle
Deep-mantle highviscosity flow and thermochemical structure
Slowing of the Atlantic meridional overturning circulation at 25° N
Geodynamics: Layer cake or plum pudding?
La Recherche
95, 1978,
Le champ magnétique des planètes,
141, Fevr 1983, L’origine de l’atmosphère
210, Mai 1989, La tomographie sismologique
221, Mai 1990, L’eau
223, Juin 1991, Le noyau terrestre
246, Sept 1992, Les inversions du champ magnétique terrestre
255, Juin 1993, L'eau dans le manteau terrestre
266, Juin 1994, La convection dans le manteau terrestre
271, Déc 1994, Le coeur des comètes
274, Mars 1995, La dynamique des volcans
291, Oct 1996, La genèse volcanique des continents
296, Mars 1997,L’histoire de la vie
297, Avr 1997, Le passé sismique de la France
308, Avr1998, Le noyau de la Terre.
315, Déc 1998, Le noyau de la Terre tourne-t-il vraiment ?
317, Fevr 1999, Les frontières du vivant
323, sept 1999, La datation au 14C fait peau neuve.
330, Avr 2000, La naissance chahutée du système solaire
341, Avr 2001, Métaux précieux et Terre primitive
Hors Série Avr 2003 La Terre
Hors Série Avr 2004 Le Soleil
382, Janv 2005, Les profondes métamorphoses de la Terre
Science
Mars 2003, N.Caillon et al
Science Magazine
Janv 2011, Ulf Büntgen et al. 2500 Years of European Climate Variability and Human Susceptibility
Pour la Science,
Nov 1983,
Dec 1990,
Juil 1993,
Sept 1994,
Dec 1994,
Juin 1996,
Aou 1997,
Avr 1999,
Fevr 2000,
Juil 2000,
Janv 2001,
Janv 2001,
Mars 2001,
Mai 2006
N° spécial, La planète Terre
L'extinction des dinosaures
La limite du noyau et du manteau
La naissance de la Lune
N° spécial, La vie dans l’univers
N° spécial, L’atmosphère
Les fonds des océans
Les tettres célestes
a) La surface gelée d’Europe
b) Quand la Terre était gelée
N° spécial, La valse des espèces
N° Spécial, Il y a 3 milliards d’années
Vie et mœurs des étoiles
El niño
- 173 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Nov 2001,
Les génies de la science, Kepler
Fevr 2002,
Les fossiles, témoins du passé
Avr/Juin 2002, Hors série, les diamants
Avr 2003,
Le dialogue des séismes
Juil/Sept 2004, La classification des premiers organismes vivants
Nov 2005, La Terre Jeune n’était pas une fournaise
Janv/Mars 2007, Climat, comment éviter la surchauffe
Janv/Mars 2007, L’eau, attention fragile
Juil/ept 2008, Où est née la vie ?
Ciel et Espace
Mars-Avril-Mai 1992,
Sept 1994,
Dec 1994,
Août 1995,
Octobre 2006
Mai 2007,
Octobre 2007
N° spécial, Objectif Planète Terre
Jupiter, les photos de la collision
Système solaire, Les routes de la diversité
Le ciel peut-il nous tomber sur la tête?
Pluton n’est plus une planète
Pourquoi le Soleil est-il innocent ?
Comment le système solaire s’est mis en place
Programme International Géosphère Biosphère-Programme Mondial de Recherches sur le Climat (PIGB-PMRC)
Extrait de la Lettre n°9
Avr 1999 La "calibration" des événements ENSO… L. Ortlieb
Extrait de la Lettre n°10
Fevr 2000 Notre atmosphère depuis 400 000 ans.
J.M. Barnola
Extrait de la Lettre n°12
Juill 2001 L'océan Glacial Arctique aux avant-postes… M.N. Houssais et J.C. Gascard
Extrait de la Lettre n°14
Oct 2002 L’élévation du niveau de la mer
A. Cazenave et C. Cabanes
Extrait de la Lettre n°15
Juin 2003 L'Oscillation Nord Atlantique
C. Cassou et L. Terray
Extrait de la Lettre n°15
Juin 2003 Les changements abrupts du climat
F. Grousset
Extrait de la Lettre n°15
Juin 2003 Variabilité climatique rapide…
V. Masson-Delmotte et A. Landais
Extrait de la Lettre n°16
Mars 2004 Le changement climatique enregistré…
P. Wagnon et C. Vincent
Extrait de la Lettre n°17
Dec 2004 Evolution de la quantité de vapeur d’eau Stratosphérique J. Ovarlez
GIEC, 2007 : IPCC Fourth Assessment Report
Bilan 2007 des changements climatiques. Contribution des Groupes de travail I, II et III au quatrième
Rapportd’évaluation du Groupe d’experts intergouvernemental sur l’évolution du climat.
Working Group I Report "The Physical Science Basis"
Working Group II Report "Impacts, Adaptation and Vulnerability"
Working Group III Report "Mitigation of Climate Change”
Journal of Physical Oceanography
Vol 125, 1995
A Mechanism for the Recurrence of Wintertime Midlatitude SST Anomalies,
M.A. Alexander & C. Deser
Bulletin of the American Meteorological Society,
Vol 78,
1997,
A Pacific interdecadal climate oscillation with impacts on salmon production. N. J.
Mantua, S. R. Hare, Y. Zhang, J. M. Wallace, and R. C. Francis
Geophysical Research Letters
Vol 29,
2002,
General characteristics of temperature variation in China during the last two millennia.
Yang, B., Bräuning, A., Johnson, K.R., Shi, Y.
Journal of climate
Vol 14-1, 2001.
North Pacific Decadal Climate Variability Since AD 1661, F. Biondi et al.
Rev. Geophys
V 42,
2004
Cazenave and R. S. Nerem,: Present-day sea level change: Observations and causes.
Physics of the Earth and Planetary Interiors
Vol 153, pp 136–149, 2005
Liquid sodium model of geophysical core convection
W. L. Shewa and D. P. Lathropb
Energy & Envirnment
Vol 18 N°2,
2007
180 Years of atmospheric CO2 Gas Analysis by Chemical Methods
Beck, E.G.,
,
2002.
29
(9),
- 174 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
Physics of the Earth and Planetary Interiors
Vol 162 ,256–260, 2007 Correlation of Earth’s magnetic field with lower mantle thermal and seismic structure
David Gubbins, Ashley P. Willis 1, Binod Sreenivasan
Astronomical Journal,
Vol 134, 2007,
Dynamics of the Giant Planets of the Solar System in the Gaseous Protoplanetary Disk
and Their Relationship to the Current Orbital Architecture", Morbidelli, A., Tsiganis, K., Crida, A.,
Levison, H.F. and Gomes, R
American Meteorological Society
2008
Decadal Trends in Sea Level Patterns: 1993–2004
Astronomical Society of Australia
Vol 25 N°2, 2008
Does a spin–orbit coupling between the Sun and the Jovian planets govern the solar
cycle?
Wilson, I. R. G., Carter, B. D. & Waite, I. A.)
Géophysical Research Letter
Vol 28,
2001,
The Atlantic Multidecadal Oscillation and its relationship to rainfall and river flows in
the continental U.S., D.B. Enfield et al., 2077-2080
Vol 35,
2008,
Renewed growth of atmospheric methane, M. Rigby et al., pp6
Vol 36,
2009
Observational constraints on recent increases in the atmospheric CH4 burden. E. J.
Dlugokencky et al.
Physical Geography,
Vol 30-2, 2009,
Solar Arctic-mediated climate variation on multidecadal to centenal timescales:
empirical evidence, mechanistic explanation and testable consequences, Willie W.-H. Soon
Climatic Change
DOI 10.1007 2009 Persistent multi-decadal Greenland temperature fluctuation through the last millennium
Takuro Kobashi et al.
Global and Planetary Change,
v. 65, iss. 1-2, 2009, Sea level budget over 2003-2008: A reevaluation from GRACE space gravimetry, satellite
altimetry and Argo, A. Cazenave et al., , A. p. 83-88.
J. Petrology
Vol 52, 7-8, 2011,
A Reappraisal of Redox Melting in the Earth’s Mantle as a Function of Tectonic Setting
and Time , S. F. Foley
Vol 51, 10 2010
Carbonate-fluxed Melting of MORB-like Pyroxenite at 2·9 GPa and Genesis of HIMU
Ocean Island Basalts,
C. Gerbode and R. Dasgupta
Atmosphereic Chemistry and Physics (Open Access Journal of the European Geosciences Union)
10, 27603-27630,
Source attribution of the changes in atmospheric methane for 2006–2008
Journal of Climate
Vol 24, pp 4096-4108, 2011
Influence of ENSO on Tropical Cyclone Intensity in the Fiji Region
S. S. Chand and K. Walsh
************************
- 175 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
PLAN du POLY
AVERTISSEMENT AU LECTEUR
Site WEB consulté
Prologue
Quelques idées fortes
CHAPITRE 1
A - La conduction
B - La Convection
C - L’advection
D - Les bilans énergétiques internes
1 - Les sources de chaleur de la Terre
2 - L’état thermique de la Terre
3 - L’allure du géotherme terrestre
Sites WEB consultés
Quelques idées fortes
CHAPITRE 2
A – Classification des météorites
1 - Les aérolites : chondrites-achondrites
aLes chondrites :
bLes achondrites :
2 - Les sidérites, ou Fers
aLes hexaédrites
bLes octaédrites,
cLes ataxites
3 - Les sidérolithes
aPallasites :
bMésosiderites :
cLodranites :
B - Composition chimique des météorites
1 - Aperçu de la composition du Soleil
Proton-Proton Cycle
Carbon-Nitrogen-Oxygen Cycle
2 - Météorites et composition solaire
C - Les météorites différenciées et le fractionnement chimique dans le système solaire
1 - Relation de Titius et ceinture d’astéroïdes
2 - le fractionnement des éléments chimiques des corps massifs et les météorites différenciées
2 - le fractionnement isotopique des espèces chimiques
a- Le fractionnement d’équilibre chimique
b- Le fractionnement d’équilibre physique
c- Le fractionnement cinétique de transport
d- Le fractionnement cinétique de réaction
D - Les chondrites, météorites non différenciées
1 - Les chondrites sont des objets apparus très tôt dans l'effondrement gravitaire de la nébuleuse.
2 - Les chondrite, objets primitifs, produit de la condensation de la nébuleuse
3 - Vers une contribution de plusieurs étoiles à la chimie de notre Soleil ?
E - Les comètes, second type d’objets primitifs, encore plus froids
1 - Des petites boules de neige sale
2 - La chevelure des comètes
Sites WEB consultés
quelques idées fortes
CHAPITRE 3
A - Gravimétrie et Géodésie
1 - Cavendish a mesuré la constante G, en 1798 à Paris.
2 - La mesure de la pesanteur
3 - Isostasie : comportement hydrostatique de la lithosphère
4 - Géodésie satellitaire
B - La séismicité
1 - Les ondes émises par un ébranlement
a - ondes de volumes
b - ondes de surface
2 - Distribution des séismes
- 176 -
1
2
3
10
11
11
12
14
14
15
17
18
20
20
21
22
22
22
24
24
25
25
25
25
26
26
26
27
27
27
27
28
28
28
30
32
32
33
33
33
34
34
36
38
40
40
41
42
42
43
43
43
44
45
46
47
47
48
48
49
ENSM-SE, 2° A : axe transverse P N
16/10/12
3 - La propagation des ondes
50
a - Rebroussement des ondes de volume
50
b - La fonction temps –distance des ondes de volume
51
c – Le chant de la Terre : oscillations propres
52
d – Magnitude et Intensité d’un séisme
52
4 - Hétérogénéités terrestres : le modèle PREM
53
aLa Croûte Terrestre.
55
b - manteau supérieur
55
c - manteau inférieur
56
dLe Noyau
57
C - Le magnétisme
58
1 - le champ magnétique terrestre,
58
2 - Le champ déformé de la magnétosphère
59
3 - Le champ terrestre est actif
59
4 - Un champ magnétique auto-entretenu
60
Sites WEB consultés
63
quelques idées fortes
64
CHAPITRE 4
65
A - Le Noyau Terrestre
65
1 - Le noyau liquide
65
2 - La graine solide
66
3 - Les inversions du champ terrestre
68
B - Le couplage Noyau-Manteau-Atmosphère et la couche D"
68
1 - Nature de la couche D"
69
2 - Couche D", accumulateur de chaleur
69
C - Le Manteau Terrestre
71
1 - Minéralogie du manteau
71
Minéral
71
2 - Fusion partielle du manteau
72
a - Le manteau en quelques paramètres intensifs
72
b - Le manteau : 2 paramètres externes, P & T, et La fusion partielle du Manteau
72
3 - La tomographie sismique du manteau supérieur
74
a - Zones d’accrétion
74
b - Zones de subduction
74
4 - La tomographie sismique du manteau inférieur
75
5 - Vers une convection à 1 ou 2 couches ?
76
D - La valse à trois temps, l’Adéen, l’Archéen, et les Temps Modernes
78
1 - L’Adéen, une naissance tourmentée
78
a - Scénario d’une accrétion à froid en moins de 10 Ma ?
78
b - Un vernis météoritique et cométaire tardif pour la Terre
79
c - Mise en place du système solaire
79
d - Terre-Lune, le couple infernal
80
2 – L’Archéen, une convection mantellique rapide et des komatiites, chaleur oblige…
81
3 - Le début des temps modernes vers 2 Ga.
82
E - La croûte terrestre et la lithosphère, interaction entre manteau et atmosphère
82
1 - Croûte et lithosphère continentale, une mémoire longue, mais effaçable
82
a - Des blocs ceinturés
84
b - Une hétérogénéité verticale et horizontale
84
2 – Croûte et lithosphère océanique Une mémoire courte de 200 Ma.
85
a - La lithosphère océanique est issue de la fusion du manteau dans les zones d'accrétion
85
b - La lithosphère plongeante provoque la fusion du manteau dans les zones de subduction et fabrique de la croûte
continentale
88
3 - Le fractionnement magmatique
88
a - Le processus de fractionnement (cf. TP Axe GP)
88
b - Depuis quand le fractionnement de la croûte continentale à partir du manteau supérieur fonctionne-t-il?
89
Sites WEB consultés
92
quelques idées fortes
93
CHAPITRE 5
95
A - Composition de L’atmosphère Terrestre actuelle
95
B - Structure thermique et chimique verticale de l'atmosphère
96
1 - La Troposphère
97
a - Troposphère et phénomènes climatiques
97
b - Troposphère, siège de l’effet de serre
97
c – Réchauffement climatique ou « global warming ».
101
1) Le Dioxyde de Carbone
105
- 177 -
ENSM-SE, 2° A : axe transverse P N
16/10/12
2) Le Méthane
3) Le Protoxyde d’Azote et le Dioxyde de Soufre
4) Impact des GES sur la T° globale
5) Le rôle des radiations solaires.
2 - La stratosphère et la protection contre les UV solaires
a - Cycle de Chapman
b - Quatre types de réactions rendent l'ozone formé instable:
c – Impact des SAO
3 - La mésosphère
4 - La thermosphère
C - Stratification électromagnétique de l'atmosphère :
1 - La neutrosphère et l’ionosphère
2 - La magnétosphère
D - Circulation de l'atmosphère
1 - Force de Coriolis
2 - Cellule de Hadley, ITCZ et cyclones
3 - Cellule de Ferrel, vents géostrophiques et Cellule polaire
E - Circulation océanique
1 - Coriolis : Transport d’Ekman et courants Géostrophiques
2 - la circulation thermohaline
a - Température et thermocline.
b - Salinité et halocline
3 - Rôle de la topographie et de la latitude.
a - Gyres océaniques
b – Westerlies ou Quarantièmes et les cinquantièmes
c - « Upwellings »
4 - Les couplages océan-atmosphère.
a- El Niño / Southern Oscillation system (ENSO) Couplage Océan-atmosphère,
b - PDO / Pacific Decadal Oscillation, Couplage Océan-Atmosphère
c - NAO / North Atlantic Oscillation ou AO/ Arctic Oscillation, un même couplage Océan-Atmosphère
d - AMO Atlantic Multidecadal Oscillation
5 - Le modèle du Tapis Roulant
6 – Eustatisme = Variations du niveau marin
F - Histoire de l'atmosphère
1 - L'atmosphère primaire de la Terre : héritage des gaz piégés lors de l’accrétion
2 - L'atmosphère secondaire de la Terre : fille des volcans
a - le dégazage du manteau terrestre a-t-il été précoce ou tardif?
b - Le dégazage du manteau terrestre a-t-il été Instantané ou lent? Unique ou multiple? Total ou partiel?
3 - L'atmosphère tertiaire de la Terre : le sceau de la vie ?
a – La précipitation de l’océan sur Terre
b – La précipitation de l’océan sur Mars ?
c - L’apparition de la vie et l’apparition des conditions oxydantes
d - L’explosion de la diversité, un scénario très mal documenté
4 –L’ultime évolution de l’atmosphère-biosphère, Le sceau de l’homme
a - Le décryptage des archives glaciaires
b - Les changements cycliques du climat
c - Les oscillations rapides du climat
Sites WEB consultés
quelques idées fortes
Epilogue
Ouvrages consultés et illustrations
Mesures CO2 Mona Loa (Annexe 1)
Ouvrages consultés
PLAN du POLY
- 178 -
109
110
110
120
121
121
122
123
124
125
125
125
125
126
127
127
129
129
129
130
130
131
133
133
134
134
135
135
137
138
140
140
144
146
146
147
148
149
150
150
151
153
156
161
161
162
164
167
168
169
171
171
171
176
ENSM-SE, 2° A : axe transverse P N
- 179 -
16/10/12
ENSM-SE, 2° A : axe transverse P N
- 180 -
16/10/12
Téléchargement