ENSM-SE, 2° A : axe transverse P N - 1 - 16/10/12 ENSM-SE, 2° A : axe transverse P N - 2 - 16/10/12 ENSM-SE, 2° A : axe transverse P N 16/10/12 AVERTISSEMENT AU LECTEUR Malgré 10 années d’existence, des modifications et ajouts variés, ce poly n’est toujours pas un cours complet. Ce n’est d’ailleurs pas son objectif, même si sans doute trouverez-vous ici ou là au long de ces cent quarante pages, un fourmillement rebutant de connaissances trop (?) pointues typiques d’un cours. Son propos est de venir en aide au lecteur dans sa compréhension des processus naturels en le baladant dans des échelles de temps ou d’espace très varié et en tirant ici ou là sur la pelote par de multiples brins. En effet, une approche globale (voire systémique) des processus est indispensable à la compréhension des phénomènes naturels et cette culture devient d’autant plus nécessaire qu’avec les temps modernes, l’homme est bien devenu la 1ere espèce dont l’activité influencera le futur de notre planète. Il ne faut ni s’en enorgueillir ni en avoir peur, mais garder à l’esprit que les générations que nous formons aujourd’hui auront à agir demain en étant capable de considérer leur action en termes de problèmes globaux, dans leur complexité et dans le respect de ce qui l’entoure, animal, végétal, minéral. Pour ces générations, de plus en plus peuplées et actives, le caractère holistique des processus naturels — au sens où ceux-ci ont tendance au travers de leur La dilapidation des ressources naturelles est, pour les combustibles fossiles, irréversible pour la fraction déjà consommée. Elle est même semble-t-il impossible à réduire pour les sociétés les moins industrialisées2. Face à cette situation, le plus dérangeant n’est pas tant la disparition d’une énergie quand d’autres sont renouvelables et seront largement à la disposition de l’homme dans le futur, que l’épuisement d’un gisement source d’une foule d’applications autres qu’énergétiques. Nous, « HomoIndustrialicus » aurons à porter la culpabilité de la disparition de cette richesse aux yeux de ceux qui suivront. Oui, sur ce plan là, l’irréversibilité de nos actes est lourde de conséquences. L’Homme, face au mur, réagira, mais sera-ce en regard de cette responsabilité ? Il faudra pour cela qu’elle soit comprise. S’agissant d’éléments utiles à la fabrication de nos objets et outils manufacturés, l’épuisement de la ressource est virtuel. Le recyclage devient la norme constituera le nouveau gisement, délocalisé et permanent, dont la raréfaction sera en quelque sorte presque seulement dépendante de la taille de la population mondiale3. fonctionnement à créer des ensembles structurés qui présentent des dimensions supérieures à la somme de leurs parties — imposera de les aborder avec une pensée complexe en vue d’une politique de développement soutenable. Le mot anglais « soutenable » est peut-être préférable à « durable », dont la connotation temporelle entrave la compréhension du concept en laissant penser qu’il s’agit de faire durer l’état actuel quant il s’agit au contraire de le faire évoluer. Le développement soutenable implique une politique de croissance responsable et respectueuse, fondée sur la mitigation1 et non sur un retour supposé vertueux (et complètement irrationnel) aux temps d’avant, Eden écologique pour une pensée unique. Viser à limiter l'intensité de certains aléas tels que ceux liés à des phénomènes climatiques et géologiques impose d’en saisir les processus et les interactions. Et même si nous devions en venir à considérer toute politique de mitigation comme inaccessible, en terme de coût aussi bien que de technique, il resterait à fournir l’indispensable effort d’adaptation aux changements d’environnement qui, de toute manière, attendent notre espèce et auxquels, de toutes façons, nous n’échapperons pas ! 1 Mitigation : du latin mitigare), signifie atténuation. Dans le cadre de la prévention de risques majeurs naturels, l’objectif de la mitigation est d'atténuer les dommages sur les enjeux, afin de les rendre plus supportables par la société. 2 L’absolue nécessité de rattraper leur retard économique, ou simplement de cuire, de se chauffer, de se déplacer implique, pour les sociétés les plus pauvres, l’utilisation des ressources les moins chères, pour l’heure les combustibles fossiles, quel qu’en soit le prix à payer à long terme. On voit combien il y a loin des intentions aux accords (Kyöto, Montréal ou Copenhague) et des accords aux réalités qui les suivent… La mitigation passe ici très certainement par notre capacité à proposer des techniques de substitution au moins aussi rentables en terme de coût/performance. Une stratégie adaptative s’impose à nous qui ne relève pas des éco-taxes ou autres incitations à consommer moins, quand le rêve du modèle développé pilleur des ressources qui est le nôtre multiplie les besoins d’une population en pleine croissance, tant démographique qu’industrielle. C’est une Grameen green mitigation participative qu’il nous faudra inventer. 3 On voit bien ici comment la mondialisation des échanges s’accompagne d’une prise de conscience que le jardin planétaire est borné. L’idée qu’un jour le nombre des individus devra l’être aussi est déjà perceptible à travers l’émergence de notions telles que le nombre d’individus que la Terre est capable de nourrir. Là encore une stratégie d’adaptation prévaudra sur un « croissez et multipliez » ancestral, nécessaire au salut d’un groupe initial faible vivant dans un espace infini pour lui, mais devenu destructeur pour un groupe nombreux exerçant une prédation forte sur un - 1 - ENSM-SE, 2° A : axe transverse P N L’utilisation des deux ressources vitales, l’air dont nous commençons à peine à saisir l’importance d’une gestion, et l’eau, tombée du ciel et donc toujours considérées comme bénédiction des dieux — utilisez à votre convenance le singulier ou le pluriel — seront demain au cœur des préoccupations humaines. Protéger et gérer nécessite une compréhension claire du cycle de l’eau, du carbone, des substances contaminantes etc., ainsi que des interactions entre tous les réservoirs. Passant par nos besoins, cette eau merveilleuse rejoint un cours d’eau, « diluteur » muet des rejets dont nous le chargeons, dont nous ne connaissons que la surface. Parfois seulement (hélas), la vie de ce fleuve vient nous rappeler au détour d’une angoisse médiatisée que nous nous sommes forgé un vrai souci (e.g. les PCB). Certes, les pays industrialisés ont pris conscience qu’ils ont les moyens de s’éviter des problèmes à venir et l’eau de nos rivières devient chaque jour moins sale. Pour le reste, l’immensité océanique si mal connue4 sert encore trop souvent de boîte de Pandore à nos déchets, on la considère à tord comme un garde-manger inépuisable, le moyen idéal de circulation sans entretien pour nos marchandises5, sur des bateaux pollueurs (fortunes de mer, dégazages, conteneurs etc.), voire parfois des quasi-épaves flottantes6… Tous ces problèmes ne sont pas récents. Le Nouvel Obs. écrivait en 2000, N°1879, « 40 000 navires de plus de 300 tonneaux sillonnent en permanence les océans et un bateau rejoint tous les trois jours le fond des mers » et de rajouter, presque en commentaire par anticipation à notre propos, « Mais plus que naufrages et dégazages sauvages, c’est la terre et ses fleuves poubelles qui polluent massivement la mer » Bref, inconsciemment ou pas, l’homme d’aujourd’hui a largement mutualisé ses déchets, mais choisi une démarche conflictuelle (y compris en U.E.7) pour gérer la ressource. Il eut mieux valu une approche systémique à l’échelle de la ressource et des déchets générés, espace fini. 4 La première carte des fonds océaniques, celle de l’atlantique Nord, publiée par B. Heezen et M. Tharp, date de 1957, et la publication de l’ensemble des fonds océaniques mondiaux (par les mêmes auteurs) à attendu 1977. En outre, nous sommes encore très loin d’avoir identifié toutes les espèces vivantes, leurs cycles de vie, leurs interdépendances. 5 En 2005, 50.000 navires sillonnaient les mers du globe, Plus de 6 milliards de tonnes ont transité par mer cette année là, soit 80% du trafic commercial mondial. 6 Les pavillons de complaisance sont nombreux, les sociétés de classification des navires ne sont pas toujours transparentes, 12 seulement des 50 sociétés existantes dans le monde sont agrées par l’Europe. pour une gestion commune… Dans « la voie pour l’avenir de l’humanité » 2011, Edgard Morin explore des possibles réformes, rêves peut-être, utopies sans doute, mais la route que l’humanité s’est tracée devra changer ; la réussite de notre espèce a résidé dans sa capacité à coévoluer avec notre monde, pas sûr que nous gagnions à refuser plus longtemps d’en faire partie. Notre regard est en train de changer. La perception de la finitude du milieu qui nous accueille (espace et temps), dont la mondialisation n’est qu’une des manifestations, se fait jour. Elle vient s’ajouter à celle de la diversité croissante et non finie des connaissances indispensables à la prise en compte de la complexité des processus mis en jeux. L’approche systémique de l’interface géosphère ∩ Atmo-hydro-sphère ∩ biosphère est une absolue nécessité pour mieux aider à comprendre et à réduire la vulnérabilité des enjeux qui nous attendent… Ce dernier point n’est déjà plus notre propos, et nous limiterons les objectifs de ce poly à fournir quelques unes des clefs indispensables pour appréhender les processus naturels de manière globale. Il s’agit là d’une obligation particulière, qui impose une remobilisation très forte de nos modes de fonctionnement. J’emprunterai aussi à Edgar Morin la prise de conscience qu’il nous faut faire, que la cause profonde du danger qui nous guette « est d'abord dans l'organisation de notre savoir en systèmes d'idées, de théories, d'idéologies », que la science peut, par spécialisation excessive, conduire vers « une nouvelle ignorance liée au développement de la science elle-même, à l'usage dégradé de la raison. Tant que nous ne relions pas les connaissances selon les principes de la connaissance complexe, nous restons incapables de connaître le tissu commun des choses… …les erreurs progressent en même temps que nos connaissances. N'est-il pas urgent de réinterroger une raison qui a produit en son sein son pire ennemi, la rationalisation? Utiliser ce poly dans le but d’assembler vos savoirs en une trame vous donnant à lire la complexité du monde est beaucoup plus important à mes yeux que d’apprendre par cœur tel ou tel nom de roche ou de minéral. C’est en le lisant que vous distinguerez quels sont les bagages nécessaires, quels viatiques il vous faudra porter pour connaître le tissu commun des choses sur 5.6 milliard d’années d’une histoire toujours renouvelée (à différentes échelles), de l’inerte au vivant, ou comme l’aurait dit C. Allègre, « de la pierre à l’étoile ». De la sorte, j’espère que le promeneur trouvera dans cette lecture un tremplin vers de nombreux sites web ou bouquins et une aide pour relier entre eux les multiples savoirs qu’il aura ainsi acquis ou replacés. Bonne lecture… 7 Est-il besoin d’évoquer ici la nécessité d’une gestion européenne du Rhin et du Danube ? Faut-il citer le partage des eaux du Colorado entre USA et Mexique ? Rappeler le partage du Tigre et de l’Euphrate entre Turquie, Syrie et Irak ? Rechercher ailleurs que dans l’eau des sources de l’annexion du Golan Syrien par Israël ? Evoquer la mort des fleuves Amou Daria et Syr Daria et le sort lié des pêcheurs de la mer d’Aral, etc. 16/10/12 J.L.B. Site WEB consulté http://www.grameen- - 2 - ENSM-SE, 2° A : axe transverse P N info.org/index.php?option=com_content&task=view&id=465&Itemid= 16/10/12 547 Prologue Un trop bref historique Aristarque de Samos Une remarque s’impose : la géologie et sa sœur jumelle au combien plus âgée, l’astronomie, se distinguent considérablement des autres sciences car l’expérience qu’elles étudient est unique, et contient ses expérimentateurs. Ni l’astronome ni le géologue ne peuvent agir sur le milieu qu’ils étudient, pour des raisons d’échelle de temps ou d’espace, et ils doivent donc se contenter de l’observer ponctuellement de l’intérieur, à la rigueur le tester en petit, au mieux le modéliser, à partir de données éparses ; le risque de se tromper est donc grand ! Aussi, la collection des informations sur des temps qui dépassent souvent la durée de vie des observateurs a-t-elle joué et joue-t-elle encore un rôle essentiel dans le progrès de ces sciences. La bibliothèque d’Assurbanipal contenait au ∼VII° siècle des tablettes astronomiques dont les plus anciennes remontent sans doute au ∼8XX° siècle. Ces tablettes évoquent la marche en zigzag des planètes par rapport aux constellations, et contiennent des tables des éclipses passées, qui servaient à prédire celles à venir. On comprend bien ici comment le développement de ces sciences passe largement par le stockage et l’analyse d’observations fiables, et donc parallèlement par l’accroissement des performances des instruments de l’observation. Toutefois, nous en arrivons vite à un tel degré d’accumulation de résultats, de multiplicité des méthodes d’études, que le nombre des paramètres mesurés devient trop important pour que nous puissions les appréhender dans leur ensemble. Cela nous force souvent à recourir à l’image (e.g. les cartes), dont « l’immanence » parle mieux à notre cerveau que de longues colonnes de nombres. Néanmoins, pour bien comprendre les systèmes naturels complexes, il devient urgent d’apprendre à combiner l’ensemble des informations, en se dépouillant de l’inutile par la sélection des observations, et en confrontant l’information à la théorie éphémère, dans un aller-retour ouvert et fécond sans hiérarchie de valeurs. Porte ouverte ? Il n’est que de regarder par exemple nos débats modernes qui rassemblent souvent Grands Scientifiques et Politiques pour constater que l’argumentaire idéologique est encore largement présent, et pas toujours seulement chez le Politique !… La représentation du monde dans nos civilisations ouest-européennes est marquée très tôt par une double démarche. D’un côté, comme l’écrit J.C. Ameisen en 2008 à propos du vivant dans « Dans la lumière et les ombres », « la Genèse fige, une fois pour toute la diversité des espèces vivantes. Et sépare radicalement la création de l’être humain de la création de toutes les autres espèces… Tels qu’ils sont, et demeureront, depuis l’origine ». Ainsi, le récit 8 ~ = avant Jésus Christ ; AD = Anno Domini pour après Jésus Christ. fondamental des 3 grandes religions monothéistes, très largement répandu maintenant, interprète-t-il notre univers à partir d’une intention divine unique et définitive. Le 2°courant de pensée, hérité des Perses, développe, chez les Grecs, la vision d’un monde habité par les hommes mais aussi par les dieux et qui ne doit rien à ces derniers. Au ~V° siècle, pour Anaxagore de Clazomènes, « rien ne se perd, rien ne se crée, tout se transforme (maxime célèbre que lui empruntera Lavoisier). Les êtres et la matière ne se produisent ni ne se créent, mais se transforment. Pour lui, tout est matière et chaque chose se compose des mêmes éléments, qu’il aurait nommés atomes, mais en des proportions différentes. Cette idée préfigure celles de Démocrite, père de la théorie atomiste. Et le philosophe généralise sa pensée, écartant un éventuel « intelligent design » dans la nature : « ce n’est certes pas par réflexion ni sous l’emprise d’une pensée intelligente que les atomes ont su occuper leur place ; ils n’ont pas concerté entre eux leurs mouvements. Mais comme ils sont innombrables […] et qu’ils s’abordent et s’unissent de toutes les manières possibles […] il est arrivé qu’après avoir tenté unions et mouvements à l’infini, ils ont abouti enfin aux soudaines formations massives d’où tirèrent leur origine ces grands aspects de la vie : la Terre, le ciel, les espèces vivantes » Ibid. Dès cette époque, entre ~VII° et ~IV° siècle, pendant que la bible hébraïque prend la forme que nous lui connaissons, se met en place en Grèce chez les présocratiques une démarche scientifique pour laquelle tout est toujours en train de naître = nature. Les philosophes mettent l’observation au premier plan de leurs disciplines. Elle conduira à des déductions très précoces qui auraient pu nous protéger du géocentrisme… La question de la forme de la Terre apparaît très tôt dans l’esprit humain. A l’articulation des ~VII° et ~VI° siècles avant JC, Thalès de Milet (vers ~625-547) se préoccupait déjà d’une représentation de l’univers. Dans celle-ci, la Terre était un disque flottant comme du bois sur l’eau, dans un espace rempli d’eau, la « matière primordiale ». On reconnaît souvent dans cette façon de voir de Thalès l’influence des mythologies anciennes pour lesquelles l’eau est un élément essentiel, tel le Nil des égyptiens ou les deux océans inférieur et supérieur à Babylone. C’est avec l’école de Milet que naît la rationalité ; elle est la première à distinguer le naturel du surnaturel, et pour Thalès, la description du monde n’est plus seulement métaphysique (l’histoire d’une création) mais aussi une connaissance physique. La recherche de causes naturelles pour expliquer les phénomènes commence. Parallèlement, la discussion logique des arguments devient une nécessité. Anaximandre de Milet (~610-546), élève de Thalès, est considéré comme le père de l’idée de « nature », c'est-àdire de naissance perpétuelle du monde. Pour lui l’origine - 3 - ENSM-SE, 2° A : axe transverse P N Fig. 1 : le monde et la Terre selon Anaximandre le jour en été 16/10/12 et vitesses de rotation bien choisis, pour rendre compte du mouvement des astres autour de la Terre. Le système de Ptolémée ne sera qu’une variante bien plus tardive, mais plus efficace, de ces tentatives géocentriques de représenter notre univers. Par contre, encore au ~V° siècle, avec Anaxagore de Clazomène (~500-428), dont nous avons déjà rappelé la vision atomiste (avant la lettre) d’un monde qui se réorganise perpétuellement sous la direction d’une forme d’intelligence organisatrice, le « noûs » (prononcer nousse), l’observation du cosmos fait sortir les astres du panthéon. Pour lui, ils ne sont pas des dieux mais des masses incandescentes. Il a eu l’intuition que les planètes et la Lune étaient des corps solides analogues à la Terre, lancés dans l’espace. Il en avait déduit que les éclipses de Lune résultent de l'immersion de celle-ci dans l’ombre de la Terre, et que la lumière qu’elle émet n’est que le reflet de celle du Soleil… Il en mourra, car pas plus dans le monde grec de l’époque qu’après ou ailleurs, il ne fut et n’est partout possible d’irriter sans risque les croyances ou les tenants du blasphème facile. la nuit en hiver http://fr.wikipedia.org/wiki/Anaximandre La Terre… sans l’océan du monde n’est plus un point singulier dans le temps, mais une perpétuelle naissance dont découle ce qui est ou sera. Il vise à sortir les 4 éléments, l’air, la terre, l’eau et le feu de leur conception mythologique pour en donner une explication physique et expliquer comment se sont formés la Terre et les êtres vivants à partir des interactions entre les 4 éléments. Sa conception de l’univers est cylindrique (Fig. 1). Celui-ci est infini et la Terre en occupe le centre, où elle flotte en équilibre ; elle est un cylindre de hauteur égale à 1/3 de son diamètre, entouré d’une masse océanique circulaire. Un tel modèle cylindrique autour de la Terre rend compte (Fig. 1) de la disparition des astres sous l’océan (jour-nuit) et de la hauteur variable des astres dans le ciel (saisons), questions sur lesquelles la représentation de Thalès venait buter. Pour plus de détails, lire l’article aisément accessible de Wikipedia. Avec Pythagore, (vers ~580 – vers ~490), bien connu pour son fameux théorème, apparaît au ~VI° siècle la sphéricité de l’univers (qu’il nomme cosmos). Mais il ne la démontre pas, elle est nécessaire ; L’empreinte mythologique est forte encore, la sphéricité du monde, comme le caractère circulaire des orbites se doivent d’être parfaits. Il a été fortement marqué par la science des nombres, le calcul arithmétique, la géométrie et l’astronomie, et en fait les principes fondamentaux de sa vision du monde et de la cité. Pour lui les lois naturelles reposent sur des lois mathématiques. Les élèves de l’école pythagoricienne seront à l’origine d’idées très fécondes : pour Philolaos de Crotone, vers ~470, la Terre sera mobile dans le cosmos ; plus tard, pour Hecitas de Syracuse, au ~IV° siècle, la Terre tournera sur elle-même… C’est à Parménide, (vers ~510 – vers ~450) que l’on attribuera le plus souvent la rotondité de la Terre, même s’il est probable qu’il faille l’attribuer à Pythagore. La même philosophie de perfection des cercles ou sphère portant les divinités est encore présente au ∼V° siècle quand Eudoxe, élève de Platon, propose une représentation du mouvement des planètes par des mouvements circulaires uniformes, «seuls dignes de la perfection des corps célestes». Il faudra à Eudoxe un total de 27 sphères emboîtées (Fig. 2a), aux axes Ainsi, si Socrate (~470-399) est souvent considéré comme le père de la philosophie occidentale, c’est d’abord parce qu’il compte parmi les inventeurs de la morale. Sa vision du monde est essentiellement spirituelle. Son monde était divisé en deux domaines, celui des hommes et celui des dieux ; Ce faisant, il remplace par des causes finales les causes physiques des phénomènes naturels mises en avant par les présocratiques, dont nous venons de parler. Expliquer le comportement des astres (réputés du domaine des dieux) par le raisonnement (pertinent dans le seul domaine des hommes) est donc synonyme d’impiété. Ainsi Socrate est en parfait accord avec l’idée de causalité ordonnatrice des choses chez Anaxagore, mais il rejette toute causalité mécanique du même auteur… Avec Démocrite, (vers ~460 – vers ~370), on retrouve l’idée de nature, et celle-ci est composée pour l’auteur du ~IV° siècle de 2 principes : ce qui est plein, qu’il nomme atomes et entre les atomes, le vide (ou néant). Les atomes sont solides et indivisibles, leur taille les rend inobservables. Ils constituent tous les composés, donc les 4 éléments, l’air, la terre, l’eau et le feu. Ils se déplacent éternellement, dans le vide infini, ils génèrent toute chose en se réunissant, et se maintiennent ensemble jusqu’à leur dispersion, destruction de toute chose… Belle intuition… A la même époque, ~V°- ~IV° siècle, Platon (~427348) creuse le sillon tracé par Socrate avant lui, en particulier dans son approche de l’éthique et dans le principe de causalité. Ainsi lit-on dans http://fr.wikipedia.org/wiki/Platon. « Pour connaître le monde, il faut se rapporter à sa cause… » et « …pour que le monde sensible existe il faut qu’un démiurge le crée ». L’empreinte mythologique se traduit dans la conception de l’univers de Platon : La terre est Fig. 2a : sphères d’Eudoxe au centre et immobile ; le mouvement des planètes est expliqué par un système de sphères emboitées. Eudoxe de Cnide, (~408-355) fut l’élève de Platon ; Il est connu pour sa - 4 - ENSM-SE, 2° A : axe transverse P N Fig. 2b : déplacement rétrograde de Mars sur la voûte étoilée, explication héliocentrée 16/10/12 Fig. 3 : la Terre tourne sur elle-même théorie des sphères homocentriques (Fig. 2a) qui sont venues parfaire le modèle de Platon. Pour rendre compte du déplacement rétrograde apparent des planètes externes sur la sphère étoilée (Fig. 2b), le mouvement de chaque astre est construit par la combinaison des mouvements de plusieurs sphères. Le système géocentré des sphères homocentriques est faux, mais il est néanmoins d’une précision remarquable puisqu’Eudoxe calcule une durée de l’année égale à 365 jours ¼ ! Toutefois, ce système complexe présente un défaut majeur dont il semblerait qu’il fut décelé très vite, à l’époque d’Eudoxe : chacune des planètes reste à une distance fixe de la Terre. Or, elles offrent une luminosité variable, qui ne s’explique qu’en faisant varier leur distance à la Terre. Ce défaut ne sera gommé que plus tard, au II° siècle AD, par Ptolémée. Nous y reviendrons. Au ~IV° siècle, Aristote (~384-322) est le fondateur du Lycée, aussi nommé école péripathétique puisque l’on y enseignait en marchant. Les idées d’Anaxagore lui permettront l’observation de la rotondité de la Terre, grâce à l’ombre portée par la Terre sur la Lune lors d’une éclipse. Mais il fut surtout un disciple de Platon, d’abord dogmatique puis ensuite plus critique, mais il resta néanmoins un philosophe spiritualiste. C’est pourquoi Saint Thomas d’Aquin fera de la philosophie aristotélicienne, 17 siècles plus tard, l’un des piliers de la doctrine chrétienne catholique, servant de référence à la fois spirituelle et scientifique… Héraclide du Pont (∼IV° siècle encore) eut quant à lui l’idée de faire tourner la Terre sur elle-même pour expliquer le mouvement apparent des étoiles (Fig. 3). Pour les Grecs cultivés de cette époque, la sphéricité des corps célestes ne faisait plus de doute, et les notions de latitude et de longitude sont alors apparues. Aristarque de Samos (~310-230), allait « pousser le bouchon » fort loin, en affirmant que la Terre est non seulement ronde et qu’elle tourne sur elle-même, mais encore qu’elle tourne autour du Soleil. Cela explique dès cette époque l’alternance des saisons et simplifie considérablement le système des sphères d’Eudoxe. Il va plus loin encore en observant que le diamètre apparent de la Lune peut être reporté trois fois dans le disque d'ombre de la Terre. Le diamètre de la Lune déduit du diamètre du cylindre d'ombre vaut donc 1/3 de celui de la Terre. Il mesure la taille angulaire du disque lunaire ∆ comme étant égal à 1°, commettant là une erreur du simple au double (il n’est que de 0.5°) et calcule alors la distance Terre-Lune en fonction de cet l’angle solide et du diamètre D de la Lune, qu’il a estimé à 1/3 de celui de la Terre. On pourrait écrire l’approximation suivante : ∆ x 180 / π x D = 57 x D Mais l’évaluation précise de π ne sera faite que plus tard, par Archimède de Syracuse (~287-212) et les notions de trigonométrie n’apparaîtront qu’au ∼II° siècle avec Hipparque de Nicée (~190-120). Aristarque utilisa donc pour ses calculs les tables de données astronomiques héritées des babyloniens, remontant jusqu’à Ninive aux environs du ~XX°. Aristarque observe aussi que le demiquartier de Lune se produit lorsqu’elle reçoit les rayons solaires de façon exactement perpendiculaire au segment Terre-Lune (Fig. 4). Il mesure l’angle sous lequel se situe le Soleil par rapport au segment Terre-Lune, égal à 87° (il est en fait de 89.85°) et calcule une distance Terre Soleil égale à 19 fois ce segment Terre-Lune. Son erreur de mesure sur l’angle (2°85) est suffisante pour que le résultat de la distance relative Terre-Soleil soit très largement minoré ; cette distance est 22 fois plus grande. Mais avec Aristarque, tous les éléments de l’héliocentrisme sont en place. On peut dire que dès cette époque, les Grecs anciens ont développé tous les arguments qui auraient dû faire perdre à notre globe « son caractère immuable et privilégié, au centre de tout » (E.Universalis). Pour substituer à la création parfaite et immuable des dieux l’image moderne d’un univers en mouvement et en perpétuelle évolution (ou renaissance), conforme à l’idée de nature, il ne manquait plus que l’observation clairvoyante des fossiles (bien qu’Anaximandre de Milet ait déjà entrevu la transformation du vivant dès le ∼VI° siècle). Au ∼III° siècle, Eratosthène (276 - 194) pratiqua la première mesure précise de la sphéricité de la Terre (Fig. 5) ; il avait noté qu’au solstice d’été les puits d’Assouan (Syène à l’époque) étaient inondés de lumière, alors que Fig. 4 : la mesure de la distance Terre Soleil par Aristarque de Samos Fig. 5 : 1° mesure de la rotondité de la Terre Encyclopedia universalis - 5 - ENSM-SE, 2° A : axe transverse P N Fig. 7 : illustration de la théorie des épicycles Fig. 6 : point vernal et déplacement de l’axe de rotation de la Terre sur le cône de precessio, l’obélisque d’Alexandrie conservait une ombre. Estimant que ces deux localités sont sur le même méridien, il mesura une différence de latitude de 7°12’ (au lieu 7°07’); connaissant la distance des 2 sites aux approximations près de l’époque, il en déduisit une valeur de la circonférence terrestre de 250000 stades, soit environ 46000 Km (soit 128 Km/°), une valeur somme toute très approchée des 40000 Km mesurés de nos jours (soit 111.11 Km/°) ! Au ∼II° siècle, Hipparque (190 – 120), allait faire l’invention géniale de la précession des équinoxes9 (Fig. 6). On sait aujourd’hui que la précession est provoquée par le couple de forces exercées par la Lune et le Soleil (1 seul corps dans la figure 6) qui tend à ramener l’axe de rotation de la Terre sur la normale au plan de l’écliptique. Le déséquilibre introduit par ce couple provoque la rotation de l’axe de la Terre autour de la normale au plan de l’écliptique. Hipparque observa que la position de l’étoile 9 16/10/12 il remarqua que l’axe de rotation de la Terre décrit un cône à la manière d’une toupie (en 36000 ans d’après Ptolémée). En mécanique, un objet tournant tel une toupie ou un gyroscope va connaître un mouvement de précession s'il n'est pas équilibré, c'est-à-dire si la résultante des moments des forces qui s'exercent sur lui n'est pas nulle. Dans ces conditions, la période de précession TP est la suivante: TP = 4π2.Is / C.Ts Dans laquelle: Is est le moment d'inertie, Ts la période de rotation autour de l'axe de rotation et C est le couple. http://serge.mehl.free.fr/chrono/Hipparque.html Spica avait changé depuis les descriptions des Babyloniens. Il calcula, en comparant la position de l’étoile Spica à l’époque de Babylonien et à son époque, que l’axe de rotation de la Terre s’était déplacé de 2° sur le cône de précession ! Il estima que le déplacement était de l’ordre de 1°/siècle (au lieu de 72 ans) et qu’il était le même pour toutes les étoiles. Il allait hélas aussi réinventer le géocentrisme. Il allait en cela être suivi au II° siècle AD par Ptolémée. Dans son ouvrage « de Megale Syntaxi », rédigé en grec mais très répandu grâce à une traduction latine (« Almagestum »), Ptolémée invente la théorie des épicycles. Cette idée est si brillante qu’elle nous inspirera jusqu’à la Renaissance. Il est vrai que le discours sur les astres de Ptolémée n’est pas entaché des défauts du système d’Eudoxe. La théorie des épicycles (Fig. 7) rend parfaitement compte des mouvements apparents des planètes et introduit les changements de distance à la Terre nécessaires. Elle s’ajuste parfaitement à plusieurs siècles d’observations, et fait naître des tables numériques et des règles de calcul très performantes, qui permettent de prédire avec précision le positionnement des planètes et des étoiles. Les connaissances des grecs nous seront transmises par les Arabes, enrichies de nouvelles observations acquises par la construction d’observatoires réputés, comme celui de Bagdad au IX° siècle. Le principal mérite reconnu aux romains est d’avoir su archiver et traduire les connaissances de leurs administrés. Les tables de calcul de Ptolémée seront réécrites au XIII° siècle sous Alphonse X de Castille (Tables - 6 - ENSM-SE, 2° A : axe transverse P N Alphonsines), car le rôle essentiel de l’astronomie et de la médecine de l’époque se confond encore, comme dans l’antiquité, avec ce que nous nommons aujourd’hui astrologie. On voit encore mal comment, face à tant de cyclicité, tant de prédictibilité, l’esprit humain pourrait un jour admettre définitivement qu’il n’est pas régit par un Ordre supérieur. Même de nos jours, bousculée par l’astronomie moderne, la « science divinatoire» a certes quitté le panthéon astronomique, mais c’est pour mieux crédibiliser le thème astral, le tarot ou la boule... Pour la première fois depuis Aristarque, le Soleil revient au centre de notre monde avec les redécouvertes de Copernic (« Commentariolus » écrit en 1514 et « De Revolutionibus orbium coelestium », 1543). Il remplace les sphères de Ptolémée par des «orbes» solides qui entraînent chacune des planètes autour du Soleil. Pourtant, l’œuvre de Copernic n’est déterminante que parce qu’elle implique l’héliocentrisme. Elle ne repose sur aucune observation nouvelle, et si Copernic place le Soleil au centre du monde, c’est seulement parce qu’il est l’astre le plus brillant et que c’est de lui qu’émanent chaleur et lumière. En outre, il considère comme les philosophes anciens que le mouvement circulaire et uniforme est le seul possible car «le plus parfait ». Dans la 2° moitié du XVI° siècle, Tycho Brahe fait construire par Frédéric, roi de Danemark, un observatoire remarquablement instrumenté, qui lui permet d’accumuler 20 ans d’observations systématiques de la Lune, des planètes et du Soleil, avec une précision angulaire exceptionnelle, de l’ordre de la minute. Johannes Kepler, adepte de Copernic, tirera des cahiers que Tycho Brahe laisse à sa mort en 1601 que les orbites solaires ne sont pas des cercles mais des ellipses, et que le Soleil en occupe l’un des foyers. Il déterminera alors le mouvement réel des planètes. L’Eglise ne s’opposa pas tout de suite au système de Copernic. Elle, qui considérait la création de Dieu comme parfaite et donc immuable10, n’y voyait qu’une nouvelle méthode de calcul des tables des planètes. Ce n’est que lorsqu’elle réalisa que cela remettait en cause le géocentrisme d’Aristote qu’elle réagit, en brûlant vif en 1600 le disciple de Copernic Giordano Bruno qui affirmait que les étoiles sont d’autres soleils, puis en condamnant Galilée en 1633. En effet, grâce à l’usage de la lunette (1610), les observations de Galilée sur la rotation du Soleil, les satellites de Jupiter et les phases de Vénus, témoignaient avec une précision redoutable en faveur du système de Copernic. Parallèlement, le médecin Fernel avait tenté dès 1530 de mesurer un arc de 1° en partant de Paris. Après avoir parcouru 1° de latitude vers le nord, il revint à son . C’est le même fixisme pilier de la pensée officielle fondée par la scolastique sur un corpus de textes choisis rigoureusement (essentiellement le nouveau et l’ancien testament, plus les écrits aristotéliciens) qui s’opposera encore au XIX° siècle aux idées transformistes de JeanBaptiste de Monet de Lamarck (" La Philosophie zoologique ", 1809) puis et surtout à l’évolutionisme que Charles Robert Darwin développe en 1859 dans " L’Origine des espèces ". 10 16/10/12 point de départ par le coche, en comptant le nombre de tours de roue effectué par celui-ci. Après moult corrections de topographie, il obtint la valeur de 110.6 km. En 1617, le géographe hollandais Snellius, inventeur de la mesure à longue distance par triangulation donnait une valeur très inexacte de 107 km pour 1° en hollande. L’abbé Picard, en inventant le théodolite en 1669 (lunette de Galilée munie d’un réticule), permet des mesures plus précises et obtient aux environs de Paris la valeur de 111.212 km. C’est à peu près à cette époque (1660-1665) qu’Isaac Newton formula sa fameuse loi de la gravitation universelle, qu’il ne publiera que plus tard, en 1687, mais il est important de noter qu’avec la mesure du méridien terrestre, Newton a pu entreprendre la première vérification numérique de sa loi. Admettons avec lui en première approximation que le mouvement de la Lune ne dépend que de la Terre, qu’il est circulaire autour de la Terre et que la Lune est animée d’une vitesse angulaire ω constante. Posons encore que l’accélération de la pesanteur terrestre est égale à g à la surface de la terre, c’est à dire à la distance R du centre de la Terre, et qu’elle vaut ω2D au centre de la Lune. Leur rapport g/ ω2D est égal au rapport inverse du carré des distances D2/R2. Or en raison de l’observation de la parallaxe astronomique de la Lune, le rapport D/R est déjà connu avec précision à cette époque, et Newton put calculer la valeur du rayon terrestre R= g/ω2*(R/D)3. L’excellente cohérence de ce calcul avec le résultat de la mesure de Picard allait l’encourager grandement à publier ses résultats. En 1672, à l’occasion du déplacement d’une horloge à Cayenne, l’horloger Richer constate que celle-ci, parfaitement réglée à Paris, prend ici un retard de 2’30’’ /jour. Newton interprète immédiatement ce retard comme le résultat de la force axifuge (nulle au pôle et maximum à l’équateur) qui diminue la valeur de g, et il comprend aussi que cette Terre qui pour lui avait dû se comporter comme un fluide en révolution au moins durant ses premiers âges, devait aussi avoir la forme d’un ellipsoïde de révolution. La mesure de 1°d’arc méridien devrait donc augmenter de l’équateur au pôle (fig.4 Chp. 3.A.2). Dans Philosophiae naturalis principia mathematica, qui est souvent considérée, avec le De revolutionibus de Copernic, comme une des œuvres majeures de l’esprit humain, Isaac Newton allait enfin formuler en 1687 la synthèse tentée pendant tant de siècles entre les phénomènes terrestres et célestes, et mise au goût du jour par Copernic, Brahe, Galilée et Kepler. Principe de l’inertie, loi de l’accélération F = mg, et enfin principe de l’action et de la réaction constituent la base de l’ouvrage. Ensuite, à partir des lois de Kepler, Newton remonte à la cause première, la gravitation universelle: «Deux corps quelconques s’attirent en raison directe de leurs masses, et en raison inverse du carré de la distance de leur centre de gravité». Certes, la vulgarisation définitive des idées des grecs anciens et des coperniciens devra attendre les vues prises des grands télescopes et des satellites qui nous en apporteront la confirmation par l’image, mais avec Newton les outils du raisonnement sont déjà en place et la planétologie peut dès lors avancer à grand pas. Au début du XVIII° siècle, à la suite d’une mesure erronée de la longueur du méridien Dunkerque-Perpignan, Cassini prétendait, en désaccord avec les idées de Newton, que la Terre avait la forme d'un citron, avec un rayon polaire plus grand que le rayon équatorial. C’est P.L. Moreau de - 7 - ENSM-SE, 2° A : axe transverse P N Maupertuis qui vérifia le premier l’aplatissement polaire de notre globe. Il compara la longueur d’un arc de méridien qu’il mesura lors d’une expédition en Laponie en 1736-1737 avec la longueur de l’arc de méridien mesuré à Paris. Lors de la campagne d’exploration menée au Pérou, de 1735 à 1744, P. Bouguer et C. M. de La Condamine effectuèrent la même mesure. Les résultats sont sans appel! Le rayon polaire est de 6356 Km et le rayon équatorial de 6378 Km, 22 Km de différence, et la Terre n’est donc décidément pas ronde. Aller plus loin dans l’analyse des formes de la Terre attendra ensuite l’avènement du satellite artificiel, dont le détail de la trajectoire, en nous renseignant avec précision sur la distribution des masses à l’intérieur du «globe» terrestre, nous permettra passer de la morphologie mathématique de l’ellipsoïde à la forme mesurée de l’équipotentielle de pesanteur, que nous appelons géoïde. Néanmoins, dès la fin du XIX° siècle, Wiechert avait montré par l'analyse des mouvements du globe que la Terre est constituée d'au moins 2 couches de densités très différentes. En effet, le moment d'inertie de la Terre serait égal à 0.4 MR2 (M = masse, R = rayon) si elle était homogène et de densité uniforme; il est en fait plus petit (0.33MR2), ce qui indique un excès de masse vers son centre. A l'aube du XX°, les 3 couches essentielles de notre planète sont reconnues. Les coupures sont de nature chimique : 1 - l'atmosphère - Associée à l’hydrosphère, elle regroupe les éléments volatils et gaz rares; son histoire est encore largement controversée ; 2 - le manteau - Il est solide et de nature silicatée; la croûte terrestre, elle aussi de nature silicatée ne représente qu’une pellicule superficielle à la surface du manteau dont elle dérive ; longtemps mise en doute, la séparation du manteau en deux réservoirs indépendants est maintenant largement acceptée, avec un manteau inférieur relativement primitif et un manteau supérieur appauvri parce qu’ayant donné naissance à la croûte terrestre. 3 - le noyau - Il est liquide et de nature métallique (fer) ; le cœur, ou graine, est solide. Il donne naissance au champ magnétique terrestre. 16/10/12 Les mêmes coupures, avec présence d'un noyau métallique Fe ou Fe+S, sont observables sur les autres planètes dites « telluriques » proches du soleil (Fig. 8a), alors que les planètes plus éloignées, à cœur rocheux de petite taille, dites « joviennes », n'ont pas de noyau métallique Fe ou Fe+S (Fig. 8b). Les télescopes puissants du XX° siècle auront largement contribué à l’observation des 9 planètes de notre système (Tableaux 1 à 3), mais il reste beaucoup à faire pour en comprendre la physique, la chimie, et par delà, l’origine et le devenir. Notons ici que la distribution des masses volumiques des corps du système solaire n’est pas quelconque (tableau 2 et fig.9). Situées au voisinage du Soleil, les planètes rocheuses et leurs satellites ont une masse volumique élevée (ρ>3Kg/dm3) dans la première séquence. Elles sont donc très largement appauvries en éléments légers par rapport au reste. Mercure, Vénus et Mars voient leur masse volumique décroître avec la distance au Soleil. Le couple Terre Lune n’obéit pas à cette loi (ρ= 5.52 et ρ=3.34 respectivement), même si le barycentre des deux masses volumiques (pondéré par les volumes) occupe une place moins anormale (ρ= 5.46). La naissance tourmentée de ce couple, que l’on pourrait presque considérer comme une planète double, est une cause probable de perte supplémentaire en éléments légers (cf. Chp. 4.D.1). Jupiter (en vert) est la première des planètes externes (gazeuses) ; elle appartient à la deuxième séquence, mais montre encore de nombreux satellites dont la masse volumique moyenne supérieure à 2 les situe encore dans la première séquence de la figure 2. Saturne (deuxième planète gazeuse) et son cortège (violet), apparaissent clairement comme les corps les moins denses de notre système ; ils constituent toute la troisième séquence et la partie «légère» de la deuxième. Enfin, Uranus (marron), Neptune (bleu) et Pluton (cyan) se rangent par ordre croissant de masse volumique avec leur distance au Soleil, et appartiennent toutes trois à la séquence moyenne, de densité voisine de celle du Soleil (en jaune). Une telle distribution des masses volumiques autour d’un minimum assez éloigné du Soleil (Saturne) impose une histoire précoce complexe à notre étoile et à son cortège de planètes, nous y reviendrons. Fig. 8a : Les planètes rocheuses ; Mercure Venus Terre Mars Fig. 8b : Les planètes gazeuses ; Jupiter, Saturne, Uranus Neptune, - 8 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Tableau 1: Les planètes du système solaire et leurs satellites VÉNUS MERCURE TERRE MARS Lune Phobos Deimos JUPITER Métis Adraste Amalthée Thébé Io Europe Ganymède Callisto Léda Himalia Lysithée Elara Ananké Carmé Pasiphae Sinope SATURNE Atlas Janus Prométhée Epiméthée Mimas Pandore Encelade Thétis Télesto Calypso Dioné Rhéa Titan Hypérion Iapetus Phoebé URANUS Miranda Ariel Umbriel Titania Obéron NEPTUNE Triton Néréide PLUTON Charon . Tableau 2: Planétologie comparée : rayons et masses volumiques du Soleil, des planètes et de leurs satellites Corps Rayon Soleil Mercure Venus Terre Lune Mars Phobos Deimos Jupiter Léda Adraste Ananké Sinope Lysithée Métis Carmé Pasiphae Elara Thébé Amalthée Himalia Europe Io Callisto Ganymède 695000 2440 6052 6378 1737 3397 10 6 71492 8 10 15 18 18 20 20 25 38 50 90 93 1569 1815 2403 2631 Masse Volumique 1.41 5.42 5.25 5.52 3.34 3.94 2 1.7 1.33 2.7 4.5 2.7 3.1 3.1 2.8 2.8 2.9 3.3 1.5 1.8 2.8 3.01 3.55 1.86 1.94 Corps Rayon Saturne Pandore Prométhée Epiméthée Janus Phoebé Hypérion Mimas Encelade Thétis Dioné Iapetus Rhéa Titan Uranus Miranda Ariel Umbriel Obéron Titania Neptune Triton Pluton Charon 60268 45 50 55 90 110 150 196 250 530 560 730 765 2575 25559 236 579 585 761 789 24764 1350 1137 586 Masse Volumique 0.69 0.7 0.7 0.7 0.67 0.7 1.4 1.17 1.24 1.21 1.43 1.21 1.33 1.88 1.29 1.15 1.56 1.52 1.64 1.7 1.64 2.07 2.05 1.83 Fig.9 : distribution des poids volumiques dans le système solaire. Elle se découpe en trois séquences : la première, à droite, débute avec Léda à la "densité" 2.7 et se termine avec la Terre (r=5.52) ; la deuxième est celle des "densités" moyennes, elle est centrée autour de celle du Soleil ( r=1.41) et s’étale continûment entre Miranda (r=1.15)et Triton(r=2.07) ; la troisième, de "densité" minimale (r=0.7) est celle de Saturne et de certains de ses satellites. 6 5 4 3 2 1 0 s u n aJ e rn u ta S er o d n a P … té … h t éb m ém eo o r ip h PEP a sa si d té n i h ar m i MT M s tu e p Ia e d lae c n E s u n ar U aé h R re it p u J n io ré p y H ile l o S é n io D é b é h T le le ir ir b A m U e n u t p e N n ai o ré n a b itT O s eé n o h o r m ie tla ah D mC A - 9 - o ts lil a C n tai T … è s o m y b o n a h GP n o t u l P n to ir T a d é L ék n a n A é si ali ea t m ra é a h i i p C Mm H sa P e p ro u E eé th is y L e p o n i S ar al E e o s e s e e n I ra ts u ru rr u M ar n e c e L d V re T A M ENSM-SE, 2° A : axe transverse P N 16/10/12 Tableau 3: planétologie comparée Planète Mercure Vénus Terre Distance au soleil (u.a.) Période de révolution (jours) Temps de rotation Obliquité de l’axe de rotation Inclinaison sur l’écliptique Excentricité de l’orbite Rayon équatorial (km) Rayon polaire Aplatissement Masse (unité de masse :Terre) Densité moyenne Pesanteur à l’équateur Vitesse de libération (km/s) Nombre de satellites connus Champ magnétique 0.387 0.723 1.000 87.969 224.701 365.256 58.65j -243.01 23.934 h 0° - 2° 7.00 0.205 2439 2439 O Jupiter Saturne Uranus Neptune Pluton 1.523 5.202 9.538 19. l8l 30.057 39.44 27.321 686.980 4332.589 10759.22 30685.4 60189.0 90465.0 id. 24.622h 9.841 h 10.233 h l7.2 h l7.8h L6.38 h 23.44° L 6.41 ° 23.98° 3.08° 29° 97.92° 28.80° ? 3.39 0.006 6052 6052 O 0.016 6378 6356.5 r 0.003 1.32 0.055 1738 1738 0 1.85 0.093 3397 3380 0.005 1.3 0.048 71998 66770. 0.062 2.49 0.055 60000 54000 0.105 0.77 0.047 26145 ? ? 1.77 0.008 24300 23650 0.02 17.2 J 0.250 l20O? ? ? 0.055 0.815 1.000 0.12 0.107 317.893 95.147 14.54 17.23 0.002 ? 5.42 3.78 4.3 5.25 8.60 10.3 5.52 9.78 1.2 3.34 1.63 2.37 3.94 3.72 5.0 1.314 22.88 59.5 0.69 9.05 36.6 1.19 7.77 21.22 1.71 11.00 23.6 r 0.6-l.7? r 4.3? 5.3 ? O O 1 - 2 17 21 15 8 2/100 du champ terrestre 0°C -70°C 0. 1 54 CO2 95% N2 5 % qqs mbar l0-4 T à 15.10-4 T oui oui oui? ? -145°C -133°C -223°C -193°C ? 0.6 Peut-être un ancien satellite de Neptune? 1/100 du champ terrestre +430°C170°C 0.055 Température au sol Albédo Atmosphère Pression au sol Particularités géologiques remarquables Mars non - 3.3.10-5T non 460°C 0.7 CO2 96:5% N2 3.5% 95 bars Pas Révolution d’évolution Rétrograde depuis 3.5. l09 Atmosphère années au dense moins Principaux atomes reconnus (à la surface pour les planètes telluriques) Si O Fe Ti à 7.10-5 T +50°C -90°C 039 N2 78% O2 21% 1 bar Lune Faible Et fossile +120°C - 180 °C 0. 1 2 non - .Présence de vie Un gros satellite : la Lune Satellite de la Terre Présence de glace d’eau Si Al Mg Fe Si O Al Mg Mn O Fe K Ca Ti Si Al O Ca Mg Fe Si O Al Mg Fe S Mg Ca 4. 0.45 He 17% H2 82% ? Rayonne 2.5 fois + d’énergie qu’il n’en reçoit Anneaux 0.45 0.46 93% H2 H2 ? Rayonne 1.8 fois + d’énergie qu’il n’en reçoit Anneaux ? 0.53 Oui mal connue ? Présence d’anneaux Révolution rétrograde La plus dense des géantes Anneaux Présence d’un petit noyau de silicates et de glaces entouré d’hydrogène et d’hélium sous forte pression et sans doute à l’état métallique oui ? ? Sites WEB consultés http://msowww.anu.edu.au/library/thesaurus/french/ http://www.earthsky.com/ http://www.damtp.cam.ac.uk/user/gr/public/index.html http://www.bnf.fr/web-bnf/expos/ciel/index2.htm http://pubweb.parc.xerox.com/map http://visibleearth.nasa.gov/Atmosphere/ http://www.solarviews.com/eng/homepage.htm http://www.astrosurf.com/lombry/menu-science.htm Quelques idées fortes http://www.iap.fr/saf/ http://solarsystem.nasa.gov/index.cfm http://www.nasa.gov http://seds.lpl.arizona.edu/nineplanets/nineplanets/nineplanets.html http://www.bradley.edu/las/phy/solar_system.htm lhttp://www.geologylink.com http://www.planetary.org/ http://www.globe.gov http://web.ngdc.noaa.gov/mgg/image/images.html http://solarsystem.nasa.gov/index.cfm http://system.solaire.free.fr/sommaire.htm Quelques idées fortes : Le mouvement relatif des planètes par rapport aux étoiles est connu depuis au moins à 4000 ans (tablettes d’argile). La notion d’une Terre ronde apparaît chez les Grecs, il y a environ 2500 ans : D’abord par souci « esthétique », et par l’observation des éclipses de Lune ensuite Il y a 2300 ans, Eratosthène prouvait que la terre est ronde Aristarque affirmait que la Terre est ronde et qu’elle tourne autour du Soleil Entre le ∼II° et le XVI° siècle, le géocentrisme : Hipparque Au ∼II°, puis Ptolémée au II° siècle, et tous les savants du moyen âge affirment le géocentrisme Copernic, De revolutionibus au XVI° et Galilée au XVII° siècle remet le Soleil au foyer, et notre Terre à sa place Newton (Philosophiae naturalis principia mathematica) pose en 1786 les bases de la planétologie moderne La Terre n’est donc décidément pas ronde Le rayon polaire = 6356 Km ; rayon équatorial = 6378 Km Les planètes internes Mercure Venus Terre Mars sont rocheuses Les planètes externes Jupiter, Saturne, Uranus Neptune, sont gazeuses - 10 - 22 Km de différence ENSM-SE, 2° A : axe transverse P N Francis Picabia, 1915 16/10/12 CHAPITRE 1 Evacuer la Chaleur de la Planète « Très rare tableau sur la Terre » 1915 La Terre est une machine thermique « deux en un ». a) Depuis la naissance de la Terre jusqu’à sa mort, la machine thermique endogène n’aura cessé de transporter une chaleur interne aux origines diverses: 1 - chaleur « initiale » récupérée de l’énergie cinétique des poussières, cailloux et planètésimaux et autres lunes lors de sa naissance par accrétion ; 2 - chaleur latente de cristallisation de son noyau, encore à l’œuvre pour longtemps ; 3 - chaleur provenant de la désintégration des éléments radioactifs contenus dans le manteau et la croûte ; b) Depuis l’allumage du Soleil, la machine thermique exogène transporte la chaleur externe provenant du rayonnement solaire dans l’atmosphère, l’hydrosphère et la partie superficielle de la croûte terrestre. Les ordres de grandeurs des puissances de ces deux machines sont très différents et leur mesure prend notre imaginaire complètement en défaut, habitués que nous sommes à lézarder sous le soleil d’été et à être effrayés par les violentes colères ponctuelles de Gaïa, la Terre mère. En effet, l’énergie solaire reçue par la Terre est estimée à 342 W. m-2, alors que le flux de chaleur interne traversant la surface du sol est estimé quant à lui à 0,08 W.m-2, soit environ 0,02% seulement de la puissance reçue du Soleil ! Dès le XIX°, Hopkins avait noté que l'état physique du globe, liquide, solide ou mixte, résulte de la compétition entre les 2 modes d'évacuation de la chaleur, la conduction et la convection, eux-mêmes fonction de la viscosité du fluide. La conduction est insuffisante dans les deux machines terrestres, tant pour évacuer la chaleur interne à travers les enveloppes rocheuses, que pour transférer la chaleur solaire de l’équateur vers les pôles à travers l'atmosphère et l’hydrosphère ou la croûte. Par conséquent, la Terre utilise aussi la convection, à travers trois «fluides caloriporteurs»: 1 - le Fer liquide dans le noyau; le magnétisme terrestre est la preuve directe et mesurable en surface de cette convection profonde ; 2 - les solides silicatés du manteau; le déplacement des plaques lithosphériques témoignent de cette convection solide ; 3 - les liquides et gaz (éléments volatils) de l’hydrosphèreatmosphère. En outre, chaque fois qu’il sera fait appel à la convection, nous devrons nous souvenir que la Terre est en rotation, et donc que la force de Coriolis est mise en œuvre. Dans une sphère en rotation, lors d’une convection méridienne, le fluide subit une déviation (gauche ou droite selon l’hémisphère) qui transforme sa trajectoire en une hélice. Dans les 2 milieux à grande fluidité que sont d’une part l’atmosphère-hydrosphère et d’autre part le noyau, le rôle de la force de Coriolis est très important. Il est négligeable dans le manteau car, même si les masses transportées sont considérables, les vitesses de déplacement du matériau rocheux (solide) n’y dépassent certainement pas quelques cm/an à quelques dm/an au maximum. A - La conduction Elle représente d'une part le transport de chaleur par rayonnement (mais celui-ci doit être très faible compte tenu de l'opacité du milieu terrestre) et d'autre part la partie évacuée par vibration de l'architecture cristalline, qui se traduit par le terme de conduction pure. La 1° loi de Fourier, J =-k grad T, exprime le flux de chaleur par unité de surface et par unité de temps. Le flux est proportionnel au gradient de T° (= dT/dx selon la direction x). Le coefficient de proportionnalité k est appelé conductivité thermique. A travers la 2° loi de Fourier, loi de conservation de la chaleur, k.∆T + Q = ρCp∂T/∂ ∂t où ρ est le poids volumique (kg.m-3) et Cp la chaleur spécifique à pression constante (J.kg-1.K-1) s’exprime comme la somme de la quantité de chaleur qui traverse une unité de volume (= k.Laplacien de T°) plus la quantité de chaleur produite à l'intérieur de ce volume Q, on écrit que selon x : k∂ ∂2T/∂ ∂x2 + Q = ρCp∂T/∂ ∂t On suppose ici que k est indépendant de la T°, est la densité. On accède ainsi à la variation de T° avec le temps, selon x, ∂T/∂ ∂t = K∂ ∂2T/∂ ∂x2 + Q avec K=k/ρCp, diffusivité thermique. Le rayonnement correspond au transfert de chaleur entre deux corps séparés par un milieu transparent aux ondes électromagnétiques. On définit un corps de référence appelé « corps noir » dont on peut définir la propriété d'émittance M, comme la puissance émise à travers une unité de surface sur l’ensemble des longueurs d’ondes (0<λ< ∞). On démontre que ce flux d’énergie est de la forme M=σ σT4 où σ est la constante de dΩ Stefan, et T la température. θ Rappel : si l’on considère une source émettant sur un ensemble de λ, Le flux dS ϕ - 11 - ENSM-SE, 2° A : axe transverse P N énergétique polychromatique (puissance) élémentaire dΦ Φ à travers la surface dS sous l’angle solide dΩ (stérad) est tel que : dΦ Φ = L dS cosθ θ dΩ Ω (W/m2stérad) Où L est la luminance de la source pour toutes les λ dans la direction (θ,ϕ) sous l’angle solide dΩ est alors exprimée par la relation L = d2Φ/(dS cosθ θ dΩ Ω) (W/m2stérad) L’émittance M de cette source est définie pour toutes les λ et pour toutes les directions, comme : M = dΦ Φ/dS (W/m2) Lorsque la luminance est indépendante de la direction d'émission (θ,ϕ), on obtient après intégration sur les directions (θ,ϕ) la relation entre émittance et luminance M=πL Nous avons considéré en premier lieu que l'opacité du milieu terrestre était totale. Cela est vrai dans le domaine du visible, mais notre globe est partiellement transparent dans l’IR. Les expériences récentes de A. Goncharov, V. Struzhkin et S. Jacobsen, du Laboratoire de Géophysique de la Carnegie Institution (2006), montrent que les cristaux de magnésio-wüstite, deuxième minéral le plus courant du manteau inférieur (Chp4C1), sont capables de transmettre la lumière IR à PAtm mais sont opaques aux IR dans les conditions de pression du manteau inférieur (définition Chp. 3.B.4.c). La magnésio-wüstite pourrait alors renforcer l’isolation du noyau de la Terre. Si tel est le cas, dans cette région profonde le rayonnement ne contribuerait pas au flux global de chaleur. Cela induirait une convection globalement plus vigoureuse à la base que dans le reste du manteau, qui pourrait alors considérablement renforcer le déclanchement des panaches mantelliques caractéristiques du fonctionnement thermique de notre planète (voir cidessous et Chp. 4.B). B - La Convection Dans ce cas, la matière elle-même est transportée, entre deux couches limites au sein desquelles la chaleur est évacuée par conduction. La figure 1 représente une couche fluide, chauffée par-dessous. Les températures de surface et du fond sont respectivement T0 et T0+∆T. Si une goutte de ce fluide quitte le fond et s'élève de la hauteur δz, suffisamment vite pour ne pas échanger de chaleur avec son environnement, sa décompression adiabatique (α, coefficient de dilatation thermique) impliquera une baisse de température telle que δT = (gα αT/Cp)δ δz où (gα αT/Cp) représente le gradient adiabatique grad Tad. Si le gradient de température supposé linéaire dans la couche fluide est plus petit que le gradient adiabatique (sous adiabatique, grad T< grad Tad , à gauche dans la figure), la Fig. 1, la convection 16/10/12 goutte sera plus froide que son environnement, donc plus dense. Elle redescendra et la convection avorte. Inversement si le gradient de T° est super adiabatique, grad T<grad Tad, à droite dans la figure, la goutte est plus chaude et plus légère que son environnement, la convection est amorcée. Elle tend donc à monter vers la surface. S'il n'y a pas d'échange de chaleur avec l'environnement le gradient de T° se rapproche du gradient adiabatique. On pourrait en déduire que l'existence d'un gradient de température suffit pour entraîner un écoulement convectif. En réalité, pour que le régime convectif s'amorce, le gradient de température doit atteindre un certain seuil. En effet, deux facteurs jouent un rôle important pour le mouvement d'une goutte de fluide et s’opposent : 1) la poussée d’Archimède (dirigée vers le haut) ; 2) la traînée visqueuse (force de frottements) dirigée dans le sens opposé au mouvement. Sa grandeur dépend de la viscosité du fluide. Donc, il n’y a pas de mouvement tant que la traînée visqueuse est égale au 2d facteur, la poussée d'Archimède. Pour que la convection fonctionne, il faut donc une poussée d'Archimède suffisante, c’est à dire: 1 - une pesanteur g (m.s-2), forte; 2 - un coefficient de dilatation thermique α (K-1), élevé; 3 - un gradient de température élevé, donc ∆T (°K) élevé; 4 - une hauteur fluide z (m), élevée (l'écart de température avec l'environnement augmente avec z) 5 - une production interne de chaleur, Q, n'est pas indispensable, mais favorise la convection; et une faible dissipation, c’est à dire: 6 - une diffusivité K (m2.s-1), et une conductivité k (W.m1 .K-1) thermiques faibles, donc une chaleur spécifique volumique importante Cp (J.K-1.m-3); 7 - une viscosité cinématique du fluide ν (m2.s-1), basse ; avec ν = η /ρ (η, viscosité dynamique). On exprime l'ensemble de ces paramètres à travers un nombre sans dimension, dit Nombre de Rayleigh, indépendant des détails du système considéré, et qui, pour une couche horizontale chauffée par-dessous, sera de la forme Ra = gα αz3∆T / νK et pour une sphère chauffée de l'intérieur (Q), sera de la forme: Ra = gα αQ z5∆T / νK Dans le cas où la couche de fluide est comprise entre deux plans infinis, des calculs théoriques montrent que le nombre de Rayleigh critique a une valeur de 1708. Des expériences menées par P. Silveston et E. Koschmieder laissent prévoir également que Ra est de l’ordre de 1700 ± 50. Dans une couche horizontale simple comme la précédente, le fluide devient instable et convecte pour une valeur critique de Ra = 667. La viscosité est un paramètre essentiel de la convection, quelques rappels : 1 - Un fluide parfait, de viscosité nulle, est caractérisé par un module élastique nul, µ = 0. Toute contrainte de cisaillement engendre une déformation irréversible, il coule donc parfaitement. Un fluide visqueux au contraire résiste à l'écoulement. Donc, pour maintenir l'écoulement à vitesse de déformation (ε) constante, - 12 - ENSM-SE, 2° A : axe transverse P N dε/dt = cte, il faut appliquer une contrainte de cisaillement σ. La viscosité, η, est de la forme de σ/ε. 2 - Un solide supporte la déformation de manière élastique en dessous d'une certaine valeur, et une déformation irréversible au-delà. Une contrainte quelconque, appliquée longtemps, provoque une déformation qui croît avec le temps. Le solide s'écoule comme un liquide, on dit qu’il flue, et sa viscosité η est encore définie par le rapport σ/ε, où ε est la vitesse de fluage. Le modèle du corps de Maxwell (Fig.2) rend compte de ce comportement, en écrivant que la déformation totale est égale à la déformation élastique (σ/µ) plus la déformation visqueuse: ε = (σ σ/µ µ) + σ/η ηdt Fig. 2, viscoélasticité : corps de Maxwell µ η Le temps de relaxation d'un tel corps est égal à τ,= σ/η η Pour une contrainte appliquée pendant un temps inférieur au temps de relaxation, le corps a une réponse élastique, alors que pour une contrainte appliquée pendant un temps très supérieur, la réponse sera un écoulement visqueux. Pour le manteau terrestre, on sait que : 1 - la viscosité η est estimée de l'ordre de 1022 poises (ou Pascal.seconde); 2 - le module élastique de cisaillement µ est estimé de l'ordre de 70 G.Pa. D'où l'on tire un temps de relaxation, qui pour le manteau terrestre est de 450 ans, valeur tout à fait compatible avec la convection à l'échelle des temps géologiques. On estime à cet égard qu'une cellule convective est parcourue en 106 années. La valeur du nombre de Rayleigh obtenue pour la Terre est de l'ordre de 108. Elle est donc très supérieure à la valeur critique. Pour une sphère en rotation rapide comme la Terre, et un fluide à faible viscosité comme le fer liquide du noyau, la force de Coriolis devient significative. Busse a montré que la circulation convective prend alors la forme de colonnes étroites parallèles à l’axe de rotation de la sphère. La formulation de la théorie des plaques, en combinant la géophysique et la dérive des continents de 16/10/12 Wegener, a permis d'avoir un regard à l'échelle de la planète sur les phénomènes géologiques. Il est maintenant admis que le mouvement perceptible en surface des plaques lithosphériques rigides de la croûte terrestre n'est que le reflet de mouvements convectifs intéressant tout le manteau. Celui-ci est un solide à l'échelle de temps des phénomènes acoustiques qui nous permettent de l'ausculter (cf. Chp. 3.B), mais un fluide à l'échelle des temps géologiques. Si l'observation directe des parties profondes de cette circulation nous est hélas impossible, il nous reste bien sur Jules Verne, mais surtout les modèles dérivés des études de séismologie (cf. Chp. 3B et 4.C). Nous avons exprimé plus avant que la convection dans le manteau est contrôlée par le nombre de Rayleigh, qui décrit la vigueur de la convection. Dans les modèles terrestres, si l’on peut considérer que le plancher océanique constitue la surface supérieure des cellules convectives du manteau terrestre (cf. Chp. 4.E.2 lithosphère océanique), il n’en est pas de même des continents. En effet, la lithosphère continentale échappe presque complètement au recyclage convectif (Chp. 4.E.1 lithosphère continentale). Elle est certes mobile à la surface de la Terre, mais elle reste à la surface. En outre, elle est quasi exclusivement solide, et ne peut donc transférer la chaleur apportée à sa surface inférieure par la convection mantellique que par conduction. Bien identifiée par la sismique, les anglo-saxon donne à cette « seismic-lithosphere » le nom de LID (=couvercle). Elle agit comme un bouclier thermique, dont l´effet plus ou moins isolant est introduit dans les modèles de convection mantellique (e.g. S. Labrosse, C. Jaupart et C. Grigné) par un second nombre sans dimension, le nombre de Biot. Le nombre de Biot s´écrit : B=(kc dm)/(km dc), où kc et km sont les conductivités thermiques respectivement du continent et du manteau, et dc et dm sont leurs épaisseurs. Utilisé dans les calculs de transfert thermique en phase transitoire, il compare la résistance au transfert thermique à l'intérieur du volume d’un corps (ici le continent) à celle de la surface du corps considéré (ici l’interface entre le continent et le manteau situé au dessous). On peut montrer que le flux de chaleur sortant du manteau sous le continent est proportionnel à B.Ti, où Ti est la température à l´interface entre les deux milieux. Un nombre de Biot élevé, correspondant à une épaisseur du continent dc faible ou à une conductivité thermique kc élevée, implique un effet isolant très faible de la part du continent. A l´inverse, un nombre de Biot faible correspond à une forte épaisseur du continent ou à une conductivité faible, et donc, à un fort effet isolant : Fig 3a : convection, passage de la convection en rouleaux à la convection en panaches avec le nombre de Rayleigh 1) R = 105 2) R= 106 3) R= 107 (C. Grigné)Le nombre de Biot dans ces modèles est B=10 ; flux de chaleur à la surface du manteau (en haut) ; gamme des températures (en bas). - 13 - ENSM-SE, 2° A : axe transverse P N 1 - Pour un continent immobile, la convection d'un fluide sous un couvercle conductif se traduit toujours par le développement d´une zone de remontée chaude centrée sous le couvercle-continent, quel que soit son nombre de Biot. En outre la largeur des cellules de convection augmente par rapport à celles du modèle de convection semblable sans couvercle, et leur nombre décroît (2 au lieu de 4). En fonction de la vigueur de la convection, les modèles suggèrent que l’on passe d’une convection en rouleaux correspondant à un écoulement lent et laminaire (Fig. 3a1, Nombre de Rayleigh faible 105) à un modèle de gouttes séparées de fluide chaud (panaches) plus rapides que leur environnement, qui traduisent la turbulence du milieu (fig. 3a2-3a3, Nombre de Rayleigh moyen et fort, respectivement 106 et 107). L´écoulement peut atteindre un état stationnaire dans le mode lent, mais pas dans le mode rapide. Le second enseignement de ces modèles de circulation mantellique est que la largeur des cellules convectives est corrélée d’une part au nombre de Rayleigh (fig. 3a) et d’autre part à la taille du couvercle (fig. 3b). 2 - Pour un continent mobile, au stade initial, le continent est immobile. Dans un premier temps la divergence installée sous le continent par les ascendants mantelliques provoque la dérive du continent jusqu’au droit d’un descendant mantellique, point de convergence des cellules convectives. L’effet de bouclier thermique du continent devenu stable se traduit alors par une modification complète de la distribution des cellules, jusqu’à apparition d’une Fig 3b : modèles de convection mantellique (C. Grigné), présence d’un continent mobile et influence de la largeur du couvercle ; Nombre de Biot B=10 ; Nombre de Rayleigh R = 107 16/10/12 nouvelle divergence sous le continent. Si la taille du continent influe directement sur la taille des cellules convectives, on observe en outre une évolution très nette de la largeur des cellules convectives avec le déplacement du continent. Initialement larges tant que le continent reste immobile, elles sont rapidement remplacées par un système de cellules de longueur d’onde bien plus petite dès lors que le continent est mobile. L’effet cumulatif de bouclier (qui se traduit par l’allongement des cellules) disparaît avec la mobilité de ce dernier. Si de tels modèles ont l’immense avantage de visualiser le phénomène convectif, ils ne permettent pas encore de rendre compte de la complexité du phénomène terrestre. La géologie nous enseigne par exemple que le rift océanique (qui correspond à un ascendant mantellique) peut se poursuivre à travers le continent, et qu’il peut entraîner sa rupture (e.g. la ride Indienne qui se poursuit en Mer Rouge et dans le rift Est Africain). Le bouclier continental afroarabique apparaît ici passif, fragilisé et dilacéré par la convection mantellique. Quelle est l’influence réelle de la surchauffe continentale sur la position des ascendants mantelliques ? La position des continents détermine-elle celle des panaches ascendants ? Nombre de géologues discutent encore le mouvement relatif des plaques et suggèrent qu’il résulte de la traction par les plaques subductées. La question a-t-elle un sens ? Nous verrons aux chapitres 3 et 4 que la distinction d’un manteau inférieur et d’un manteau supérieur vient compliquer encore la circulation dans le manteau, et que les interactions entre le manteau et le noyau sont aussi un facteur à prendre en compte. C - L’advection La convection est le mode premier du transfert de chaleur dans le manteau, ce qui n’interdit pas bien entendu qu’une partie de la chaleur du manteau est aussi transmise vers l’extérieur par conduction. Nous venons de voir que la lithosphère, partie rigide de la Terre (et en particulier la lithosphère continentale), ne permet pas la convection, et donc que le transfert la chaleur s’y effectue par conduction. a) couvercle de petite taille Mais dans la lithosphère, le volcanisme en provenance du manteau transporte lui aussi de la chaleur vers la surface, sous forme de matériau chaud qui reste stocké dans la lithosphère. Le volcanisme représente ainsi une perte de chaleur qui ne s’effectue ni par conduction ni par convection, mais par advection. D - Les bilans énergétiques internes La Température mesurée dans les mines, croît si vite avec la profondeur, en moyenne 30°C.Km-1 dans les continents, que l'on a admis longtemps que sous l'écorce solide, la Terre devait être encore liquide. En fait, si le gradient (ou géotherme) mesuré en surface était linéaire, la température serait si forte au centre (environ 200 000°) que la Terre devrait être volatilisée! b) couvercle de grande taille voir animations de C Crigné sur http://www.emse.fr/~bouchardon/ - 14 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Fig. 4a : Bilan énergétique interne Volcanisme Refroidisement lithosphère océanique Tectonique Radio-Activité Lithosphère Convection Radio-Activité Energie Mécanique Conduction Radio-Activité Manteau supérieur Manteau Mouvements différentiels Radio-Activité Manteau inférieur Chaleur initiale Convection champ magnétique Noyau Chaleur initiale Radio-Activité Chaleur latente de cristallisation Si l’on imagine que la Terre fut essentiellement liquide dans un premier temps mais qu’elle ne l’est plus de Pour en terminer avec les sources de chaleur primitive, il faut ajouter le rôle des éléments radioactifs à vie courte, 129I et en particulier 26Al, de période 740 000 ans (voir Chp.2D1). Leur contribution fut éphémère et peut être considérée comme négligeable au-delà de 10 périodes11. Pour l’essentiel, la radioactivité est dûe à quelques éléments pères, dits radioactifs, qui se déstabilisent spontanément en éléments fils radiogéniques. Tous très lithophiles, c'est-à-dire ayant une affinité chimique forte pour les magmas granitiques et les minéraux des roches de la croûte terrestre, ils sont absents ou quasi-absents du noyau, ils sont relativement abondants dans le manteau et ils sont très largement concentrés dans la croûte terrestre avec les autres éléments lithophiles. 1 - Les sources de chaleur de la Terre Avant la découverte de la radioactivité (Becquerel 1896), on était obligé d'admettre que la chaleur dissipée de nos jours était due exclusivement à l'énergie cinétique primitive emmagasinée sous forme de chaleur lors de la formation de la Terre. Cette chaleur primitive d'origine gravitationnelle a été récupérée lors des 500 premiers millions d’années de la vie de la Terre. En un premier temps, c’est la condensation du gaz et des poussières de la nébuleuse en petits corps qui transforme son énergie potentielle en chaleur. Progressivement, la période d’accrétion à froid (voir Chp.4D1a) cède place aux impacts entre corps de moins en moins petits, puis entre planètésimaux, qui transforment de l’énergie gravitationnelle en chaleur. Enfin, dans une Terre que l’on s’accorde à penser être devenue entièrement liquide, la différenciation du noyau en fer et nickel achève cette période de récupération de l’énergie gravitationnelle en chaleur. La séparation de ces deux éléments, très abondants, a deux causes : i) ils sont les plus massiques des éléments abondants, oxygène, silicium, aluminium et magnésium (voir Chp.2B1, Fig. 6a) ; ii) ils s’associent aisément en alliage et sont volontiers constitutifs de minéraux sans oxygène (e.g. les sulfures). Ils ont un donc un comportement chimique voisin, comparable aussi à celui du cuivre, on les dit « chalcophiles ». Ils se séparent donc à cette époque précoce et occupent le centre de la Terre, constituant ainsi le noyau. Les autres constituants, aluminium, alcalins, alcalino-terreux et autres, combinés à l’oxygène et au silicium, constituent la seconde enveloppe de cette Terre initiale, le manteau. Les éléments volatiles, qui ne peuvent entrer qu’en petite quantité dans les structures minérales, se rassemblent en une enveloppe extérieure, constituant une atmosphère à cette Terre primitive. nos jours, il faut ajouter à cette énergie initiale la chaleur latente de cristallisation de la planète. En outre, le changement de densité qui accompagne ce changement d’état implique la récupération simultanée d’un peu d’énergie gravitationnelle en chaleur. Quelques autres éléments pères sont le fruit d’interactions de l’atmosphère avec les radiations cosmiques qui y parviennent ; ils sont dits cosmogéniques et se déstabilisent eux aussi en éléments radiogéniques fils. Ils sont bien sûr présents essentiellement dans l’atmosphère et sur la surface de la Terre, dans les sols par exemple. Ainsi, pour le béryllium (Be), qui possède 10 isotopes dont le 9Be stable, le 10Be est le produit d’une Fig. 4b : les éléments radioactifs et radiogéniques dans le tableau périodique. 11 Rappel : la période (demi-vie) d’un élément radiogénique est proportionnelle à la constante de désintégration λ qui représente la probabilité de désintégration de cet élément par unité de tps, T=Ln2/λ; l’expression de la concentration C de cet élément en fonction de sa concentration initiale C0 et du temps t est de la forme C = C0.e-λt. - 15 - ENSM-SE, 2° A : axe transverse P N spallation N ou C dans la haute atmosphère. Il est « récolté » avec la pluie, et son comportement dans les eaux est très contrasté en fonction du pH : il est très soluble sous pH ≤5.5, et précipite au-delà. Aussi est-il volontiers bloqué dans les sols, pour lesquels le couple 10Be → 10B, de période 1.5 Ma devient un excellent traceur de leur formation ou érosion, mais aussi de l’activité solaire, qui se traduira par le taux de spallation ; on peut aussi l’utiliser pour la datation des glaces. Mais le 10Be peut aussi provenir de la spallation des atomes de Si dans les grains de quartz de la surface du sol. Au sein de ces minéraux, il constitue aussi un traceur bien utile. Parmi les éléments cosmogéniques, citons le 11C dont la période très courte (11mn) en fait un traceur à usage médical, le 36Cl et le 41Ca, et enfin l’26Al. Nous avions noté plus avant l’intérêt de ce dernier dans la datation des chondrites. Il est aussi produit en continu par spallation Ar dans la haute atmosphère et peut, comme le 10Be, être incorporé dans les cycles de l’eau et dans les sédiments ou les sols. On estime à 4.2 1013 W (environ 40 térawatts) le flux de chaleur qui traverse actuellement l’interface lithosphère-atmosphère, soit 82 mW.m-2, une quantité 10000 fois moindre que celle fournit par le soleil (cf. Ch.5) Cette estimation est faite à partir de mesures de surface dont la répartition n’est certes pas homogène, mais elle nous semble satisfaisante. A titre indicatif, soulignons que cette énergie interne que dissipe la Terre dans l'espace est environ 104 fois plus faible que celle qu'elle reçoit du Soleil ! Les bilans d’énergie que l'on dresse de nos jours montrent (tableau 1 et Fig. 4) que 50% au moins de l'énergie interne dissipée provient de la désintégration des éléments radioactifs à période longue (238U, 235U, 232Th, 40K en particulier). On connaît bien la quantité de chaleur produite par unité de masse de U, Th ou K, et l’on connaît très bien la composition de la croûte supérieure ; l’estimation de la production est donc aisée pour cette tranche superficielle. Par contre on connaît moins bien la croûte inférieure. De même, on connaît relativement bien le manteau supérieur, grâce en particulier aux ophiolites, véritables radeaux de lithosphère océanique déposés sur les continents, mais nos connaissances sur le manteau inférieur restent très limitées. Néanmoins, on peut proposer le schéma suivant : 1 - les chaînes de désintégration de l’Uranium 238U ⇒ 206 Pb, de période λ=4.5 Ga., et 235U ⇒ 207Pb (λ=0.71 Ga.) produiraient 1013 watts dans le manteau ; 2 - La chaîne 232Th ⇒ 208Pb (λ=14 Ga.), produirait aussi 1013 watts dans le manteau ; Fig. 4c : Evolution de la chaleur dégagée par la radioactivité à vie longue depuis la création de la Terre 16/10/12 Tableau 1, bilans énergétiques internes Nature lieu de dissipation radioactivité croûte continentale croûte océanique manteau supérieur manteau inférieur noyau manteau noyau noyau liquide chaleur initiale chaleur de différentiation chaleur latente de cristallisation énergie gravitaire manteau mouvements différentiels lithosphère processus tectoniques lithosphère séismes météorites total quantité d’énergie 1012W 4.2 - 5.6 0.06 1.3 3.8 - 11.6 0 - 1.2 7 - 14 4–8 1 - 2.8 1 0–7 0.3 0.03 ? 42 3 - La chaîne 40K ⇒ 40A,40Ca (λ=1.28 Ga.) serait responsable de 0.4 1013 watts dans le manteau 4 - Ces sources U, Th, K dégageraient 0.8 1013 watts dans la croûte. Bien que celle-ci représente un petit volume par rapport à celui du manteau, elle apporte une contribution comparable à celle du manteau supérieur, car les éléments radioactifs à vie longue y ont été concentrés principalement par différenciation à partir du manteau supérieur, qui représente les 670 premiers Km du manteau terrestre. 5 - La contribution des principaux éléments radioactifs a beaucoup évolué avec le temps (Fig. 4c), à la fois globalement on estime le dégagement de chaleur radioactive des premiers instants à 2.5 10-11 w.kg-1 contre 0.6 actuellement ; dans la figure, on note que les contributions relatives des différents éléments ont beaucoup évolué, d’une part en fonction de leur abondance initiale et d’autre part en fonction de leur période ; ainsi, 235U qui était initialement le 1° contributeur à la chaleur dégagée, est quasi épuisé maintenant (1/64° de sa concentration initiale) et ne représente plus rien en terme de chaleur actuellement. Le total représente 3.2 1013 watts. Il reste donc 1013 watts qui représentent la part de la chaleur initiale, soit environ 24% Le comportement du potassium lors de la différenciation initiale de la Terre (Cf. § météorites différenciation) n'est pas encore clairement compris. Si l'on admet qu'une partie du 40K a été entraînée dans le noyau liquide lors de cet épisode, celui-ci possède sa propre centrale. Dans le cas contraire, l’énergie radioactive du noyau est nulle et il doit compter sur la chaleur sensible qu'il détient encore chaleur initiale plus chaleur accumulée par les éléments radioactifs à vie courte (129I ou 26 Al par exemple) disparus depuis longtemps et sur la chaleur latente de cristallisation pour fonctionner (cf. § noyau). Si l’on considère les contributions respectives de la croûte et du manteau, on remarque que le gradient géothermique doit nécessairement diminuer avec la profondeur, au moins dans le manteau supérieur. L'augmentation de T° n'est donc pas linéaire et l'intérieur de la Terre n'est pas nécessairement liquide, au contraire ! Les sondages les plus profonds ne dépassent guère la - 16 - ENSM-SE, 2° A : axe transverse P N dizaine de Km, 12 Km environ dans le forage scientifique de la presqu'île de Kola en Russie, et les difficultés techniques rencontrées sont déjà énormes (temps de montée des trains de tiges, T° proche de la T° de fusion du matériel, circulation du fluide de refroidissement - lubrification...). Il ne paraît pas possible de dépasser beaucoup cette profondeur dans un futur proche. Les approches indirectes de la géophysique la gravimétrie, le géomagnétisme et tout particulièrement la sismique constituent nos seules fenêtres pour observer l'intérieur de la Terre, nous y reviendrons au chapitre 3. Nous disposons toutefois en surface de deux échantillonnages distincts : Fig. 5a : carte du flux de chaleur géosphérique actuel. 1 - les basaltes qui proviennent du manteau remontent des fragments intacts de la partie supérieure du manteau très significatifs des 200 premiers Km de profondeur, que nous évoquerons au chapitre 4. 2 - les météorites, tombées du ciel, et qui nous procurent des éléments de comparaison avec le reste du système solaire ; Elles font l’objet du chapitre 2 2 - L’état thermique de la Terre Les rides océaniques constituent les frontières des plaques divergentes. Leur manteau chaud monte jusqu'à la surface puis se refroidit en s'éloignant de la dorsale. Le flux de chaleur mesuré près des dorsales océaniques est très élevé (110mWm-2). Le manteau étant quasi affleurant en cet endroit, ce flux est celui du manteau ascendant sous les dorsales. La carte mondiale du flux de chaleur de W.D. Gosnold (Fig. 5a) montre qu’il décroît systématiquement en s’éloignant de la ride vers les fosses océaniques, 48 Wm-2 (Poly « LDC, La dérive des continents »). L'évolution thermique de la lithosphère océanique peut ainsi être modélisée par le refroidissement d'une plaque d'épaisseur constante. Le calcul permet d'établir comment varie le flux de chaleur en fonction de l'âge (Fig. 5b et poly LDC), en fonction de la vitesse d’expansion de la plaque. Dans les bassins océaniques d'âge supérieur à 80 Ma., le flux mesuré ne varie pas considérablement et la lithosphère est proche de l’état d'équilibre thermique. La croûte océanique étant mince (Chp. 4.E.2.a) et de nature basaltique donc pauvre en éléments radioactifs (par rapport à la croûte continentale granitique), on peut admettre que loin de la ride, la valeur du flux de surface est voisine de celle du flux en provenance du manteau hors des ascendants mantelliques, soit environ 50 mWm-2. Ainsi, les régions les plus anciennes de la lithosphère océanique (Chp. 4.E.2a), côtes Est américaine et Ouest africaine de l’océan Atlantique Nord, plancher du vieil océan avorté entre Afrique et Madagascar, plancher Pacifique du SudEst du Japon à l’Est des Philippines, sont parmi les plus froides. Dans les continents, la figure 5a montre que le flux de chaleur est globalement faible par rapport aux rides. Mais il est fort par rapport à celui du plancher océanique qui les borde. La croûte est beaucoup plus épaisse et très hétérogène (Chp. 4.E.1), et elle contient des quantités importantes mais variables d'éléments radioactifs (U, Th et K). Nous ne sommes donc pas en mesure de construire un modèle simple et fiable du flux de chaleur continental 16/10/12 http://www.geo.lsa.umich.edu/IHFC/heatflow.html actuellement. Il faut mesurer12 ce flux en effectuant le plus grand nombre possible de mesures dans des provinces géologiques différentes. C. Jaupart et J. C. Mareschal (1999) puis J. C. Mareschal, A. Poirier et al. 2000) ont montré à propos du bouclier canadien, qui est constitué de grandes provinces géologiques d'âges très différents (Chp. 4.E.1.a, Fig. 26a), qu'il n'y a pas de tendance à la décroissance du flux avec l'âge géologique. Le flux de chaleur ne décroît pas non plus d'une manière systématique vers le bord du continent nord américain. Mais le flux varie de manière significative entre les différentes ceintures Fig. 5b : fig. 50 du poly la dérive des continents ; Valeurs du flux de chaleur en fonction de la distance à l'axe de la dorsale pour divers taux d'expansion selon le modèle de Bottinga. D'après Borringa, 1974. 12 La température est mesurée en fonction de la profondeur dans un forage avec une précision de 0.005 K. La conductivité thermique est mesurée pour les roches du forage en laboratoire. Le gradient thermique est mesuré sur une épaisseur finie dans un milieu souvent hétérogène. Le profil thermique peut subir plusieurs types de perturbations qui sont quantifiés (topographie, circulation d'eau, variations de composition ...). Enfin les variations du climat ont engendré des changements de température à la surface de la Terre. Ces perturbations peuvent être détectées et éliminées par des mesures dans plusieurs forages profonds. En pratique, le gradient géothermique est mesuré dans des forages dont la profondeur est supérieure à 250 mètres. http://www.ipgp.jussieu.fr/pages/060204.php - 17 - ENSM-SE, 2° A : axe transverse P N (#730K) à 70 km de profondeur Fig. 6a : modèle de pression et de nature du manteau, du noyau et de la graine (La recherche) 2- La sismique nous informe de l’état solide du manteau (Ch.p3). La valeur de la pression en fonction de la profondeur est elle aussi très bien modélisée (modèle PREM Chp.3.B4), et l’on considère que les sauts de densité indiqués par la sismique correspondent à des changements de phases en réponse à l’augmentation de la pression. Sachant que l’olivine (MgSiO4) est le constituant majeur du manteau supérieur, on s’intéresse d’abord aux transformations qu’elle peut subir. On a ainsi : • Mg-olivine β Spinelle vers 400 km de profondeur, soit une pression de 18 GPa ; la température expérimentale de cette transformation est d’environ 1500 K ; l’olivine étant une solution solide de silicate de magnésium et de fer, pour être dans la gamme des concentrations du manteau on prendra une Mg0.9-Fe0.1 olivine β, pour laquelle la température du changement de phase est de 1400 K ; • Le second changement de phase possible est Mg-olivine β pérovskite + magnesiowustite ; l’olivine très comprimée subit vers 30 GPa, environ 670 km, une réorganisation des tétraètres de SiO4 en octaèdres SiO6 qui libère et des atomes de Mg et Fe qui composent l’oxyde magnesio-wustite. La température d’équilibre de cette transformation à la pression de 30 GPa est de l’ordre de 1600K ; d'une même province, et ces variations ne peuvent être dues qu'à des différences de composition de la croûte. Les données de flux de chaleur du bouclier canadien montrent ainsi la difficulté de définir une colonne crustale typique ou moyenne pour les études thermiques. Par contre, il faut noter que le flux de chaleur varie rapidement en bordure des continents : les mesures de flux de chaleur dans la mer du Labrador indiquent des valeurs variant de 48 et 59 mWm-2 à plus de 75 mWm-2. Ces valeurs montrent une transition abrupte du flux de chaleur du manteau (quelques x100 km) qui confirme la différence de nature et l’épaisseur des deux types de croûte. Si la valeur du flux de chaleur en provenance du manteau est une donnée fondamentale pour la structure thermique crustale, elle permet aussi de contraindre les valeurs de l'épaisseur de la lithosphère continentale. Le flux du manteau étant limité à une gamme très restreinte, l'épaisseur de la lithosphère est elle aussi limitée (voir Chp. 4B4 la différence fondamentale qui existe entre lithosphère et croûte). La lithosphère ne peut pas être plus mince que 200 km environ et plus épaisse que 350 km. D’après les auteurs, la lithosphère dans l'est du bouclier canadien a une épaisseur variant entre 200 et 250 km. 16/10/12 Outre la température et la pression à la surface de la Terre et des mesures directes que nous pouvons faire dans les premiers kms, plus les valeurs tirées des volcans, nous disposons donc de 2 point profonds pour construire le diagramme P,T du manteau supérieur (Fig. 6). 3 - L’allure du géotherme terrestre Nous avons noté que le géotherme terrestre ne pouvait être linéaire et que nécessairement la production de chaleur devait décroître rapidement au-delà de la croûte. Quelles sont donc les ordres de grandeur et l’allure générale le la courbe température profondeur ? Nous disposons pour l’établir de quelques contraintes fortes : 1- les kimberlites, témoins volcaniques directs les plus profonds de l’état du manteau nous indiquent comme raisonnable une température de 1000°C - 18 - 1- On ne sait pas encore expérimenter des changements de phases chez les silicates du manteau inférieur, principalement la peroskite, à des pressions supérieures à 200 Kbar ; On sait par la sismique que les propriétés du manteau inférieur évoluent continument, ne nécessitant donc pas d’autre réponse à l’augmentation de pression que la diminution de volume de la maille cristalline, réponse rendue possible par sa compressibilité. Par ailleurs, on sait extrapoler la courbe de fusion de la perovskite vers les hautes pressions ; or la sismique nous informe (Chp.3) de l’état solide du manteau jusqu’à la limite noyau-manteau, laquelle correspond à une pression de 136 GPa. La température de fusion de la perovskite, qui à cette pression est de 5000K environ, représente donc une limite supérieure non atteinte à cette profondeur de 2900 km (Fig.6). L’incertitude devient grande… 2- Contrairement au manteau, solide, nous tirons de l’étude sismique et de l’étude du champ magnétique l’hypothèse cohérente que le noyau externe est liquide ; quant-à la graine elle est solide et que tous deux sont un alliage de Ni-Fe. Nous avons donc là 3 nouvelles contraintes : • La température du sommet du noyau liquide est supérieure à la température de fusion de ENSM-SE, 2° A : axe transverse P N l’alliage à 136 GPa., • A 5100 km de profondeur, la limite entre noyau liquide et graine solide issue de la cristallisation fractionnée du noyau (voir explication de la cristallisation fractionnée au chp4.E.3.a) correspond à la température de fusion de l’alliage. La pression à cette profondeur est de 320 GPa. La température de fusion des alliages Fe-Ni a été expérimentée à cette pression par onde de choc dans les mâchoires d’une enclume à diamants. Elle est de 6000K pour du fer pur, et de 5000K pour un alliage Fe-Ni tel qu’on le suppose dans le noyau actuel c'est-à-dire : i) correspondant aux abondances probable en ces 2 éléments ; ii) dopé à 10% en éléments légers. En effet, si un peu d’éléments légers sont logiquement présents dans le système noyau + graine, ils ne rentrent pas dans le solide ; donc, au fur et à mesure de la cristallisation de la graine, ils ont enrichi le liquide et il faut tenir compte de la Fig. 6b : 2 modèles de géotherme pour la Terre 16/10/12 concentration vraisemblable du liquide après plusieurs G.ans de cristallisation fractionnée. • Le noyau liquide est parcouru de mouvements de convection (producteurs du champ magnétique terrestre) ; il est donc raisonnable de considérer que le gradient de température au sein du noyau liquide comme adiabatique ; l’application d’un tel gradient à partir de d’un interface noyau-graine à 5000 K conduit à une température du sommet du noyau, sous le manteau, à 2900km, de l’ordre de 3800 K Nous pouvons donc admettre cette valeur pour le sommet du noyau. Rappelons celle du sommet du manteau inférieur, 1600 K, la différence est de 2200 K, à répartir dans le manteau inférieur ? La tectonique des plaques et la tomographie sismique (chp.4) nous imposent de considérer que le manteau est un solide en convection. Comme pour le noyau, nous admettrons donc que le gradient de température y est adiabatique. Eu égard aux propriétés du manteau, la différence de température entre bas et sommet du manteau inférieur est estimée à 700 K. On voit bien dans la figure 6b comment il est loisible de placer ces 700 K dans la fourchette précédente de 2200 K : 1- Hypothèse 1, en bas sur la figure, la limite entre manteau supérieur et manteau inférieur n’est qu’un changement de phase qui s’opère durant la convection, celle-ci est à un seul étage, elle s’effectue alors entre les deux couches limites conductives, i) en bas l’interface noyau-manteau (CMB, Core Mantle Boundary sur la figure), ii) en haut la lithosphère rigide (CLT). Les 700 K du gradient adiabatique viennent donc s’ajouter au 1600 K du sommet du manteau inférieur. La température au sommet de la CMB serait donc de 2300 K, et cette couche frontière entre les deux domaines convectifs absorbe une différence de 1500 K entre sa base et son sommet ! 2- Hypothèse 2, la limite entre les deux manteaux reste un changement de phase, dont on admet cette fois qu’il conditionne une convection à 2 étages séparés, manteau supérieur et manteau inférieur. La couche de transition (TZ) que représente cette séparation des deux manteaux est donc alors une couche limite (donc conductive et non convective) qui peut absorber une partie des 2300 K qui ne sont plus supportés par la seule CMB dans cette hypothèse 2. La température du sommet du manteau inférieur est alors imprécise, « en théorie » quelque part entre 1600 K et 3100 K. De même la température du sommet de la CMB se situerait quelque part entre 2300K et 3800 K. On le voit, la connaissance des températures internes de la Terre peut encore progresser largement ! Tireté vert, T° Mg-olivine b Spinelle ; Tireté rouge, T° Mg-olivine b pérovskite + magnesiowustite ; Tireté violet, T° limite du gradient adiabatique du noyau, partant de 5000 K comme T° de cristallisation de la graine ; tiretés bleus, un gradient mantellique de 700 K. - 19 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Sites WEB consultés http://www.shs.univ-rennes1.fr/radio/indexradio.htm http://lpsc.in2p3.fr/gpr/french/Energie.html http://www.agu.org/reference/gephys/19_vschmus.pdf http://www.nature.com/nsu/030505/030505-5.html http://www.ens-lyon.fr/~oarboun/index.htm http://www.ipgp.jussieu.fr/~grigne/these.html#resultats_fixe http://www.sciences.univ-nantes.fr/physique/perso/cortial/bibliohtml/epiclc_j.html http://www.iut-lannion.fr/LEMEN/Mpdoc/Cmther/thcinrt.htm http://carnegieinstitution.org/default.html http://www.esrf.fr/info/science/highlights/2000/materials/MAT8.html http://www.ipgp.jussieu.fr/pages/060204.php http://www.gps.caltech.edu/~gurnis/Movies/movies-more.html http://www.sg.geophys.ethz.ch/geodynamics/klaus/WS_99_00/Earth/Earth's%20Thermal%20Regimes.htm http://www.geo.lsa.umich.edu/IHFC/heatflow.html http://www.newgeology.us/presentation41.html http://peterbird.name/publications/2003_PB2002/PB2002_wall_map.gif Quelques idées fortes Quelques idées fortes : La Terre est une machine thermique « deux en un ». La chaleur interne rayonnée par la Terre a une triple origine : Energie cinétique récupérée des matériaux qui constituent la Terre Energie de différentiation primaire du noyau et de sa cristallisation lente en graine solide Energie radioactive de 3 éléments abondants dans le manteau et la croûte terrestre, U, Th et K Le flux de chaleur sortant de la géosphère reflète à la fois l’épaisseur et l’âge de la lithosphère Le manteau terrestre est un solide à l'échelle de temps des phénomènes acoustiques, Le manteau terrestre est un fluide à l'échelle des temps géologiques, Il permet de transporter la chaleur depuis l’intérieur de la Terre (source chaude) vers le cosmos (source froide) par convection et par conduction ; son nombre de Rayleigh, de l’ordre de 106 est très supérieur au nombre critique La lithosphère, région superficielle de la Terre dont la rigidité interdit la convection en son sein, transporte la chaleur exclusivement conduction. La lithosphère océanique appartient aux cellules de convection du manteau La lithosphère continentale agit comme un couvercle et accumule de la chaleur du manteau à sa verticale La chaleur externe, reçue du soleil est 10 000 fois plus grande que l’énergie interne rayonnée par la Terre L’atmosphère, l’hydrosphère et la partie superficielle de la géosphère transportent cette chaleur externe depuis l’équateur (source chaude) vers les pôles (source froide) - 20 - ENSM-SE, 2° A : axe transverse P N 16/10/12 CHAPITRE 2 Les météorites Yaari Toya, Météore, 2007 « meteor » Impuissant et le plus souvent terrifié par ces chutes de pierres noircies, l’homme vit d’abord en elles une intervention du divin (Fig. 1a). Ce n’est qu’à la fin du XVIII° siècle (1793) qu'Ernst Friedrich Chladni, en s’appuyant sur de nombreux rapports de témoignages, échafauda la première théorie valide concernant ces objets déroutants : ils proviennent de l'espace et il existe un lien entre météores (étoiles filantes) et météorites. Ses affirmations furent confirmées par une succession d’événements ; en 1794, une pluie de pierres s’abattit sur Sienne (Italie) ; En 1795, une autre chute météoritique eut lieu ; en 1796 ce fut au Portugal et en 1798 en Inde. L’analyse physico-chimique de cette récolte révéla que ces pierres sont bien différentes des roches terrestres et que certaines présentent d'importantes quantités de nickel. Le premier astéroïde fut découvert en 1801, confirmant l’origine extraterrestre de ces objets. En 1803, une pluie de plusieurs milliers de fragments s'abattit sur la Normandie. L’enquête révéla que de toute évidence, ces pierres provenaient de l'espace. Il était définitivement ( ?) temps de renvoyer les « Esprits » à des occupations plus sérieuses… La Terre reçoit en de l’ordre de 40000 Tonnes/an de matière extraterrestre, qui frappe la Terre au sommet de l'atmosphère. Il s’agit pour l’essentiel de micrométéorites de moins d'un millimètre de diamètre, dont le nombre est évalué à 10 millions de milliards par an. Plus grosses, souvent en essaims que la Terre traverse à date fixe (Aquarides de mai, Perséïdes d'août, Géminides de décembre) elles se volatilisent le plus souvent en étoiles filantes dont le scintillement, au mieux de plusieurs secondes, est proportionnel à la masse. Quelques dizaines de tonnes/an seulement de météorites atteignent le sol. Les deux tiers plongent dans les océans, et les particules trop fines sont le plus souvent perdues. La population la plus importante est de l'ordre de quelques centaines de microns. Depuis le début des années 1980, on les ramasse sur les glaciers de l'Antarctique. 99% de ces micrométéorites appartiennent au groupe des météorites carbonées hydratées (comme celles de Murchison, Chp. 2.A.1.a). Notre protection atmosphérique brûle complètement les météorites un peu plus grosses, mais elle n'arrête pas les fractions les plus grossières, jusqu’à des “ bolides ” pouvant mesurer plusieurs Km de diamètre qui ont de tout temps percuté notre sol. Il tombe en moyenne sur Terre une seule météorite/1000 ans comme celle qui a formé le Meteor Crater en Arizona (50 000 ans ; 30m ; 100 000 tonnes de fer, Fig. 1b). Dans l’espace, plus un corps est massif plus il est rare, et plus sa probabilité de chute sur Terre est faible. Pour un corps de taille plurikilométrique comme celui (Fig. 1c) qui contribua certainement à affaiblir, voire même à faire disparaître les dinosaures il y a 65 Ma., cette probabilité est de l’ordre de une fois tous les 100 Ma. L'étude des météorites écrit un chapitre important de la planétologie du système solaire. Elle permet aussi d’accéder à la protohistoire de notre système, voire même à l'histoire des étoiles qui nous ont donné naissance, lorsque chaque espèce minérale ou groupe de cristaux ou cristal, d'une seule météorite, devient un témoin (cf. § chondrites). Fig.1 : a) Illustration de la chute de la météorite d’Ensiseim (Alsace) en 1492 b) Meteor Crater, Arizona, Diam. 1.2km, profondeur 200m c) Chixculub Crater, Golf du Mexique, Limite crétacéTertiaire, diam. 180 km , http://miac.uqac.ca/MIAC/chicxulub.htm - 21 - ENSM-SE, 2° A : axe transverse P N A – Classification des météorites Sur la base de leur composition minérale (Tableau 1) et de leur structure, on classe d'ordinaire les météorites en 3 groupes, qui viennent s’ajouter à celui des comètes: 16/10/12 Fig.2 : les chondres sont des microbilles de quelques microns à quelques millimètres, constitués de silicates de haute T° et d'autres minéraux dont certaines espèces (sulfures, nitrures entre autres) sont inconnues sur Terre les météorites pierreuses, ou aérolithes ; les météorites métalliques ou sidérites ; les météorites mixtes, ou sidérolithes. 1 - Les aérolites : chondrites-achondrites Les aérolites ou Météorites Pierreuses sont les plus nombreuses (de l’ordre de 25000 à 30000 individus reconnus), et surtout constituées de silicates, parfois de roches carbonées plus quelques traces de fer. Elles constituent, selon les auteurs, de 80 à 90% des chutes, et représentent une masse connue de 50 tonnes environ, soit 70 à 80% de la masse des météorites recensées. On divise les aérolithes en deux grands groupes : les chondrites (93%) et les achondrites (7%), selon qu'elles contiennent ou non des chondres (ou chondrules, sortes de petites sphères, Fig. 2 qui n’ont été observées dans aucun autre matériau connu). a) microphotographie a - Les chondrites : Bien que reconnues dès 1802 par E. Howard, ces microbilles n’ont été baptisées chondres qu’en 1864 par Gustav Rose. Les chondrites sont classées selon leur composition minéralogique. Chondrites ordinaires : 80% des chondrites ; elles contiennent de l'olivine, de la bronzite, du plagioclase (cf. tableau 1) et d'autres minéraux à base de fer. On les divise en deux sous-groupes, H et L. Chondrites à enstatite sont divisées en deux sousgroupes, 1 et 11, suivant leur teneur en fer (<12 % et jusqu’à 35 % respectivement). Elles sont constituées en grande partie de pyroxène et peuvent contenir du quartz(SiO2) Elles ont été métamorphosées à des températures supérieures à 650° C et sont notées E dans les collections. Chondrites carbonées : 8% des chondrites ; elles contiennent en général 40% de plagioclase, mais aussi du carbone, parfois sous forme organique. Par contre elles ne contiennent que très peu, ou pas du tout, de fer. C'est un groupe assez hétérogène qui est divisé en quatre sous-groupes : – - CI (type chondrite d’Ivona), – - CM (pour Mighéï, ou Murchison), – - CO (pour Ornans), Tableau 1, Minéraux des météorites : Mg-Olivine Mg-Orthopyroxene (enstatite) silicates Mg-Clinopyroxène Plagioclase Mg-Spinelle oxydes : SiO4 Mg2 Si2O6 Mg2 Si2O6 MgCa Si2Al2o8 Ca MgAl2O4 b) lame mince. – - CV (pour Vigarano). La classification des chondrites est résumée dans le tableau 2. Les chondres sont constitués de silicates de haute Température, plus diverses phases minérales dont certaines espèces (sulfures, nitrures entre autres) inconnues sur Terre témoignent parfois d'un environnement extrêmement réducteur. Ils se sont formés par la condensation des poussières issues de la formation du soleil. Les chondrites contiennent toujours du Fer métal, ce qui les rend attirables par un aimant En outre, les chondrites peuvent contenir des sortes “ d’enclaves ” constituées de minéraux exotiques plus réfractaires encore, tels que des minéraux titanifères ou des silicates oxydes : sulfures: sulfures: Alliages Alliages - 22 - Fe-Olivine Fe-Orthopyroxène Fe-Clinopyroxène SiO4Fe2 Si2O6 Fe2 (Mg0.8, Fe0.2 = bronzite) Si2O6 FeCa Fe-Spinelle Magnétite Troïlite Kamacite Taenite FeAl2O4 Fe2+Fe3+2O4 (basse T°) FeS (Fe,Ni) 4-7% Ni (Fe,Ni) 16-60% Ni ENSM-SE, 2° A : axe transverse P N 16/10/12 Tableau 2, classification des chondrites classement en fonction de leur minéralogie et de leur teneur en métal Ordinaires à Entastite H bronzite, olivine (silicate de fer et magnésium), 15 à 251% de fer L bronzite, olivine (silicate de fer et magnésium), 7 à 15% de fer LL bronzite, olivine 30% (silicate de fer et magnésium), 2 à 7% de fer EH (high) pyroxène (silicate de fer magnésium, calcium), forte teneur de fer >25% EL (low) pyroxène (silicite de fer magnésium, calcium), faible teneur en fer Chondrites 40% d'olivine, 30% de pyroxène, 10% de plagioclase (calcium et sodium), carbone sous forme organique, très peu de fer Carbonées CI (Ivuna) 3 à 5 % de carbone, 20 % d'eau CM (Murchison) 0,6 à 2,9 % de carbone et 1,3 % d'eau CV (Vigarano) Moins de 0,2 % de carbone et 0,03 % d'eau CR (Renazzo) CO (Ornans) 1 à 0,2 % de carbone, moins de 1 % d'eau CK (Karoonda) CB (Bencubbin) CH (High Iron) Kakangari type K Rumurutiites R aluminosilicates de calcium qui témoignent température de formation très élevée, >1500°K. d’une Chez les chondrites en général, et chez les chondrites carbonées en particulier, les chondres (de haute T°) sont noyés dans une matrice de basse T° faite de silicates plus ou moins hydratés, de sulfates (SO4) hydratés et de carbonates (CO3). Cette matrice est riche en grains métalliques et en troïlite (sulfure FeS). La présence de Fer métal (Fe-Ni) témoigne du caractère réducteur du milieu, mais son origine est encore très controversée. S’il peut en effet résulter directement de la condensation du nuage de gaz (nébuleuse solaire), il peut aussi apparaître par réduction des silicates, lors d’une réaction contrôlée soit par la fugacité en oxygène de l’atmosphère solaire soit par la présence de carbone C dans la matrice des chondrites. La matrice peut contenir 20% de son poids en eau ; cette eau contribue largement à l’altération des minéraux anhydres des chondres, à l’effacement des structures, et à la recristallisation métamorphique de certaines chondrites qui ont subi un réchauffement ultérieur (sans rapport avec leur rentrée dans l’atmosphère terrestre). Cette matrice contient aussi souvent des composés organiques qui ne sont pas nécessairement biotiques, et dont certains sont inconnus sur Terre. Elle peut aussi être faite d'un mélange de minéraux de haute température (olivine riche en fer en particulier) et de débris de chondres, qui suggèrent une histoire complexe : formation à haute température des chondres, fragmentation des chondres, et agglomération ultérieure avec des matériaux froids. Aucune roche comparable aux chondrites, aucun chondrule, n’a jamais été observé sur Terre ou sur la Lune. Leur composition chimique globale est d’une part remarquablement homogène (elle varie très peu d’un individu à un autre) et d’autre part étonnement comparable à celle de la moyenne terrestre (cf. tableau 3). Cela suggère fortement que la Terre est formée du même matériel que les chondrites et que ce matériel primordial a subi sur Terre un fractionnement auquel les chondrites ont échappé. La similitude de composition des chondrites avec l'atmosphère solaire, excepté en éléments volatils (H, O, gaz nobles) bien que le Carbone soit encore présent dans les chondrites carbonées, suppose aussi qu'elles n'ont subi que très peu de modifications depuis leur fabrication. Quelle que soit l’hypothèse de leur formation, il est essentiel de noter que contrairement aux sidérites ou sidérolithes (§ suivant), les chondrites n'ont pas subi de différenciation chimique ultérieure majeure. On s’accorde alors à assimiler la composition des chondrites à celle qu'a pu avoir la Terre avant la différenciation profonde en un noyau métallique et un manteau silicaté, et les géochimistes utilisent souvent leur composition moyenne comme référence dans l'étude des roches terrestres. Parmi les chondrites carbonées, la météorite de Murchison (tombée en 1969 en Australie) est célèbre pour avoir changé notre façon d’envisager l'origine de l’eau et, plus accessoirement, celle de la vie sur Terre. On a longtemps considéré que l’atmosphère terrestre (et son océan) résultait du seul dégazage du manteau terrestre, qu’elle était en quelque sorte la fille unique des volcans. Mais outre la présence de nombreux composés organiques ainsi que des acides aminés, une grande richesse en azote, une grande abondance en volatils, la météorite de Murchison présente (comme l’essentiel des micrométéorites échantillonnées) environ 50% d'une argile qui contient de l’eau. Or cette eau présente un rapport isotopique D/H (2H/1H) semblable à celui de la moyenne de l’océan terrestre (cf. le fractionnement isotopique, Chp2.C.2) alors que celui- - 23 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Tableau 3, classification des achondrites Achondrites Classement en fonction de leur teneur en calcium (de 0 à 25%) Eucrites EUC + de 5% de calcium, pigeonite et feldspath calcique Angrites ANG + de 5% de calcium, riche en pyroxène calcique titanifère, troilite et olivine Howardites HOW + de 5% de calcium, mélange eucrite-diogenite Diogénites DIO -3 de % de calcium, Hypersthène, pyroxène moyennement riche en fer Urélites URE -3 de % de calcium, olivine-pigeonite, ferro nickel, clinopyroxène et parfois du diamant Aubrites AUB -3 de % de calcium, enstatite, silice et magnésie Shergottites SHE riche en calcium, roche basaltique composée essentiellement de pyroxène et de plagioclase, plus quelques éléments oxydés et minéraux hydratés. Nakhlites NAK augite, plus quelques éléments oxydés et minéraux hydratés, diopside-olivine Chassignite CHA riche en calcium, olivine, quelques éléments oxydés et minéraux hydratés Lunar LUN basalte et régolithe Acapulcoite ACAP olivine, pyroxène Lodranite LOD olivine, pyroxène Brachinite BRACH olivine Winonaite WIN Chassignites, Shergottites, and Nakhlites sont regroupées comme météorites SNC ci diffère justement du rapport isotopique des eaux issues de volcans. On considère donc aujourd’hui que le rôle joué par 2 - Les sidérites, ou Fers les météorites de ce type, ainsi que celui des comètes (Chp. 2.E.2), a été sans doute important pour l’océan, dans Les sidérites ou Météorites Ferreuses, dites encore l’histoire de notre atmosphère (Chp. 5.F) et dans l’apparition Fers; constituent une population d’un millier d’individus de la vie et plus largement dans l’acquisition d’un vernis environ, qui représentent en nombre de l’ordre de 5% des géochimique extraterrestre durant l’Hadéen (Chp. 4.D.1.b). chutes et en masse environ 10%. Si le nombre d’individu est peu élevé, leur masse peut être considérable, et c'est parmi eux que l'on trouve les plus grosses météorites. Par b - Les achondrites : conséquent, contrairement aux autres météorites qui passent Les achondrites : Elles présentent une texture et une souvent inaperçu, sauf lorsque l’on fait des comptages composition minéralogique qui laissent penser qu'elles ont systématiques comme dans les glaces de l’antarctique, les dû se former à partir d'un magma analogue à celui qui fers sont surreprésentées et la masse totale reconnue est de conduit aux roches ignées terrestres. Certaines d’entre elles 570 tonnes environ. La plus importante (70 tonnes) fut proviendraient de la Lune, ou encore de Mars (S.N.C.). Elles découverte en 1920 ; elle est restée en place à Hoba, en constituent 10% des chutes au maximum, on distingue deux Namibie. La seconde provient de Cap York (Groenland), grandes catégories : elle pèse 59 tonnes. Dans le désert de Gobi, la météorite de Shingo pèse environ 35 tonnes ; on l'appelle aussi «le achondrites riches en calcium (CaO>5%) chameau d'argent», à cause de sa forme. La météorite de achondrites pauvres en calcium (CaO<3%) Chaco (Argentine) pèse à peu près le même poids, et l’on La classification des achondrites est résumée dans le connaît plusieurs autres météorites pesant plus de dix tonnes, comme celle de M'Bosi (Tanzanie) qui pèse 16 tableau 3. tonnes. Les sidérites sont constituées d'un alliage de ferParmi les achondrites, quelques individus découverts nickel probablement très comparable (au moins récemment ont clairement une structure achondritique, mais chimiquement) au cœur de notre Terre. La classification des une composition proche de celle des chondrites. On sidérites est basée sur leur structure, mais elle reflète aussi considère ces échantillons (de type Acapulcoites, Lodranites ou Winonaites) comme d’anciennes chondrites qui auraient leur composition en nickel. Leur structure est bien mise en subi ultérieurement un métamorphisme à haute température, évidence par l’attaque acide d’une surface polie, qui fait voir même une fusion partielle suivie de la perte de la apparaître une sorte de grille formée de bandes, souvent fraction fondue ; on nomme ces météorites achondrites observables à l'œil nu, de symétrie cubique ou hexagonale, primitives, en raison du matériel chondritique (= primitif) appelée texture de Widmanstätten (chimiste allemand du XIX°, Fig. 3). On distingue 3 groupes de sidérites : qu’elles ont contenu. - 24 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Fig. 3: Section Polie de la météorite de Casas Grandes, kamacite à texture Widmanstätten, et globules de Troïlite (FeS) a - Les hexaédrites Elles contiennent de 5 à 7% de nickel sont des assemblages de gros hexaèdres de kamacite, parfois un seul cristal qui se rompt à l'impact. L’attaque à l'acide chlorhydrique d’une surface polie met en évidence un réseau de bandes orientées (bandes de Neumann) provenant de la déformation mécanique subie par la kamacite à une température comprise entre 300 et 600° C. b - Les octaédrites, Elles sont les plus nombreuses, et contiennent de 6 à 18% de nickel. L'attaque à l'acide d'une face polie met en évidence quatre systèmes de bandes de kamacite. Trois séries se coupant selon un angle de 60°, la quatrième série étant parallèle au plan de section dans la figure 3. Elles sont bordées de taénite, les espaces polyédriques compris entre ces deux minéraux étant comblés d'une association microcristalline de ces deux minéraux, appelée plessite : ce sont les figures de Widmanstätten qui s'expliquent par l'étude du refroidissement du système fer-nickel. Le diagramme concentration en Ni dans le système Fe-Ni versus T°C (Fig. 4) nous montre les phases en présence. L’abscisse représente la composition du système ; à 0% de Ni, le système ne contient donc que du fer, et à 60% de Ni, il contient encore 40% de Fer. Ce diagramme nous montre l'existence de deux domaines monophasés (en bleu) où la composition du solide peut varier (il s’agit de solutions solides) aux températures considérées. Il s'agit du domaine de la taénite (Alliage de Nickel-Fer) et du domaine de la kamacite (Alliage Fe-Ni pauvre en nickel). Ce diagramme nous montre aussi l'existence d'un espace vide (en blanc), qui est le domaine dans lequel il ne peut exister de solide homogène stable aux températures considérées, c’est un domaine à 2 phases. Prenons par exemple un solide de composition Fe 80%, Ni 20% ; à la température de 450°C, il se situe dans le domaine à 2 phases solides (taénite + kamacite) dans lequel, à la température donnée (450°C), il existe non plus un mais deux solides en équilibre, une kamacite plus une taénite, dont les compositions respectives sont celles des limites du domaine à 2 phases à la température considérée. Suivons maintenant sur la figure 4 le refroidissement du solide de composition définie X : 1 - A 700°C, le solide Tn de composition X, homogène, est une taénite à 15% de Ni. Fig. 4 : diagramme de phases des alliages Fe-Ni 2 - A 640°C environ, ce solide homogène voit apparaître en son sein (exsolution) une quantité infinitésimale de kamacite Km, 0 à 4% de Ni. 3 - A 600°C le solide est composé des 2 phases Km1 et Tn1, de compositions respectives 5% et 18% Ni, dans les proportions pondérales respectives 73% de Km1 et 27% deTn1. 4 - A 400°C, les compositions des solides Km2 et Tn2 sont respectivement 6.5% et 48% Ni, dans les proportions pondérales respectives 22% et 78%. c - Les ataxites Elles sont très rares et très riches en nickel, plus de 16% de nickel (jusqu’à 30%) Elles doivent leur nom à l’absence de texture visible à l’œil nu car la largeur des bandes de Widmanstätten diminue avec l'enrichissement en nickel, pour disparaître au-delà de 15 %. Sur la base de la présence de phases minérales mineures et de rapports inter éléments concernant des éléments en concentration mineure, on distingue encore 13 sous-groupes (IAB, IC, IIAB, IIC....) qui sont résumés dans le tableau 4. Depuis Tschermak on distingue en outre six sous-groupes en fonction de la largeur des lamelles de kamacite, liée à la teneur en nickel de la météorite ; ce sont les sous-groupes Og, Ogg, Om, Of, Off et Opl (depuis «très grosses» jusqu’à «très fines»). La classification des sidérites est résumée dans le tableau 4. On considère les sidérites comme des fragments du noyau de corps planétaires. L’alliage de fer-nickel qui les constitue est probablement très comparable, au moins chimiquement, au cœur de notre Terre. 3 - Les sidérolithes Les sidérolithes ou Météorites Ferro-Pierreuses comptent très peu d’individus, 150 tout au plus, qui sont de nature intermédiaire entre les sidérites et les aérolithes achondrites. Les sidérolithes sont composées de silicates (grains d'olivine pure, ou d'olivine plus pyroxène, ou de pyroxène plus plagioclase) noyés dans une matrice à olivine et d'alliage métallique, et représentent des sortes de “ brèches ”, mélange de sidérite et d'aérolite, susceptible de correspondre - 25 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Tableau 4, classification des sidérites Hexaédrite HEX I AB, Fe-Ni Silicates Carbures IC, Fe-Ni II AB, Fe-Ni-Cr IIC, Fe-Ni II D, Fe-Ni II E, Fe-Ni-Silicates II F, Fe-Ni III AB, Fe-Ni Troïlite Phosphores Ataxite ATAX Octaedrite Opl Octaedrite Off Octaedrite Of Octaedrite Om Pitts (USA) Udei Station (Nigeria) Woodbine (USA) Four Corners (USA) Winburg (Afr du S) Octaedrite Ogg Toluca (Mexique) Guin (USA) Bendego (Brésil) Arispe (Mexique) Braunau (Tchequie) Uwet (Nigeria) Sikhote Alin (Russie) Lake Murray (USA) Unter Massing (Allemagne) Carbo (Mexique) Mont Dieu (Mexique) Watson (Australie) Miles (Australie) Weekeroo (Australie) Kofa (USA) Henbury Sacramento (USA) La Porte (USA) Mundrabilla (Australie) Watson (Mexique) Nantan (Chine) III CD, Fe-Ni Carbiures III E, Fe-Ni Carbures Graphite III F, Fe-Ni Willow Creek (USA) St Genevieve (USA) Gibeon (Namibie) Steinbach (Allemagn) IV A, Fe-Ni IV B, Fe-Ni silicates graphite Octaedrite Og Chingla (Russie) Fig 5a: Pallasite de Imilac, Chili à la moyenne de l'olivine est très magnésienne (SiO4 Mg2) et comparable à celle de l’olivine du manteau de la Terre ou des laves basaltiques (Chp. 4.C.1). On les divise en trois groupes (tableau 5): a - Pallasites : Elles contiennent des gros cristaux d'olivine allant du millimètre au centimètre, de couleur variant du jaune brun au vert chartreuse, inclus dans une matrice de ferronickel. Sciées et polies, ce sont sans doute les météorites les plus esthétiques (fig. 5a). Leur nom vient du naturaliste Pallas qui, en 1775, trouva une «éponge de fer» en Sibérie. Elles sont rares, une cinquantaine connues seulement. pallasite sciée et polie b - Mésosiderites : Elles présentent un mélange de parties à peu près égales de métal (ferronickel) et de deux silicates (pyroxène et plagioclase). Peu nombreuses (86 connues), elles présentent l’allure de brèches comprenant des agrégats ou des morceaux d’alliage fer-nickel ou de silicates (fig. 5b) Fig. 5b : Mesosidérite,Ca-Plagioclase (feldspath) en blanc c - Lodranites : Du fait qu’elles contiennent en parties égales, du métal, de l'olivine et du pyroxène, certains auteurs classent les lodranites dans les sidérolithes ; néanmoins leur proximité de composition avec les chondrites tend de nos jours à les classer avec achondrites primitives. Tableau 5, classification des sidérolithes couche terrestre D'' (Chp. 4.B.1), interface entre noyau et manteau. Pallasites La Pallasite (Fig. 5a) montre une olivine (Mg2SiO4) en gros cristaux, dans une matrice d'alliage Fe-Ni, montrant d'intenses déformations tectoniques obtenues à haute température (proche du point de fusion). La composition Mésosidérites mélange égal ferro-nickel silicates (pyroxène et plagioclase) - 26 - Iodranites cristaux plurimillimétriques d'olivine noyé dans l'alliage de ferro-nickel ferro-nickel, olivine et pyroxène ENSM-SE, 2° A : axe transverse P N B - Composition chimique des météorites 16/10/12 Fig.6a : abondances cosmiques relatives des éléments (pour 106 atomes de Si) vs nombre atomique ; On observe qu’une forte proportion des météorites recueillies appartient au groupe des sidérites, les météorites riches en fer. Cette observation n’est en rien surprenant car la composition de notre Soleil, comparable à beaucoup d’autres étoiles, est riche en fer. 1 - Aperçu de la composition du Soleil La figure 6a nous rapporte la composition du Soleil, le silicium étant ramené à 106 atomes. Trois observations peuvent être faites à partir de ce diagramme : 1 - globalement, les abondances des éléments décroissent avec leur masse atomique 2 - les éléments de nombre atomique pair présentent des abondances plus grandes que leurs voisins impairs (e.g. C, N, O, respectivement Z= 6, 7, 8, …, Na, Mg, Al, Si, P respectivement Z= 11, 12, 13, 14, 15 etc.…) 3 - Certains éléments ont une abondance anormale, celle de Fe, Ni est très élevée, celles de Li, B et Be sont très faibles L’anomalie d’abondance des éléments pairs par rapport aux impairs traduit la plus grande stabilité des nucléons pairs (e.g. http://www.unice.fr/Radiochimie). La dominance de H et He trouve son explication dans la nucléosynthèse primordiale qui, après apparition de l’atome d’hydrogène dans le big-bang, a pu fabriquer de l’hélium en abondance par fusion proton-proton (fig. 6b). Cette première synthèse s’est arrêtée là, au moment de l’expansion brutale de l’univers et de la chute de pression qui l’accompagne. Tous les autres éléments ont été fabriqués plus tard, au cours de nucléosynthèses secondaires dans des étoiles ; les éléments lourds impliquent des températures et un confinement que l’on trouve seulement dans des étoiles de type géantes rouges, voir lors de nova. Fig.6b : De manière extrêmement schématique, on peut dire que de l’Hélium au Fer, les éléments sont fabriqués par fusion (fig. 6b), sauf le triplet des éléments Li Be B dont la section efficace ne le permet pas, et qui de ce fait ne suivent pas la courbe des abondances. Au-delà du fer, les éléments lourds sont fabriqués par capture de neutron. Le noyau d’un atome lourd capture des neutrons (fig. 6c), ce processus étant facilité par l’absence de charges, jusqu’à fabriquer un isotope instable, qui donne un nouvel élément fils. Par ailleurs, les atomes lourds deviennent instables, ils sont sujets à des fissions, qui ont pour effet d’enrichir les éléments plus légers. Le fer est l’élément qui présente le noyau le plus stable, et il se trouve de ce fait surabondant par rapport à la courbe moyenne. Il en résulte que l’abondance du fer équivaut à celle du magnésium et du silicium http://hyperphysics.phy-astr.gsu.edu/hbase/astro/astfus.html#c2 Nucleosynthesis by fusion. Proton-Proton Cycle 1 Step one, deuterium H + 1H ------> 2H + e0 + neutrino 0 e = positron: masse de l’électron et charge >0 Neutrino = sub-particule de charge nulle et quasi sans masse 1 Step two, helium 3 H + 2H -----> 2He3 + radiation γ 3 Step three, helium 4 He + 3He -----> 4He + 1H + 1H La fusion nucléaire dans le soleil produit 653 000 000 tonnes d’helium par seconde, convertissant 22 000 000 tonnes du soleil en énergie. Carbon-Nitrogen-Oxygen Cycle 12 Step one, C + 1H ------> 13N + radiation γ 13 Step two, N ------> 13C + radiation β (t½ = 10 minutes) 13 Step three, C + 1H ------> 14N + radiation γ 14 Step four, C + 1H ------> 15O + radiation γ 15 Step five, O ------> 15N + radiation β (t½ = 10 minutes) 15 N + 1H -----> C12 + He4 Step six, L’effet global du cycle CNO est encore de transformer de l’hydrogène en helium. Le carbone n’est pas un élément produit dans ce cycle ; il ne peut être produit que durant la contraction lente du cœur d’helium des géantes rouges, par fusion d’un triplet de noyaux d’helium (triple α process). L’oxygène sera à son tour produit dans les mêmes conditions par fusion d’un de ces carbone avec un helium. - 27 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Fig. 6d : Abondances des éléments (en unités molaires) dans la photosphère solaire versus leur abondance dans la chondrite carbonée d’Orgueil (CI1). Les volatils H, C, N, O et les gaz rares (non figurés)sont déprimés dans les chondrites, et le Lithium est enrichi. 2 - Météorites et composition solaire A travers ce schéma grossier de l’origine des éléments, on comprend mieux la triple nature des météorites : 1 - Les météorites pierreuses achondrites présentent une composition dominée par le groupe O-Mg-Si-Al, qui est le premier groupe d’éléments abondants après le groupe des éléments très légers H-He et volatils. Cette sélection d'éléments va permettre de construire les phases silicatées de ces météorites; 2 - Les sidérites sont centrées sur le pic du Fe-Ni, qui vont constituer la base de tous les alliages de ces météorites et des sidérolithes ; 3 - Les chondrites ont une composition quasi identique à celle du soleil, sauf pour les éléments volatils (fig. 6d), ce qui signifie que contrairement aux autres météorites, elles n’ont subi que fort peu de modifications par rapport à leur père, le Soleil. C - Les météorites différenciées et le fractionnement chimique dans le système solaire des planètes : comme noté au cours de l’introduction, cette différenciation a concentré l’essentiel des éléments réfractaires vers le Soleil, et l’essentiel des éléments volatils vers la périphérie du système; L'organisation de notre système en un groupe de planètes rocheuses localisées dans le voisinage du Soleil et un groupe de planètes gazeuses à l'extérieur (Introduction) montre qu'il n'est pas chimiquement homogène, contrairement à ce que l'on observe dans les nuages de gaz interstellaires qui donnent naissance à des étoiles. Notre système paraît donc avoir subi une intense différenciation (ségrégation des éléments), qui doit avoir eu lieu avant ou au cours de la formation des planètes au plus tard. 2- Une différenciation à l'échelle de chacun des corps en cours de formation d'autre part, qui va donner les noyaux des planètes décrits dans l’Introduction (Fig. 1) ; D’autres corps aussi s’étaient différenciés, que l’on retrouve en fragments rocheux qui constituent l’ensemble des météorites différenciées. Lorsqu’ils percutent la Terre, on les nomme sidérites, sidérolithes, et aérolithes achondritiques. Par opposition, on parlera de météorites indifférenciées pour les chondrites, puisque ces fragments de cailloux n’ont aucune des caractéristiques des roches planétaires, et qu’ils paraissent par conséquent refléter l’état du système solaire avant la différentiation (cf. § suivant « météorites indifférenciées »). Le terme «différencié» recouvre en fait plusieurs échelles de phénomènes, au moins deux ici: 1- Une différenciation à l'échelle du système solaire d'une part, qui nous questionne sur le mode de construction Fig.6c : http://zebu.uoregon.edu/~js/ast223/lectures/lec21.html 1 - Relation de Titius et ceinture d’astéroïdes On imagine généralement que les planètes du système solaire sont nées presque en même temps que le soleil, de l'effondrement gravitaire de la nébuleuse (gaz), par agrégation et collision de poussières (accrétion à froid). La relation de Titius (XVIII° siècle) tente de traduire les caractéristiques fondamentales du disque gazeux protosolaire. Il était sans doute animé comme aujourd’hui d'un mouvement de rotation qui lui a conféré une symétrie axiale (de révolution). L'essentiel de sa masse était déjà confiné en son centre. Il suffit alors, qu'il ait été invariant d'échelle pour rendre compte de la distribution observée des planètes. “ Invariant d’échelle ” signifie que ses propriétés physiques suivaient une progression géométrique. Autrement dit, la variation de la propriété p entre R et 2R (distances au soleil), est la même qu'entre 4R et 8R. On écrit R n= R0.kn ainsi : où n est l'ordre de la planète, et R n et R0 sont respectivement les rayons orbitaux des planètes de rang n et zéro. La raison k vaut environ 1.7 pour les planètes en rotation autour du Soleil. - 28 - ENSM-SE, 2° A : axe transverse P N Cette relation de Titius écrite à l'époque sous une autre forme, était finalement bien vérifiée pour les 5 planètes connues du vivant de Titius. Elle avait même conduit Bode à supposer dès la fin du XVIII° siècle qu'une planète avait dû exister puis avait dû exploser entre Mars et Jupiter. Or, l’analyse des trajectoires des météorites que la Terre reçoit (lorsque c’est possible) nous montre qu’elles proviennent certainement pour l’essentiel de cette région de l’espace ; et c’est précisément dans cette région que l’on observe une ceinture très riche en astéroïdes. Cette notion de richesse en bien sûr toute relative. Le total de la masse des corps de cette ceinture n'excède pas quelques % de la masse de la Terre, et les quelques corps massifs que l'on y trouve en représentent plus de la moitié. Le plus gros corps et le premier reconnu dans la ceinture d'astéroïdes, Cérès, atteint 930 Km de diamètre (Fig. 7a, Giuseppe Piazzi 1801). Pallas, Vesta (Fig. 7b), Hygiea (400 à 525 km, fig. 7c) et 23 autres corps ont une taille de plus de 200 Km. Tous les astéroïdes de plus de 100 km nous sont connus ou presque, et sans doute connaît-on 50% des corps de plus de 10 km. Par contre, on ne sait à peu près rien du million ou plus d’astéroïdes de l’ordre du km qui peuplent cette ceinture. La grande majorité présente une faible excentricité et une inclinaison sur le plan de l'écliptique presque toujours inférieure à 4° (maxi 30°). 16/10/12 Fig.7b : L’astéroïde Vesta vu au telescope Hubble à gauche, et depuis la Terre à droite. Sa topographie est en image couleur. Image centrale en couleur: le bleu représente les creux et le rouge les bosses, noter le cratère d'impact (450 km de diamètre) Toutefois Titius n’avait pas complètement tord. Dans cette zone orbitale située entre Mars et Jupiter, les interactions fortes entre le champ gravitationnel de Mars et celui que crée la masse énorme de Jupiter constituent un piège pour les grains de poussière ou les cailloux passant dans son voisinage. Ces interactions sont si fortes qu’elles On a longtemps rapporté les météorites qui empêchent la formation d’un anneau homogène. La parviennent sur Terre à l'explosion de la planète dite distribution des orbites des astéroïdes fait apparaître des «manquante» de Titius ; mais deux arguments essentiels distances de demi grand-axe auxquelles ne correspondent sont venus infirmer cette hypothèse : aucun astéroïde. Ces domaines non peuplés sont appelés 1 - la distribution des radio-isotopes dans les météorites lacunes de Kirkwood (Fig. 7c). Elles correspondent aux impose qu’elles ne sont pas issues d'une planète distances orbitales auxquelles un objet soumis à ces unique fragmentée tardivement, soit à la suite d'une conditions serait en résonance avec la planète géante Jupiter. collision, soit sous l’influence de marées trop fortes Le phénomène de résonance se produit lorsque la période de provoquées par Jupiter, mais de corps souvent l'orbite de l'objet est une fraction entière de celle de celle de la planète voisine (ici Jupiter). Les lacunes principales sont chimiquement distincts les uns des autres ; observées pour les rapports 3:1, 5:2, 7:3 et 2:1 entre 2 - ce ne sont pas exclusivement des fragments de planète astéroïde et Jupiter. Ces lacunes ne sont observables que qui nous parviennent de cette région particulière, mais dans la distribution des demi grand-axes et pas dans celle de quasi toutes les météorites, y compris les chondrites, la densité des astéroïdes dans la ceinture. En effet, or les chondrites sont constituées d'un matériau non l'excentricité orbitale des astéroïdes, bien que faible, suffit à planétaire. ce que ces objets franchissent en nombre les domaines Fig. 7a : Astéroïde Cérès 933, vu par Hubble ; Cérès apparaît lacunaires définis par les demi grand-axes. avec une résolution de +/- 50 km. Une formation circulaire de 250 km de diamètre est mise en évidence, dont la nature ne peut toutefois être déterminée avec certitude (cratère ? différence Fig. 7c : Lacunes de Kirkwood dans la ceinture d’astéroïdes ; d’albédo ?), pour laquelle le nom de baptême de Piazzi a été Abondance des astéroïdes vs. taille en UA du demi grand-axe ; proposé d’emblée. L’examen de cette image a permis d’évaluer la lacune principale correspond à la résonance 3 :1 le rayon de Cérès à 484,8 (+/- 5,1) et 466,4 (+/- 5,9) km. http://ssd.jpl.nasa.gov/images/ast_histo.ps - 29 - ENSM-SE, 2° A : axe transverse P N Fig. 7d : Toutatis, géocroiseur de 4,6x 2,4 x 1,9 km, qui passera le 20 septembre 2004 à 4 fois la distance Terre Lune 16/10/12 constitution, Dès lors, on peut donc sans doute parler avec André Brahic dans «Sciences de la Terre et de l'Univers» (1999) d'une fausse bonne piste à propos de la relation de Titius, mais elle fut féconde ! 2 - le fractionnement des éléments chimiques des corps massifs et les météorites différenciées Le nuage de gaz et de poussières qui constituait la nébuleuse protosolaire se transforma en un disque plat sous l’effet de la rotation et de la gravitation (cf. paragraphe Les chondrites sont des objets apparus très tôt dans l'effondrement gravitaire de la nébuleuse) Au sein de ce disque, les poussières sont agrégées en corps de plus en plus gros, jusqu’à constituer des planètésimaux. Il est donc très vraisemblable qu’aucune planète importante n’a jamais pu se constituer dans cette région en raison des instabilités auxquelles conduisent les interactions avec la planète géante voisine, interactions à ne pas confondre avec la limite de roche13 de Jupiter qui ne croise pas la ceinture d’astéroïdes (loin s’en faut) et encore moins celle de Mars. Inversement, le piège gravitationnel que constitue cette région aurait par contre favorisé l'accumulation d'astéroïdes, en dispersant les fragments rocheux au cours de leur accrétion. Par ailleurs, ces interactions et instabilités provoquent vraisemblablement des chocs entre objets, et donc des modifications brutales des orbites de ces astéroïdes. Certains d’entre eux seraient alors éjectés sur des orbites très elliptiques recoupant le champ d’attraction des planètes, comme Géographos, Adonis, ou Toutatis (Fig. 7d). En outre, certains corps, à l'image de Cérès, ont pu atteindre une taille suffisante pour qu'ils aient pu connaître une différenciation chimique. Ce sont de tels corps, situés initialement dans cette ceinture soumise aux perturbations complexes des attractions de Jupiter et de Mars où les collisions sont probablement fréquentes, qui ont pu donner naissance par fragmentation ultérieure aux météorites différenciées, achondrites, sidérites et sidérolithes. Il reste que cette relation de Titius a aussi largement favorisé la découverte des planètes externes, Uranus, Neptune et Pluton, mais la progression géométrique de raison 1.7 n'est que très mal vérifiée pour ces dernières. Cette relation conserve-t-elle un sens physique? Elle traduit à coup sûr le fait imposé par l'attraction universelle que deux corps en cours d'accrétion ne peuvent être trop rapprochés sous peine de voir la compétition pour la capture de la matière environnante interdire leur croissance (cf. la ceinture d’astéroïdes), et que dans le nuage protosolaire un ensemble de perturbations gravitaires allaient contribuer à la constitution des planètes, ou inversement interdire leur 13 On appelle limite de roche la distance en dessous de laquelle la force de cohésion d’un satellite d’une planète devient inférieure aux forces des marées provoquées par la planète. Le satellite est alors désagrégé. Comment s’et opérée cette d’accrétion ; fut-elle homogène ? Hétérogène ? S’est-elle produite à froid ? À chaud ? La géochimie terrestre propose un modèle d’accrétion hétérogène fondé sur des bilans de matière simple, dans lequel l’évolution de la température est un paramètre clef. On remarque en particulier que l’essentiel de l’eau terrestre est contenue dans son atmosphère, et on note que la Terre en possède suffisamment pour oxyder l’essentiel du fer terrestre. Or celui-ci est contenu principalement à l’état Fe2+ dans le manteau et sous forme métal dans le noyau. Il faut donc admettre qu’au moment ou ce noyau s’est individualisé l’accrétion était pauvre en eau, et que notre Terre a reçu son eau plus tardivement. Si l’on admet ici (cf. $ condensation de la nébuleuse) qu’au stade précoce du fonctionnement du Soleil il s’est mis en place un fort gradient de température qui s’est ensuite atténué, on comprend que les premiers condensats s’accrétant en planètésimaux devaient être constitués de matériaux réfractaires, et que des condensats de glace n’ont pu arriver sur Terre qu’à un stade plus froid, et donc plus avancé. Sur un planètésimal en formation, les vitesses relatives des objets qui entrent en collision avec lui augmentent avec la masse du planètésimal parce que cette masse accroît le champ de pesanteur à son voisinage. L'énergie cinétique récupérée lors des collisions s’ajoute à la compression adiabatique (corollaire de l'augmentation de sa taille) pour en accroître la température, jusqu’à engendrer la fusion de cette protoplanète. En fin d'accrétion les collisions deviennent si violentes qu'elles ont pu modifier considérablement les planètes qui viennent de se former. Citons Mercure qui aura perdu ainsi une grande partie de son manteau et aura vu ainsi sa masse volumique moyenne augmenter, et la Terre qui donnera naissance à la Lune après une capture - collision cataclysmique (cf. Chp. 4.D.1.d). Avec la fusion (au moins partielle) des matériaux accrétés à froid, apparaît le premier mode de fractionnement responsable de la ségrégation d’un noyau ferreux chez les planètes telluriques. En effet, à l’état liquide, la gravité permet le transfert du fer (très abondant) vers un noyau dense. A l’état solide, un autre mode de transfert du fer vers le noyau peut être envisagé. En effet, les silicates (ils constituent l’essentiel des minéraux des planètes rocheuses, en particulier leur manteau) sont des solutions solides capables d’assimiler dans leur réseau des proportions de fer souvent beaucoup plus élevées aux faibles pressions qu’aux - 30 - ENSM-SE, 2° A : axe transverse P N fortes pressions. Il s’ensuit donc que ces phases minérales devenues instables dans la convection descendante « expulsent » leur fraction Fer à la base du manteau, lui permettant de rejoindre ainsi le noyau. On appelle fractionnement chimique l'ensemble des processus qui tendent à séparer les espèces chimiques ou minéralogiques, en fonction de leur densité et/ou de leur affinité chimique, dans les conditions P, T° de stabilité des solides (minéraux) et des liquides qui les contiennent. On appelle sidérophiles et chalcophiles les éléments chimiques ayant tendance à constituer respectivement des alliages avec le fer et des minéraux avec le soufre (sulfures métalliques en particulier). On appelle lithophiles les éléments volatils ou les éléments volontiers “ capturés ” par Si et O (silicates et oxydes), Mg, Al, Alcalins, alcalino-terreux. Parmi les lithophiles, les éléments à gros rayon ionique et/ou à forte charge, ont des difficultés à entrer dans les réseaux silicatés stables à haute T° et haute P. Ils ont donc quelques difficultés à entrer dans les minéraux du manteau terrestre. En outre, certains éléments ont une forte tendance à constituer des complexes très stables dans les liquides silicatés, préférant ainsi le liquide au solide pour une T° d'équilibre donnée. Tous ces éléments sont donc “ distillés ” à T° décroissante dans des produits ultimes de cristallisation, et vont constituer ce que Claude Allègre appelle “ l'écume de la Terre ”, ou croûte terrestre, et en particulier les continents. On imagine ainsi que dans les protoplanètes rocheuses en fusion, le noyau s'individualise en raison de la forte densité du fer. Il regroupe avec lui les éléments sidérophiles, le Ni en particulier. Les lithophiles constituent le manteau silicaté puis plus tard la croûte. Parallèlement le dégazage des éléments volatils constitue l’atmosphère primordiale de ces corps. Certains aérolithes achondrites proviennent d'anciennes roches fondues de compositions très comparables à de la croûte terrestre ou lunaire. Elles résultent d'un fractionnement chimique important. Il peut aussi s'agir de fragments de croûte arrachés à la Lune ou à Mars lors d'impacts. L’une d’entre elles, ALH 84001, défraye la chronique depuis 1996 car elle pourrait apporter le témoignage que l’exobiologie n’est pas un mythe ? Les Fig. 8 : Structures filamenteuses observées en 1996 dans ALH84001, trouvée en 1984 dans la région d'Allan Hills (Antarctique) dans des glaces de 13000 ans. ALH84001, 4.5 Gans, provient vraisemblablement de la croûte de Mars et elle a du se former juste après l'accrétion et la différenciation de Mars. 16/10/12 Fig. 9:Formation des météorites différenciées structures que l’on y observe (Fig. 8) ressemblent beaucoup à des bactéries terrestres, mais elles sont 100 fois plus petites, ce qui rend toute confirmation impossible. Pour nombre de biologiste une telle taille ne permet pas le "rangement" d'une usine cellulaire complète, peut-être des organites cellulaires? Ces nanostructures sont observées dans des microbilles carbonatées qui contiennent aussi des sulfures. Sur Terre les sulfures provenant de la réduction bactérienne de sulfate est courante, mais elle s'accompagne d'une séparation isotopique qui enrichit le sulfure biogénique en 32S, ce qui n'est pas démontré sur ALH84001. En tous cas, elles sont suffisamment troublantes pour motiver une part importante du programme d’exploration de Mars dans les années à venir. Si l’on rapporte les achondrites à de la croûte planétaire, on assimile corrélativement les sidérites à des morceaux de noyau planétaire, et les très rares météorites mixtes (sidérolithes) à l'interface noyau-manteau. Nombre de météorites proviennent donc de ce qui fut sans doute un ou des corps différencié(s), puis dispersé(s) (Fig. 9). Les datations obtenues sur des achondrites et des sidérites convergent vers 4.4 Ga.±0.1, c'est à dire quelques centaines de millions d'années au plus après la naissance du système solaire (4.57 Ga. Allègre et al. 1995.). Cet âge pourrait représenter l'épisode de la différenciation des corps planétaires dans le système solaire. Une sidérite datée à 3.8 Ga. démontre que ce processus de différenciation a pu affecter des corps «très» tardivement dans la protohistoire de notre système. Les planètes gazeuses ne sont pas exemptes de différenciation (cf. Chp. introduction), mais celle-ci est beaucoup plus froide (séparation de l'H2 liquide et métallique par exemple) et ne peut donner naissance qu'à du gaz lors des collisions avec des météores (e. g. comète de Lévy avec Jupiter en 1994, Fig. 10) et ne peut éjecter des matériaux condensés. http://www.nirgal.net/alh84001.html - 31 - Fig 10: Collision de la comète Shoemaker-Levy 9 avec Jupiter; les fragments de la comète ont été rapprochés sur l'image ENSM-SE, 2° A : axe transverse P N 2 - le fractionnement isotopique des espèces chimiques Nous avons vu jusque là un ensemble de processus capables de fractionner les éléments chimiques. Mais les processus physico-chimiques sont aussi capables de fractionner les différentes espèces isotopiques d’un composé engagé dans ces processus. De tels fractionnements isotopiques des espèces chimiques constituent un outil extrêmement performant pour tracer les processus géochimiques, que le lecteur retrouvera en des endroits très divers de ce polycopié. On s’intéresse ici aux isotopes stables (non radioactifs et non radiogéniques), dont la quantité dans un réservoir donné n’évolue pas par radioactivité, mais par déplacement vers ou depuis un autre réservoir au cours de processus physico-chimiques. Nous n’aborderons pas ici le cas des isotopes radioactifs d’éléments pères, dont la décroissance naturelle au cours du temps provoque la croissance naturelle d’éléments fils dits radiogéniques, couples classiquement utilisés en datation. Nous décrirons ici sommairement les principes du fractionnement isotopique d’isotopes stables, en reprenant le manuel « Géologie isotopique » de C. Allègre, 2005, partant de l’exemple de l’eau, constituée de deux H et un O. Ce composé comprend ainsi diverses molécules, à base de 1H (l’hydrogène léger, H), de 2H et 3H (les hydrogènes lourds, Deutérium, D, et Tritium, T), et de trois isotopes de l’oxygène, 18O, 17O, 16O du lourd au léger. Pour molécules les plus courantes, nous aurons donc : 1 - H218O (2.2%) ; H217O (0.5%) ; H216O (97%) ; 2 - D218O ; D217O ; D216O ; 18 17 3 - DH O ; DH O ; DH16O (0.3%) ; Notons que quatre espèces isotopiques seulement sont > 0.1%, dont une qui domine largement. 16/10/12 référence. Il s’agira d’un carbonate de calcium CaCO3 référence (bélemnite14 de la Peedee formation, U.S.A) appelé « PDB standard carbonate », pour étudier les variations 18O/16O dans le carbonate des coquilles d’organismes vivants ou fossiles (CaCO3 eux aussi). Pour les variations isotopiques de l’eau, les valeurs standards de référence furent d’abord la moyenne des concentrations océaniques (SMOW, « Standard Mean Ocean Water » H. Craig, 1967). Mais rapidement (1968) le besoin s’est fait sentir de disposer d’un standard eau pure, plus accessible qu’une eau océanique déminéralisée. Le vocable V-SMOW (ocean water !) a néanmoins été conservé, avec V pour Vienna Standard Mean Ocean Water (du nom de l’Agence Atomique Internationale de Vienne). La composition isotopique de SMOW est donc parfaitement définie15. Ces variations de composition sont en fait très petites, et on les exprime en unité delta, fonction des rapports R mesurés et standards, exprimée en %o, telle que : δ = [(REch - Rstd) / Rstd].103 On appellera ainsi δ18O d’une eau (prononcer delta O18), l’écart entre la mesure du rapport 18O/17O faite sur un échantillon d’eau et la valeur standard SMOW de ce rapport : δ18O = [(18O/16OEch - 18O/16OSMOW) / 18O/16OSMOW].103 a- Le fractionnement d’équilibre chimique Voyons la réaction d’échange 18O 16O suivante : Si18O2 + 2H216O Si16O2 + 2H218O Comme toute réaction chimique elle admet pour constante d’équilibre (loi d’action de masse) thermo dépendante (Ln K = a’ +b’/T +c’/T2) K(T) = (Si16O2).(H218O)2 / (Si18O2).( H216O)2 On peut donc considérer que tout composé constitué d’éléments présentant des isotopes sera, en quelque sorte, marqué par un ensemble de rapports isotopiques caractéristiques. Si un tel composé est engagé dans un processus, chimique ou physique, les différences de masse entre les isotopes aura pour effet de fractionner les espèces légères et lourdes de ce composé. Quatre types de fractionnement peuvent se produire : 1 - fractionnements d’équilibre, 1) chimique 2) physique ; 2 - fractionnements cinétiques, 3) transport 4) réaction. H. Urey a montré (mécanique statistique quantique) que si K est bien voisine de 1, elle est néanmoins différente de 1, et pour une réaction d’échange d’isotopes entre deux composés, A et B, constitués de deux isotopes is1 et is2 d’un élément commun aux deux composés, Le spectromètre de masse, outil qui mesure simultanément les concentrations isotopiques en séparant spatialement les espèces différentes par application de la force centrifuge lors de leur déplacement (Fig. 11), permet d’accéder avec précision à ces rapports isotopiques. Où les fonctions Q(Ais1), Q(Ais2) …etc., sont appelées fonctions de partition des différentes molécules isotopiques. Aussi utilise-t-on communément les variations de ces rapports, en les comparant à ceux d’une substance prise en aAis1 + bBis2 aAis2 + bBis1 Selon la thermodynamique statistique, la constante d’équilibre s’écrit : K(T) = [Q(Ais2)/Q(Ais1)]a . [Q(Bis1)/Q(Bis2)]b Avec, pour chaque composé, deux molécules (1 et 2), constituées respectivement des isotopes is1 et is2: M1 et M2, les 2 masses des deux molécules σ1 et σ2, leurs nombres de symétrie ; E1 et E2, leurs niveaux d’énergie (rotation-vibration) Fig. 11 : schéma simplifié d’un spectromètre de masse 14 Belemnite = sorte de seiche fossile chez qui le rostre calcaire, minuscule pointe de l’os chez la seiche actuelle, était très largement développé. 15 Composition du standard SMOW: H / 1H = 155.76 ±0.1 ppm 3 H / 1H = 1.85 ±0.36 10-11 ppm 18 16 O / O = 2005.20 ±0.43 ppm 17 O / 16O = 379.9 ±1.6 ppm 1ppm = 1 10-6 2 - 32 - ENSM-SE, 2° A : axe transverse P N I1 et I2, leurs moments d’inertie c- Le rapport des fonctions de partition pour cette molécule Q2/Q1= (s1/s2).(I1/I2).(M2/M1)3/2.[Σ Σ exp(E2/kT) /.[Σ Σ exp(E1/kT)] Fait apparaître deux caractères essentiels de la réaction d’échange isotopique: 1 - Le fractionnement entre deux espèces isotopiques est proportionnel au rapport des masses de ces espèces ; 2 - La thermo dépendance de K, plus la T° augmente, plus K est proche de 1, plus le fractionnement des deux espèces est faible. On définit le coefficient de fractionnement isotopique chimique α, dépendant de la température, αAB = (Ais2 / Ais1) / (Bis2 / Bis1) Les coefficients α et K sont liés par la relation α = K1/n ou n est le nombre d’atomes échangeables dans cet équilibre. Dans le cas de l’échange des isotopes 16 et 18 de l’oxygène entre une espèce de SiO2 (e.g. Quartz) et de l’eau, le nombre d’atomes échangeables est n = 2. b- Le fractionnement d’équilibre physique Un fractionnement isotopique intervient aussi lors des changements de phase d’un composé. Ainsi, pour l’eau lors de l’évaporation (e.g. au dessus des océans) et lors de la précipitation (pluie ou neige), on peut s’attendre à un fractionnement de l’oxygène, entre 18O et 16O de masses très différentes, mais aussi à un fractionnement de l’hydrogène entre 1H et D, lors de l’évaporation (e.g. au dessus des océans) et lors de la précipitation (pluie ou neige). Continuant notre lecture de l’ouvrage de C. Allègre, nous définirons la pression partielle Pgaz d’une espèce gazeuse présente à la concentration Xgaz dans un mélange comme : Pgaz= Ptotale . Xgaz Pour des espèces d’eau différentes par leurs isotopes de l’oxygène, lors de l’évaporation de l’eau liquide, l’équilibre liquide gaz conduit à écrire (loi de Henry) : P(H216O) = Ptotale . Xgaz(H216O), P(H218O) = Ptotale . Xgaz(H218O), et considérant le mélange comme un gaz parfait, avec P°, pression de vapeur saturante : P(H216O) = Xliq (H216O) . P°(H216O) P(H218O) = Xliq (H218O) . P°(H218O) Le coefficient d’échange α lors de la vaporisation ne sera donc dépendant des pressions de vapeur saturante des deux espèces, il sera de la forme αvap-liq = P°(H218O) / P°(H216O) Or le liquide le plus dense est le moins volatil, donc αvap-liq <1 Dans le cas de l’eau pris en exemple, les coefficients de fractionnement, à 20°C, sont : α(18O) =0.9911 ; α(D) =0.9180 Le fractionnement à 20°C du Deutérium est donc (10.918)/(1-0.9911) = environ 9 fois plus fort que celui de l’18O. La température doit en effet être précisée car, reprenant l’expression de Clapeyron α= a/T +b, on remarque que le coefficient de fractionnement isotopique physique est lui aussi dépendant de la température. 16/10/12 Le fractionnement transport cinétique de Lorsqu’un processus engage un phénomène de transport, l’énergie utilisée pour ce transport va ce traduire par des différence de la vitesse acquise par les différents composés transportés en fonction de leur masse, en respect de la loi E = ½ mv2 Pour deux espèces isotopiques 1 et 2 d’un composé, les vitesses v1 et v2, auxquelles les molécules isotopiques 1 et 2 se déplacent sont fonction de leurs masses m1 et m2. Le coefficient de fractionnement isotopique cinétique de transport, est donc de la même forme que le rapport des vitesses v1/v2 = (m2/m1)1/2 : a léger-lourd= vléger/vlourd = (mlourd/mléger)1/2 Lors du déplacement d’une masse d’air par exemple, les molécules de dioxygène 16O2 sont fractionnées par rapport aux molécules un peu plus lourdes de 17O2, enrichissant l’air transporté comme suit : a (16O2-17O2) = (2x17 / 2x16)1/2 = 1.03078 Contrairement aux précédents coefficients de fractionnement isotopique, celui de cinétique de transport est indépendant de la température ; il ne dépend que du rapport des masses des molécules isotopiques. d- Le fractionnement cinétique de réaction Les vitesses de réaction de deux molécules isotopiques d’un composé donné dans une réaction chimique ne sont pas non plus exactement les mêmes. Les molécules légères sont un peu plus réactives, d’une part parce qu’elles se déplacent plus vite et accroissent ainsi leur nombre de collisions avec les autres réactifs, d’autre part parce qu’elles sont un peu moins stables que leurs sœurs lourdes. C. Allègre prend ici l’exemple de l’oxygène dans la réaction d’oxydation du carbone C + O2 → CO2 ; en raison des abondances naturelles des isotopes de l’oxygène, deux réactions sont dominantes : C + 16O16O → C16O16O de cte cinétique nommée K16 C + 16O18O → C16O18O de cte cinétique nommée K18 Et l’on peut montrer, connaissant les concentrations deux molécules isotopiques des réactifs et des produits que le coefficient de fractionnement isotopique cinétique de réaction est de la forme α = (K18/K16) Ce coefficient de fractionnement cinétique est-il lui aussi indépendant de la température ? La différence de réactivité des molécules isotopiques provient de différences de vitesse, donc d’énergie, donc de la température ? A PRIORI, la température devrait favoriser le fractionnement, mais l’échange isotopique est lui aussi un processus cinétique favorisé par la température. Ce double processus se traduit par une courbe « Fractionnement versus température » en cloche ; dans un domaine de relativement basse température, une élévation de la température augmente le fractionnement jusqu’à un maximum ; au-delà l’échange devient dominant conduit vers un fractionnement de plus en plus faible. Pour l’heure, nous ne disposons pas d’une expression générale décrivant cette compétition des deux processus. Lors des transferts du minéral vers le vivant les processus biologiques opèrent aussi un fractionnement qui favorise les isotopes légers. On observe ainsi un - 33 - ENSM-SE, 2° A : axe transverse P N enrichissement des plantes en 12C par rapport au 13C par le biais de la synthèse chlorophyllienne, processus de réduction du CO2 atmosphérique en C incorporé dans des molécules organiques D - Les chondrites, météorites non différenciées L’épisode de différenciation que nous retracions plus avant est en fait déjà le second phénomène qui affecte notre système solaire encore tout jeune. Il se situe en effet nécessairement après celui de la condensation de la nébuleuse solaire en une multitude de corps minuscules rendus plus ou moins massifs par accrétion. L’étude des chondrites va maintenant nous permettre d’accéder à cet épisode précoce de notre histoire. Rappelons que si elles proviennent bien elles aussi de la ceinture d’astéroïdes, les chondrites s'opposent au reste des météorites (achondrites) par leur texture juxtaposant des chondres chauds dans une matrice froide mais aussi par leur composition voisine de celle du Soleil et que seule la composition en éléments volatils des chondrites diffère significativement de celle du soleil (fig. 6d). L’ensemble de ces caractéristiques, auxquelles s’ajoute l’existence de chondrite ayant subi un début de fractionnement (les achondrites primitives) conduit nécessairement à penser que les chondrites sont des objets restés en marge de l’évolution du système depuis leur formation, en particulier lors de la différenciation des corps massifs du système. Seules les comètes que nous verrons plus loin sont probablement encore moins évoluées. 1 - Les chondrites sont des objets apparus très tôt dans l'effondrement gravitaire de la nébuleuse. Les chondrites sont toutes datées à 4.55 G.a. ± 0.1 par méthode Rb-Sr. C’est donc dire qu’elles ont à peu près l’âge du système lui-même. Parmi elles, les chondrites carbonées, en particulier celles dites de type CI (I pour Iruna, Tanzanie), sont considérées comme les objets les plus primitifs que nous ayons échantillonnés dans le système solaire. La météorite du Lac Tagish, (Canada, 2000), celle d’Allende (Pueblito de Allende, Mexique, 1969) ainsi que celle d’Orgueil (France, fin XIX°) sont parmi les plus primitives jamais trouvées, et celle du lac Tagish contient des poussières interstellaires et des composés organiques semble-t-il plus vieux que le Soleil ! 16/10/12 est un isotope instable, et il donne du 26Mg par désintégration β; ( 26Al → 26Mg + β+) Donc, avec le temps, et tant qu’il restera du 26Al, le rapport 26Mg / 25 Mg sera croissant. Bien évidemment, cet accroissement est d’autant plus fort que la teneur initiale en 26Al est importante. Par conséquent, on peut affirmer16 que, quelle qu’ait été la valeur du rapport initial des deux isotopes de l’Aluminium 26Al et 27Al dans la nébuleuse, plus il entrait d’ 27 Al (stable) dans un minéral de notre chondrite en train de se former, plus il y entrait aussi de 26Al (radiogénique), et donc plus le rapport 26Mg/25Mg était susceptible d’évoluer à la hausse ensuite. Inversement, la corrélation positive observée de nos jours entre ce rapport 26Mg/25Mg et la quantité de 27Al (inchangée depuis le départ) démontre que lorsque les minéraux de la chondrite d’Allende se sont 26 formés, il existait encore du Al. (Lire http://www.emse.fr/~bouchardon/enseignement/processusnaturels/up1/cours/geotherme/cours_2008_2009_geotherme.ppsx). L’extraordinaire dans cette découverte réside dans le fait que la période de 26Al, extrêmement courte (λ = 740 000 ans), impose que les minéraux des chondrites de type Allende aient été formés très tôt, à peine 10 millions d’années après l’explosion de la Nova qui ensemença notre nuage en 26Al. Outre le fait que d’autres radionucléides éteints (53Mn, 60Fe, 129I, 146Sm, 182Hf, 244Pu) sont venus depuis conforter ce modèle d’effondrement–expulsion suivi d’un refroidissement rapide, il semble que le 41Ca (λ = 100 000 ans !) soit en passe d’imposer des contraintes de temps encore plus drastiques. Cela impose aussi des contraintes de distance nécessairement courte entre la Nova qui donne naissance à ces isotopes à vie courte et le gaz protosolaire, qui fut suffisamment pollué pour porter la trace de radioéléments encore vivants juste après son effondrement. Ces cailloux exceptionnels nous invitent clairement à faire un petit retour en arrière, sur l'épisode de contraction de la nébuleuse protosolaire et sa condensation, allons-y. Fig. 12: la Nébuleuse d'Orion, pouponnière d'étoiles Pour HC Connolly et R. H. Hewins (1995), cette période très mouvementée de création de notre étoile n’a duré en fait qu’un laps de temps extrêmement court. La première preuve nous en fut donnée en 1976, par l’étude des isotopes du Magnésium des minéraux de la chondrite CI d’Allende (Mexique). Les observations sont les suivantes : 1 - le rapport 26Mg / 25Mg y est anormalement élevé par rapport à celui des autres matériaux connus (même très anciens) ; 2 - cet excès du rapport des 2 isotopes du Mg est corrélé à la teneur en 27Al de ces minéraux. Les deux isotopes 25Mg et 27Al sont stables, et donc leurs quantités n’ont pas varié depuis le stade initial, c. à d. depuis la constitution du nuage de gaz protosolaire. Par contre, 26Al 16 Sachant que les phénomènes de cristallisation sont incapables de séparer des isotopes. - 34 - ENSM-SE, 2° A : axe transverse P N Fig. 13a: La naissance d'une étoile (Brahic et al.) 16/10/12 Rappelons tout d’abord que depuis son allumage, notre Soleil reste bloqué au stade étoile ordinaire, et que tant qu’il lui restera de l’Hydrogène à brûler en Hélium, et il ne produira rien d’autre que cet Hélium. Ce n’est qu’à ce stade que son effondrement gravitaire pourra reprendre vers de plus hautes pressions et de plus hautes températures, jusqu’au stade de Géante Rouge. Il ne dépassera d’ailleurs pas ce stade, sa masse étant trop faible. Il ne peut donc être le père des éléments lourds qu’il contient actuellement. Seules les étoiles massives en fin de vie comme les géantes rouges, ou mieux encore les étoiles de type Nova (avec les étoiles Wolf-Rayet) sont capables de fabriquer des éléments lourds (Masse Atomique>Fe). On observe aujourd’hui des nuages certainement comparables à ce que fut le nôtre (fig. 12) ; ils ont une taille considérable, jusqu'à 200 A.L., et une origine elle aussi indubitablement complexe. En outre, ils contiennent des grumeaux plus froids, et donc plus denses, que le nuage luimême (10°K). Dans un tel gaz les éléments s’associent au moins partiellement en molécules, plus ou moins complexes (e.g. H2O = eau ; MgSiO3 = enstatite, un pyroxène). Tout semble avoir commencé pour nous il y a 4.57 Ga., soit sous la pression même du gaz provenant de la Nova qui ensemença notre gaz en éléments lourds, soit lors de la traversée de notre nuage déjà ensemencé par un bras galactique (onde de densité), comme cela semble se passer de nos jours pour les étoiles jeunes dans la nébuleuse d'Orion (e.g. 4 étoiles très lumineuses in Fig. 12). Une telle onde de densité pourrait provoquer la Fig. 13b: image des jets bipolaires de l’étoile HH 30; l’étoile n’est pas visible en raison de la forte extinction provoquée par le disque circum stellaire. Ci-dessous, Image de la Nébuleuse de l’Oeuf - 35 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Tableau 6 : classification des éléments chimiques: • Réfractaires Tc 1400 K (T°condensation)> • Modérément réfractaires Tc~1300 K • Modérément volatils 800 K<1200 K • Volatils Tc< 800 K Eléments lithophiles. Ce sont des éléments qui sont localisés préférentiellement dans les roches silicatées (manteau, croûtes) et qui n'ont aucune affinité pour le fer et ses alliages (noyau). Ils peuvent être réfractaires ou volatils. On peut distinguer : • Lithophiles réfractaires : Be, Al, Ca, Sc, Ti, V, Sr, Y, Nb, Ba, terres rares, Hf, Ta, Th, U • Lithophiles modérément réfractaires : Mg, Si, Cr • Lithophiles modérément volatils : Li, B, Na, K, Mn, Rb, Cs… • Lithophiles volatils : F, Cl, Br, I Eléments sidérophiles. Ce sont des éléments qui ont une affinité pour la phase métallique et sont localisés préférentiellement dans le noyau. Ils peuvent être réfractaires ou volatils. Ainsi on peut distinguer : • Sidérophiles réfractaires : Mo, Ru, Rh, W, Re, Os, Ir, Pt • Sidérophiles modérément réfractaires : Fe, Co, Ni, Pd • Sidérophiles modérément volatils : P, Cu, Ga, Ge, As, Ag, Sb , Au • Sidérophiles volatils : Tl, Bi Eléments chalcophiles. Ce sont des éléments qui ont un comportement comme le soufre. Ils sont très volatils. • Chalcophiles volatils : S, Se, Cd, In, Sn, Te, Hg, Pb Eléments atmophiles. Ce sont tous des éléments très volatils. Ils se retrouvent préférentiellement dans l'atmosphère et l'océan. • H, He, C, N, O, Ne, Ar, Kr, Xe fragmentation de ce nuage en globules, puis leur devrait durer 10 à 15Ga environ… effondrement. L'un de ces grumeaux, que l’on nomme globules de Bok, aurait été la nébuleuse protosolaire. Le passage du stade grumeau au stade étoile est encore très mal 2 - Les chondrite, objets primitifs, produit de la compris. Le confinement qui en résulte représente une condensation de la nébuleuse augmentation de densité de 1020! La figure 13a en résume En allant vers la périphérie du nuage, la température les principales étapes: peu après création du globule, son et la densité de gaz décroissent ; il s’établit donc un profil de effondrement commence. La chaleur du nuage, son champ température qui, selon Grossmann et Larimer (1974, magnétique et sa vitesse s'y opposent, et le scénario de fig. 14a), a guidé la condensation du gaz de la nébuleuse, en contraction gravitaire serait bloqué à ce stade si l'étoile en fonction du caractère plus ou moins réfractaire des éléments formation ne pouvait expulser une grande quantité de son chimiques (Tableau 6) ; énergie sous forme de jets polaires (Fig. 13b) confinés par le champ magnétique de l’étoile, qui éjectent ainsi de la Il faut bien comprendre que ce gradient n’a rien de matière à des vitesses considérables (quelques centaines à statique, et qu’au fur et à mesure de la condensation du gaz, plus de 1000 Km s-1). L'effondrement du globule en rotation des régions encore froides devenaient chaudes. provoque la concentration de la matière dans le plan L’augmentation de température du système a dû s’arrêter équatorial et en son centre, où la pression s’accroît et avec l'arrêt de l'effondrement du Soleil, c’est à dire lorsque provoque la condensation du gaz de la nébuleuse, et où la les réactions nucléaires se sont allumées, et le système a pu température s’accroît jusqu’à ce que s’allume la réaction commencer à se refroidir. Avec le refroidissement du nucléaire de l’Hydrogène en Hélium. L’énergie dégagée système solaire, un point situé à une distance donnée du s’oppose dès lors à l’effondrement gravitaire, qui va rester soleil voit alors la séquence progresser dans le temps de la bloqué durant toute cette étape de combustion tranquille qui gauche vers la droite. A la fin du processus, on distingue deux régions : Fig. 14a : La séquence de condensation dans la nébuleuse proto-solaire, à P=10-4 Atm, d’après Grossman et Larimer 1974. - 36 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Fig14b: la séquence de condensation : à une distance correspond une température et donc différents types de corps formés lors du refroidissement Tableau 7 : Série de condensation à l’équilibre d’un gaz de composition solaire ; à T° donnée ( ou à une distance donnée du centre de la nébuleuse), tout ce qui est au dessous de la température est solide, tout ce qui est en dessus est gazeux. °K Chimie des condensats 1 600 °K Condensation des oxydes réfractaires (CaO, Al2O3, oxydes de titane, zirconium) 1 300 °K Condensation de l’alliage Fer-Nickel 1 200 à 490 °K 1 000 °K 550 à 425 °K Condensation de l’enstatite MgSiO3, et réaction avec FeO pour donner FexMg(1-x)SiO3 Na réagit avec Al2O3 et les silicates pour former Feldspaths et minéraux alcalins La vapeur d’eau se condense en glace 150 °K NH3 gazeux réagit avec la glace et forme un hydrate solide (NH3,H2O) 120 °K CH4 gazeux réagit avec la glace et forme un hydrate solide (CH4,H2O) < 20°K Champ des silicates H2O se combine aux minéraux CaMgFe (amphibole, serpentine) 175 °K < 120 °K Champ du Fer Champ des glaces Condensation des derniers gaz résiduels (Ar, N2) Condensation de l'H et l'He (n'arrivent jamais dans la nature) 1 - Dans le voisinage chaud du soleil, seuls les éléments ou molécules les plus réfractaires peuvent se condenser en poussières solides. Les autres éléments ou molécules y sont bien présents, mais restent à l’état gazeux ; avec la distance au soleil nous rencontrons d’abord le domaine des oxydes réfractaires de Ca, Al, Ti, puis celui des métaux (e.g. Fe et Fe-Ni), puis celui des silicates ferromagnésiens (e.g. olivine –pyroxène), pour voir enfin à T<600°K la molécule OH se condenser avec les silicates (pour former des amphiboles par exemple). Nous sommes dans le champ du fer et des silicates (tableau 7 site ENS Lyon).; 2 - Loin du Soleil, en dessous de 175°K, les éléments ou molécules plus volatils se condensent à leur tour, et l’on pénètre dans de monde de la glace d’eau et des hydrates d’ammoniac ou de méthane (tableau 7). Les silicates et le fer sont encore présents, mais se couvrent d'un givre glacé, donnant un mélange fer-silicatesglaces baignant dans un mélange gazeux fait d’Hydrogène et d’Hélium. Notons que la température n'est jamais assez basse pour que l’Hydrogène et l’Hélium se condensent. On situe la limite entre ces deux domaines au niveau de la ceinture d’astéroïdes entre Mars et Jupiter (environ 750 millions de km du centre du nuage, Fig. 14b), car c’est d’ici que viennent les chondrites, dont on sait qu’elles contiennent une matrice riche en volatils parfois carbonée et même riche en eau, et l’on constate en outre qu’en deçà de cette limite, la phase de condensation-accrétion a mené aux planètes telluriques, alors qu’au-delà elle s’est traduite par la formation des planètes gazeuses. Selon ce schéma de condensation, les chondres (constitués de minéraux de haute T°) apparaissent donc comme des condensats anormalement chauds (ils se formeraient vers 1300°K) pour leur environnement froid capable de condenser des volatils. Faut-il donc imaginer qu’ils se sont formés dans les mêmes régions que les planètes telluriques. La présence de chondres à inclusions de réfractaires Al-Ca dans certaines chondrites laisse même à penser que leur condensation pourrait avoir eu lieu très près du Soleil, à l’intérieur de l’orbite de la future Mercure, au sein de ce disque de matière en cours d’accrétion dans lequel les planètes vont bientôt apparaître. Il faut donc ensuite transporter ces condensats chauds vers des régions plus éloignées et froides, dans le champ des glaces. Durant la phase d’accrétion planétaire, le champ de gravité des planètes s’est accru, et les corps massifs ont pu agir très tôt vis à vis des nombreux projectiles légers croisant dans leur environnement comme des frondes17. 17 C’est probablement ainsi que l’énorme pesanteur des deux planètes géantes, Jupiter et Saturne a pu faire le vide de tous - 37 - ENSM-SE, 2° A : axe transverse P N Néanmoins, il ne s’agit là que d’un des scénarios possibles, et la formation des chondres garde encore largement son mystère Le fait que ces fameuses gouttelettes résulte d’une fusion reste très surprenant pour des condensats, car sous les basses pressions qui règnent dans une nébuleuse, la phase liquide ne devrait pas exister. Sontils formés en un instant lors de chocs entre planètésimaux ? Volcanisme d’astéroïdes ? Condensation chaude ? Aucune de ces hypothèses ne répond à l’ensemble des questions posées par ces microbilles (texture, composition). Nombre de chercheurs tendent alors à penser que leur formation résulte d’un chauffage transitoire et rapide, au sein de la nébuleuse, dans un environnement ne dépassant pas les 650°K ; collision des petits cors métriques ? Chauffage par friction entre grains de poussière durant l’effondrement ? Flashs magnétiques provenant du Soleil ou reconnexion des Fig. 15: formation des chondrites lignes du champ solaire qui s’allume à un champ externe ? Souffle de chaleur accompagnant le vent solaire très fort de la phase T-Tauri18 ? Un quelconque phénomène encore entièrement inconnu ? Les possibles sont nombreux…. L’histoire des chondrites s’arrête au stade accrétion ; elle est seulement suivie (Fig. 15) de la fragmentation des petits cailloux ainsi formés dans la ceinture d’Astéroïdes, que le hasard des changements de trajectoire propulsera peut-être vers la Terre. 16/10/12 fait, la glace d’eau devenait dominante dans cette région. Ces poussières de glace riches en ammoniac et hydrocarbures s'agglomèrent pour former des gros corps glacés (constitués de glace à 60 %), dans un environnement froid, qui acquirent alors une gravité suffisante pour retenir l'hydrogène et l'hélium de la nébuleuse dans leur atmosphère. Quatre corps faits de fer, silicate et surtout glaces (les noyaux des futurs Jupiter, Saturne, Uranus et Neptune) se sont ainsi entourés d'une énorme masse de gaz, devenant de ce fait les 4 planètes géantes. Dans leur voisinage, des corps glacés trop petits pour capturer et retenir une atmosphère sont devenus des satellites de glace, excepté les satellites les plus internes de Jupiter, comme Io (purement ferrosilicatés) et Europe (corps ferrosilicaté recouvert seulement d’une centaine de km d'eau), situés dans les corps à densité>2.7 (cf. introduction Fig. 3, première séquence des densités). Peut-être la masse exceptionnelle de Jupiter a-elle reproduit dans son voisinage les conditions de hautes pressions et hautes températures que l’on retrouve à proximité du soleil ? Ceci expliquerait pourquoi les satellites les plus externes de Jupiter sont des satellites de glace, comme Ganymède et Callisto (séquence des densités moyennes). Peut-être les marées de Jupiter sur ses satellites proximaux (comme Io) sont-elles trop fortes, et dégagent-elles trop de chaleur pour que de la glace y subsiste ? Ganymède et Callisto, peu chauffés, auraient gardé l'intégralité de leur glace ? Au delà de Neptune, la densité des agglomérats de matière est semble-il toujours restée trop faible pour permettre la constitution d’un objet de type planète gazeuse. La ceinture de Kuiper serait le résultat de l’étape de condensation froide de cette région, et ses corps les plus gros résulteraient de cette agglomération protoplanétaire « avortée ». Dans un tel schéma, Pluton et son satellite Charon ne constituent que des avatars excentriques issus de cette ceinture. Ce modèle de condensation permet aussi de mieux comprendre la composition chimique des planètes géantes. Au-delà de la ceinture d’astéroïdes, la glace d’eau pouvait se condenser ; or l’hydrogène et l’oxygène sont deux des 3 - Vers une contribution de plusieurs étoiles à la éléments les plus abondants dans le gaz nébulaire, et de ce chimie de notre Soleil ? les petits objets situés dans leur environnement, voir même peut-être Pluton( ?), et contribuer à enrichir la ceinture de Kuiper et le nuage de Oort en corps glacés. Les planètes telluriques ont pu elles aussi renvoyer des condensats chauds vers des régions plus externes, mêlant ainsi condensats chauds ou très chauds venus de l’intérieur et matériel froid probablement condensé in situ. Certains de ces condensats mixtes se seraient trouvés piégés dans la ceinture d’astéroïdes, et auraient subi ici des débuts de différenciation menant à des achondrites primitives, des cailloux, des planètésimaux ou enfin des planètoïdes avortés, éventuellement différenciés puis fragmentés comme nous l’avons vu plus avant. 18 Le vent stellaire de la phase précoce, dite T. Tauri (étoile T du Taureau) est très intense et a probablement expulsé vers l'extérieur du tout jeune système solaire les matériaux non encore condensés (gaz nébulaire, poussières ?), voire même probablement les atmosphères primaires des planètes rocheuses (cf. chapitre 5). Peut-être faut-il voir là aussi une des causes possibles de la distribution des masses volumiques moyennes des corps planétaires au sein du système solaire. Ce modèle de condensation – accrétion suppose, au moins en première approximation, que le gaz nébulaire initial était homogène. Toutefois, en y regardant de très près, R. N. Clayton, L. Grossman et T.K. Mayeda ont observé en 1973 dans les inclusions riches en éléments réfractaires (Al, Ca et Ti) de la chondrite carbonée Allende que la diversité de composition chimique des chondrules des chondrites est non négligeable. Ainsi, leur analyse isotopique a mis en évidence des hétérogénéités de composition : 1 - la composition isotopique en 50Ti des chondres de la population des chondrites est hétérogène ; en première hypothèse, cette variabilité pourrait refléter un processus de fractionnement héliocentré très précoce au sein de la nébuleuse pré-planétaire, et en seconde hypothèse, elle pourrait refléter la contribution de plusieurs étoiles différentes dans la constitution du nuage de gaz protosolaire ; le choix reste ouvert. 2 - la répartition des rapports isotopiques 17O/16O et 18 O/16O est différente chez les chondrites de celle que l’on trouve tant dans les océans que dans les roches terrestres, comme le montre le diagramme de - 38 - ENSM-SE, 2° A : axe transverse P N variation des isotopes de l’oxygène, δ18O versus δ17O (fig. 16). 16/10/12 Fig. 17: hétérogénéité isotopique des chondrites héritée de la nucléosynthèse Ce second point est complexe et nécessite un développement. L’oxygène est l’élément condensé le plus abondant du système solaire. Par conséquent les anomalies isotopiques qu’il présente doivent révéler de phénomènes majeurs. Dans ce diagramme, où l’eau des océans est prise en référence (en X, δ17O/16O=0 ; en Y δ18O/16O=0, cf. § 2.C.2), les roches terrestres, les météorites achondrites plus les matériaux lunaires sont tous distribués sur une même droite. Cela suggère que tous ces objets sont hérités d’un système qui fut initialement homogène, et qu’aucune des modifications, transformations et réactions qui ont pu se produire ensuite n’ont été capable de 17 modifier le rapport O/16O 18 16 indépendamment du rapport O/ O. Cela est généralement admis comme vrai car les réactions chimiques respectent la conservation de la masse, et donc tous les phénomènes chimiques que le système solaire a connus en 4.57 Ga., s’ils ont pu altérer ces 2 rapports isotopiques (e.g. différentiation des roches terrestres), l’on sans doute fait en conservant la proportionnalité des masses atomiques des isotopes (cf. § 2.C.2). Par conséquent, on admet que si un processus chimique a provoqué une modification du rapport initial 17 O/16O en l’accroissant par exemple de une unité (δ17O/16O=1), il aura produit corrélativement une augmentation du rapport 18O/16O de 2 unités (δ17O/16O=2), car la différence de masse 18O-16O est deux fois plus grande que celle de 17O-16O. La droite reliant des échantillons ayant subi de tels processus dans figure 16 est donc logiquement de pente ½, c’est le cas des matériaux du couple Terre Lune. peut-être obtenue à partir du même système initial par de simples réactions chimiques. La droite de pente 1 fut alors interprétée comme un mélange entre deux réservoirs, dont l’un avait la même composition isotopique que l’oxygène du système solaire, et l’autre correspondait à une composante de 16O pur (jusqu’à 5 p.100 en 16O pur dans certains minéraux des inclusions réfractaires). Une origine extérieure au système solaire des anomalies en 16O paraissait donc l’explication la plus vraisemblable, et fut attribuée à des processus nucléaires de combustion explosive dans une supernova. On pensait enfin démontré que des phases minérales dans les inclusions réfractaires des chondrites carbonées contenaient des fractions qui n’avaient pas été homogénéisées avec l’oxygène solaire. Par ailleurs, en étudiant non plus la population des chondrites mais les chondrites une à une, H.C. Conolly (1995) a montré qu’au sein même de chaque chondrite étudiée, le 54Cr semble présenter des hétérogénéités Or on constate dans la figure 16 que les rapports des isotopiques d'une espèce minérale à l'autre. Cet élément (du minéraux des échantillons de chondrites19 ne se distribuent groupe du fer réputé très stable) est formé par pas sur cette droite, et en particulier que les chondrites nucléosynthèse dans les étoiles massives lorsque qu'elles carbonées constituent une autre droite, de pente 1, qui ne atteignent la fin de leur vie, Nova et en particulier Wolf-Rayet. Comme pour chaque élément, chaque étoile Fig. 16 : Contenu isotopique des chondrites hérité d’un mélange massive, où a lieu la nucléosynthèse du Chrome, est caractérisée par un flux de neutrons qui lui est propre, et l'on de nébuleuses ; ordonnées δ18O (°/°°), abscisse δ17O (°/°°) peut penser en corollaire qu'elle possède sa signature isotopique, en fabriquant des isotopes riches en neutrons d'un élément dans des proportions spécifiques; ceux du Chrome montrent que deux cas peuvent alors se produire, (Fig. 17) : 1 - à gauche, les produits de la nucléosynthèse de chaque étoile condensent en espèces minérales différentes, et donc chaque espèce minérale possédera sa signature isotopique, c'est ce que semble montrer 54Cr; 2 - à droite, les produits de la nucléosynthèse de chaque étoile condensent en espèces minérales identiques, et donc, au sein de chaque espèce minérale il existerait des sous populations qui posséderaient leur signature isotopique? 19 Attention, le raisonnement est conduit ici sur les minéraux des chondrites, et na donc rien de commun avec celui que nous avons mené sur le rapport D/H de l’eau des chondrites carbonées hydratées (Chp2.A.1.a). À ce point, une remarque importante doit être faite. Des expériences réalisées en 1983 simulant la haute atmosphère avaient montré que dans la production - 39 - ENSM-SE, 2° A : axe transverse P N d’échantillons d’ozone par décharges électriques dans de l’oxygène neutre, on obtient dans le diagramme δ17O/16O vs δ18O/16O une droite de pente égale à 1. Dans le fractionnement isotopique (chp2.C.2), nous n’avons pas abordé l’effet de symétrie moléculaire sur le fractionnement des molécules isotopiques. Or on a découvert que, dans certains cas, le fractionnement de 18O/16O est égal à celui de 17 O/16O et non le double comme prévu par les différences de masse. Pourquoi et comment ? Si le comment est encore inconnu, il semble que le pourquoi réside dans la symétrie des molécules impliquées. On observe ainsi actuellement dans la fabrication de l’Ozone O3, dans la haute atmosphère terrestre sous l’effet des UV courts venus du Soleil (cf. Chp. 5.B.2.a, cycle de Chapman), qu’il n’y a de fractionnement entre les deux molécules symétriques d’O3, 54 O3 = 18O18O18O et 48O3 = 16O16O16O, alors que la molécule asymétrique 51O3=18O17O16Oest enrichie 200 fois. Un fractionnement isotopique indépendant de la masse est donc possible au cours d’une réaction, dans des conditions particulières de champ électromagnétique élevé en tout cas. Les anomalies isotopiques de l’oxygène ont pu être produites dans la nébuleuse protosolaire par les rayonnements des radionucléides à vie courte, par les rayons ultraviolets, ou encore par les décharges électriques ionisantes produites sous l’action de champs magnétiques intenses. Une telle explication des anomalies isotopiques de l’oxygène modifie radicalement le scénario d’une origine extérieure au système solaire de la composante 16O. D’autres expériences, sur d’autres isotopes, ont aussi conduit à des hypothèses d’origines nucléosynthétiques situées dans la nébuleuse protosolaire. Encore récemment, il a été découvert du 10Be dans la météorite Allende. Les chercheurs affirment que cet isotope radioactif du Béryllium n'a pu être produit que par des collisions entre des noyaux d'hydrogène ou d'hélium accélérés à de très hautes énergies, alors que le Soleil encore très jeune émettait un rayonnement nucléaire intense. Certaines chondrites contiennent même des phases ou des grains, dont l’âge apparaît «pré solaire», et qui portent les signatures indubitables ( ?) de processus nucléosynthétiques qui se sont produits dans divers types d’étoiles. Ces phases ont-elles été formées dans l'environnement de diverses étoiles avant la naissance du soleil ? Quelques unes de ces phases dites pré solaires sont bien identifiées: diamant, carbure de silicium, graphite, corindon (Al2O3). Faut-il conclure à la contribution des plusieurs étoiles ? À des nucléosynthèses dans le nuage protosolaire ? La suite reste à démontrer... E - Les comètes, second type d’objets primitifs, encore plus froids Les premières images détaillées de comètes nous ont été fournies par la sonde Giotto (Fig. 19a page suivante). Les comètes sont sans doute les objets les plus primitifs que nous puissions connaître. Depuis 4 Ga., elles constituent la mémoire du système solaire. 1 - Des petites boules de neige sale 16/10/12 Fig. 18: Accrétion de la nébuleuse solaire boules de neige sale, comme les appelait F. Whipple en 1950, avaient été fabriquées aux confins du système solaire lors de la phase d’accrétion à froid de la nébuleuse, à une distance d’environ une année-lumière, dans la ceinture de Kuiper et qu’elles avaient pu être ensuite dispersées sous l’effet de perturbations gravifiques en un nuage sphérique de rayon comparable, dit « nuage de Oort » (Fig. 18). On pense de nos jours que le nuage de Oort aurait précédé la ceinture de Kuiper. Les comètes auraient été formées au voisinage des planètes joviennes (paragraphe fractionnement des éléments et des corps), puis ensuite elles auraient été éjectées vers la périphérie du système solaire « au gré des rencontres » gravitationnelles (relire la note infrapaginale n°17 sur le rôle des deux planètes géantes, Jupiter et Saturne), tant dans le plan de condensation du nuage (ceinture de Kuiper), qu’à l’extérieur du plan (nuage de Oort). Ce sont ainsi des milliards de petits morceaux de On a longtemps pensé que les comètes, ces petites - 40 - ENSM-SE, 2° A : axe transverse P N la nébuleuse primitive qui tournent ainsi autour du soleil20. A cette distance du Soleil, l'environnement est si froid (quelques degrés K) qu'il a permis aux comètes de conserver leurs éléments volatils depuis leur création. En outre, la taille des comètes qui ont été observées lors de leur passage au voisinage du Soleil ne dépasse pas quelques hectomètres à quelques kilomètres, ce qui garantit aussi qu’elles n’ont pas subi de réchauffement important lors de la phase d’accrétion. 16/10/12 Fig. 19a : Comète de Halley, sonde Giotto, 1986 dissociation de molécules plus complexes dont quelques-unes seulement ont aussi été observées. Outre H2O, citons les molécules HCN (acide cyanhydrique), CH3OH (méthanol), H2CO (formaldéhyde), auxquelles vient s’ajouter H2S. Des raies caractéristiques de C2 A la suite de perturbations du champ de gravité et de C3 laissent à penser que solaire, probablement provoquées par la proximité d'autres des cycles aromatiques étoiles, les comètes décrochent de leur nuage pour une devraient aussi être présents dans la glace, avec C2H6O2 orbite très excentrique qui les fait passer très près du Soleil. (éthylène-glycol) déjà Fig. 19b: queue de la comète La Terre est, semble-t-il, largement protégée de leurs identifié dans la comète Hale-Bopp impacts par les planètes géantes qui créent une perturbation Hale-Bopp. Les comètes gravitaire suffisante pour détourner nombre de projectiles, apparaissent donc comme ceux de juillet 94 sur Jupiter. A chaque révolution, constituées de 80% de elles subissent un réchauffement, et une fraction de la glace grains minéraux, entourés cométaire est sublimée au voisinage du Soleil. La de glace (20%) riche en composition des comètes commence à peine à être connue, composés organiques. grâce en particulier à la spectrométrie UV tout d’abord puis L’origine de ces composés IR dans les années 80. Notre atmosphère est largement organiques reste à trouver. opaque dans ces longueurs d’ondes et il a fallu mettre au Sont-ils contemporains de point des méthodes embarquées par les sondes spatiales. La l’épisode d’accrétion? Du radioastronomie au sol vient compléter cet attirail. Leur nuage interstellaire antérieur? Ces fossiles vivants, témoins connaissance n'a donc largement progressé que durant les de nos origines peuvent avoir eu une importance toutes dernières décennies, tout particulièrement depuis le considérable dans la constitution des atmosphères passage de la comète de Halley en 1986 (Fig. 19a) planétaires. On a en effet de bonnes raisons de penser (cf. Chp. 4.D, « Naissance tourmentée de la Terre ») que le Tableau 8: Abondances des bombardement météoritique et cométaire ne 2 - La chevelure des comètes molécules mères dans les s’est pas arrêté brutalement avec la phase de refroidissement du système solaire, mais que Le dégazage commence à une comètes recensées cette accrétion terminale postérieure à la Molécules Abondances distance du Soleil (ou température) variable, phase T-Tauri a apporté aux planètes déjà H O 100 2 entre 5 et 15 UA, probablement en fonction formées et différenciées, une sorte de vernis 2-20 CO de la composition de la glace de la comète. 3 CO de matériaux précoces et froids, dont de l’eau 2 La Comète (environ 600 Km3 pour la comète 0.03-4 H2CO et du carbone. Le rôle des météorites de Halley) s’entoure alors d’une atmosphère CH3OH 1-8 carbonées hydratées de type Murchison <0.2 HCOOH très ténue, constituée de molécules appelées pourraient avoir joué un rôle clef, et <1? CH4 mères (tableau 8) que la très faible gravité de 0.1-1 NH3 nombreux sont ceux qui s’accordent à penser l’objet ne pourra retenir. C'est cette ~0.1 HCN que l’océan terrestre doit énormément à atmosphère qui est à l’origine de ce que nous 0.02-0.2 N2 cet épisode « tardif », et peut-être que la vie ~0.2 H S 2 appelons la queue de la comète. Cette sur Terre n’aurait pas eu lieu sans cet CS2 0.1 chevelure est en fait double. La partie <0.3 OCS apport en composés organiques brillante est constituée de grains de <0.001 S02 poussières (silicates plus métaux) qui, 0.05 S2 entraînés avec la sublimation, réfléchissent la lumière. Cette première partie de la queue est fortement Fig. 19c : Comète de Halley, composition de l’atmosphère arquée par le flux de photons (pression de radiation Fig. 19b). La seconde partie est constituée d’ions provenant de la dissociation et de l’ionisation par les UV de molécules de l’atmosphère de la comète. Elle est moins arquée, par les particules chargées du vent solaire, et constituée de molécules dites filles (Fig. 19c). On y a reconnu en premier lieu H et OH, mais aussi nombre de composés carbonés et azotés, tels que CN, CH, CO, CH3O. Tous proviennent de la 20 Dans la ceinture de Kuiper il existe aussi quelques corps de plusieurs centaines de km ( e. g. astéroïde 2001 KX76, 1270 km ; 2002 LM60 "Quaoar", environ 1000 km) qui paraissent très semblables aux gros astéroïdes de la ceinture entre Mars et Jupiter (comme Cérès par exemple). Ont-ils subi une élévation non négligeable de la température ? - 41 - ENSM-SE, 2° A : axe transverse P N 16/10/12 . Sites WEB consultés http://www.nirgal.net/crater.html http://www.flagstaff.az.us/meteor/Mcrater.htm http://antwrp.gsfc.nasa.gov/apod/ap960604.html http://www.observ.u-bordeaux.fr/ http://cfa-www.harvard.edu/sao-home.html http://www.aip.org/ http://oposite.stsci.edu/pubinfo/SolarSystemT.html http://www.arachnaut.org/meteor/links.htm http://www.arachnaut.org/meteor/chondrules.html http://ssd.jpl.nasa.gov/images/ast_histo.ps http://www.image-contrails.de/overview.html http://palaeo.gly.bris.ac.uk/Communication/Lee/main.html http://miac.uqac.ca/MIAC/chicxulub.htm http://www.unb.ca/passc/ImpactDatabase/images.html http://perso.wanadoo.fr/pgj/meteorit.htm http://hubblesite.org http://eleves.mines.u-nancy.fr/~astro/TIPE.doc. http://hyperphysics.phy-astr.gsu.edu/hbase/astro/astfus.html#c2 http://www.unice.fr/Radiochimie/Chapitre_1_2.htm http://seds.lpl.arizona.edu/nineplanets/nineplanets/meteorites.html http://www.nirgal.net/main.html http://www.sat-net.com/spnews/planetarium/meteorites_class.html http://www.astrosurf.com/spacenews/planetarium/meteorites_comp.html http://www.gps.caltech.edu/~gurnis/Movies/movies-more.html http://zebu.uoregon.edu/~js/ast223/lectures/lec21.html http://www.obspm.fr/actual/nouvelle/mar04/glycol.fr.shtml quelques idées fortes Quelques idées fortes : La seule réaction nucléaire qui existe dans le Soleil est la fusion de l’hydrogène en Hélium Tous les autres éléments présents sont hérités de nucléosynthèses préalables, (Géantes rouges, Nova ou Wolf-Rayet) L’élément le plus stable est le fer On appelle différenciation n’importe quel processus capable de transformer un système homogène en un ensemble d’objets physiquement et chimiquement distincts. Le fer et le silicium étant parmi les éléments les plus abondants dans l’univers, la différenciation des planètes est bipolaire : noyau Ferreux manteau Silicaté Les éléments chimiques se regroupent, en fonction de leurs affinités, et en fonction des structures minérales présentes : Sidérophiles : affinité avec le fer et les alliages, dans le noyau planétaire ; réfractaires ou volatils lithophiles : aucune affinité pour le fer et les alliages, dans les silicates (manteau, croûtes) ; réfractaires ou volatils: chalcophiles et atmophiles sont tous très volatils. La condensation du gaz nébulaire induite par son effondrement conduit à la différentiation du système solaire en deux domaines : Le domaine interne, champ du fer et des silicates, qui évolue vers les planètes rocheuses Le domaine externe, champ des glaces, qui évolue vers les planètes gazeuses La Ceinture d’astéroïdes entre Mars et Jupiter se situe à la frontière des deux domaines Les planètes satellites et astéroïdes se sont généralement différenciés : internes ils sont différenciés à chaud en noyau ferreux, manteau (et éventuellement croûte) silicaté externes, restés froids ils sont différenciés en un noyau rocheux et des enveloppes de glace Les comètes proviennent des confins du système solaire, les météorites sont originaires de la ceinture d’astéroïdes : Les comètes sont des corps fabriqués par accrétion froide dans le nuage proto-solaire ; elles n’ont pas pu évoluer depuis lors. Les météorites appartiennent à deux groupes de nature distincte et d’origine différente, les chondrites et les achondrites. Les chondrites sont des météorites indifférenciées (nées avant / pendant la différenciation du gaz proto-solaire en planètes) Elles sont constituées d’un assemblage de chondres noyés dans une matrice chondres = microbilles constituées de réfractaires condensés à chauds, matrice = condensat froid riche en volatils La composition chimique des chondrites est identique à celle de la chromosphère du Soleil, Les chondrites ont grosso modo l’âge du système solaire, 4.56 Ga , comme les comètes Les chondrites ont probablement conservé la trace des évènements pré-solaire et proto-solaires Les achondrites sont des météorites différenciées (nées après / pendant la différentiation de planètes, planètésimaux ou satellites) Les météorites différenciées sont de trois types : sidérites = morceaux de noyaux ferreux de corps planétaires différenciés aérolithes = morceaux de manteau ou de croûte provenant de corps planétaires différenciés sidérolithes = morceaux du domaine limite entre le manteau et le noyau de ces corps Les achondrites sont plus jeunes, jusqu’à 3.8 Ga environ (fin de l’époque d’accrétion des planètésimaux) - 42 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Sabin-Corneliu Buraga « Elecronic Painting » CHAPITRE 3 . La Terre vue par la géophysique Trois outils fondamentaux permettent d'imaginer l'intérieur de notre globe: 1 - un fil à plomb plus un poids suspendu à un ressort, dans le champ de gravité; 2 - un stylet et un cylindre à l'écoute d'une planète qui s'ébroue; 3 - une aiguille libre et aimantée boussole dans le champ magnétique. A - Gravimétrie et Géodésie La gravimétrie, en déterminant la direction et l'intensité de la pesanteur, résultante des accélérations appliquées à un corps au repos dans le référentiel Terrestre, permet d'une part de repérer des variations de densité (souvent utile dans la recherche minière), et d'autre part de définir précisément les formes de la Terre (Géodésie). On sait depuis 1687 avec Philosophiae Naturalis Principia Mathematica de I. Newton que lorsque les pommes de masse m tombent, la force F qui les attire vers la Terre de masse M peut être décrite sous la forme F = G m M / r2 M=g.r2/G. = 5.976 1024Kg Connaissant le volume de la terre on en déduit alors une masse volumique moyenne pour la Terre de 5.517 kg.dm3. Or AUCUNE roche ordinaire échantillonnée à la surface du globe ne possède un poids volumique dépassant 3.3 kg.dm3 et la moyenne est de 2.7 kg.dm3. Le globe terrestre est donc constitué de 2 couches au moins, et les masses volumiques de ces enveloppes sont très différentes. Nombre d'observations directes ou indirectes suggèrent que la Terre est constituée de deux couches, un noyau dense et un manteau: 1 - Cavendish a mesuré la constante G, en 1798 à Paris. Son dispositif expérimental (Fig. 1) comprenait deux petites masses égales, suspendues en équilibre au bout d'un fil non torsadé. En approchant symétriquement les 2 masses M, Henry Cavendish provoque le rapprochement des masses m: connaissant la distance entre les masses m et M, la force mise en jeu (celle qu'il faut appliquer au dispositif, hors de la présence des masses M, pour obtenir le même déplacement des masses m) Cavendish déduisit la valeur de G= 6.67 10-11 SI (N.Kg-2.m2). Fig. 1: Expérience de Cavendish Dès lors, la masse de la Terre M devient accessible, en mesurant l'accélération de la pesanteur, g. La mesure de g, effectuée sous vide par le bureau national des poids et mesures (chute d'un miroir interférométrique sous lumière monochromatique) donne la valeur de 9.801 m.s-2. Dans le cas des pommes, puisque la masse d'un corps peut être considérée comme ponctuelle et rapportée au centre de gravité du corps, on admettra que la distance entre les deux masses est très peu différente du rayon terrestre (r). L'accélération g subie par les pommes de masse m serait donc, avec mg = G.m.M/r2, de la forme g= G M / r2 (si la Terre ne tournait pas!). On en déduit: 1 - la nature des météorites différenciées, soit ferreuses soit silicatées, qui suggère que la séparation (partielle) du fer soit un phénomène courant dans les objets rocheux solaires; 2 - la structure sismique de la Terre met en évidence un saut de densité majeur et un seul, à 2900 km de profondeur (voir § modèle PREM discontinuité de Gutenberg); 3 - la concentration en fer du manteau, faible par rapport à celle des météorites indifférenciées, qui suggère une redistribution du fer dans la Terre au profit du noyau dense On peut évaluer sommairement les densités et les rayons respectifs du noyau dense et du manteau silicaté en se basant sur trois contraintes: 1 - la masse de la Terre et son rayon RTerre, donc son poids volumique moyen, ρ moy= 5.517 ; 2 - la différence entre le moment d'inertie réel du globe terrestre (= 0.33.MR2) et celui d'un globe homogène (0.4 MR2 ) ; 3 - le poids volumique du manteau, qui est au minimum - 43 - ENSM-SE, 2° A : axe transverse P N celui des roches connues du manteau supérieur, ρmanteau =3.3 kg.dm3; le poids volumique du noyau ρnoyau, est inconnu. On écrit alors la relation liant les poids volumiques de la Terre, telle que : ρmoy = ρmanteau+ (ρ ρnoyau-ρ ρmanteau)(Rnoyau/RTerre)3 et celle liant les moments réel et théorique, 0.331ρ ρmoy = 0.4[ρ ρmanteau+ (ρ ρnoyau-ρ ρmanteau)(Rnoyau/RTerre)5] 16/10/12 Fig. 3 : Pesanteur terrestre on en tire une relation entre le rapport des poids volumiques ρnoyau / ρmanteau et le rapport des rayons RR = Rnoyau/RTerre telle que: ρmanteau+ (ρ ρnoyau-ρ ρmanteau)(Rnoyau/RTerre)3 ρnoyau-ρ ρmanteau)(Rnoyau/RTerre)5] = 0.4/0.331 [ρ ρmanteau+ (ρ avec ∆ρ =(ρ ρnoyau - ρmanteau) et RR = Rnoyau/RTerre on a: ρmanteau + ∆ρ.RR3 = 1.21 ρmanteau+ 1.21Dρ.RR5 ∆ρ = 0.21 ρmanteau /(RR3-1.21RR5) ρnoyau-ρ ρmanteau = 0.21 ρmanteau /(RR3-1.21RR5) et ρnoyau / ρmanteau = 1+ 0.21/(RR3-1.21RR5) Le diagramme joint (Fig. 2) montre que ρnoyau / est au moins égal à 2.5ρmanteau. Pour un noyau situé à 2900 km (RR=0.55) et pour une densité moyenne du manteau de 4.1, le poids volumique calculé pour le noyau, de l'ordre de 12.2, est tout à fait compatible avec une nature ferreuse. mgal), qui exerce des forces de marées (de l'ordre de 20cm pour les marées terrestres) souvent négligées. Les conséquences en sont : 1 - le fil à plomb (g) ne passe pas par le centre de la Terre, sauf aux pôles; 2 - l'intensité du champ de g varie avec la latitude. Une Terre qui tourne, si elle se comporte comme un fluide, peut être considérée comme un ellipsoïde de révolution. Les mesures de méridiens (Fig. 4), effectuées au XVIII° au pôle et à l'équateur, aboutirent à une valeur estimée de 1/280 à 1/266. La valeur adoptée vers 1950, avant le 1° Spoutnik, était de 1/297 (H. Jeffreys). Avec Spoutnik-2 King-Hele révise sa valeur en 1957 (1/298), valeur très proche de la valeur admise de nos jours, 1/298.25 Fig 4: Applatissement polaire 2 - La mesure de la pesanteur La pesanteur au point P considéré, appliquée à une masse unité m, est définie comme la résultante des accélérations appliquées à m, corps au repos dans le référentiel Terrestre. Cette pesanteur peut être représentée en tout point autour de P par un ensemble de vecteurs g→, définis en sens direction et intensité, ensemble que l'on appelle champ de gravité. La pesanteur est composée de 3 termes (Fig. 3): 1 - la gravité terrestre (Fg=mg) avec g= G.M/r2 ≈ 980 gal; le gal équivaut à 10-2m.s-2 En outre, deux paramètres locaux viennent encore perturber la pesanteur, l’altitude au point considéré et la topographie autour de ce point: 1 - l'altitude, accroît la distance au centre de la Terre, et donc augmente Fc et diminue Fg 2 - la force centrifuge (Fc = m.ω ω2r ≈ m.ω ω2R.cosφ φ ); 3 - l'attraction du reste de l'univers non figurée ici (< 1 Fig. 2 : x= Rnoyau/RTerre vs. y = ρnoyau/ρmanteau 2 - La topographie, en introduisant des excès ou des déficits dans les masses environnantes, modifie la direction et l'intensité de la pesanteur. (Fig. 5). Fig. 5: Effet topographique :Cgm, centre de gravité de la masse montagneuse - 44 - ENSM-SE, 2° A : axe transverse P N Fig. 6 : Corrections des mesures de pesanteur 16/10/12 On appelle finalement anomalie de Bouguer, l'écart entre la pesanteur théorique calculée au point considéré sur l'ellipsoïde de référence, et la pesanteur mesurée et corrigée. 3 - Isostasie : comportement hydrostatique de la lithosphère On comprend donc dès lors, que pour être intelligible, toute mesure du champ de pesanteur doit être rapportée à une surface de référence. On utilise internationalement l'ellipsoïde de référence nommé «ellipsoïde de Hayford» dont l'aplatissement est de 1/298.25. Il faut ensuite corriger la valeur mesurée en chaque point (Fig. 6). Il faut donc corriger la valeur mesurée en chaque point (Fig. 6) la valeur g0 eq = 978.033 gals de la pesanteur à l'équateur: 1 - par une correction de latitude qui tient compte de la force centrifuge, soit (parenthèse est nulle à l'équateur) g0 th = 978.033 +(1 +0.005.sin2φ-0.000006 sin2.2φ φ) qui nous donne la valeur théorique de la pesanteur à la latitude φ du point de mesure p. 2 - on introduit une correction dite “ à l'air libre ” ou de Faye ou correction d'altitude, faite en supposant qu'il n'y a que de l'air entre le point de mesure p et le géoïde (Fig. 6); Elle est égale à (δg/δz) h avec un gradient vertical de gravité (δg/δz) = 0.309 mgal m-1 et h l'altitude au dessus de l'ellipsoïde. on appelle anomalie à l'air libre (FA) la différence entre la valeur mesurée gmes corrigée de l'altitude au dessus de l'ellipsoïde et la valeur théorique en ce point de l'ellipsoïde : FA = [gp mes + (δg/δz) h] – g0 th. Elle ne dépasse pas 100 mgal en valeur absolue, et met en évidence un déficit de masse au droit des fosses océaniques et inversement un excédent au droit des chaînes de montagne, avec un couple négatif positif très net au niveau des zones de subduction (Fig. 9). 3 - on opère enfin les 2 corrections de Bouguer, a) la correction dite “ de plateau ”, qui prend en compte l'attraction des masses comprises entre le point considéré et le géoïde de façon homogène, et b) la correction dite “ topographique ” qui tient compte de la répartition des reliefs. L’écart entre la pesanteur théorique calculée et la pesanteur mesurée et corrigée peut être fort, de l'ordre de 300 à + 300 mgal. Il est négatif au droit des chaînes de montagnes et positif au droit des océans. Tout se passe donc comme si le calcul de la réduction de Bouguer était largement inutile et que l'excès de masse que crée le relief montagneux au-dessus du géoïde était déjà quasi compensé (avant toute correction) en dessous de la surface de référence choisie, la correction introduisant alors un «déficit» apparent de masse. Cette anomalie<0 résulte donc largement du calcul de correction lui-même et le poids d'une colonne de terrain apparaît finalement constant d'une verticale à l'autre. Il s'opère donc, d'une verticale à l'autre, une compensation de type hydrostatique, appelée isostasie. Plusieurs modèles ont vu le jour (Fig. 7). Tous admettent que la croûte, rigide et moins dense que le manteau fluide, flotte sur celui-ci (Archimède). L'équilibre des poids des différentes colonnes de terrain est donc parfaitement réalisé au-delà d'une certaine profondeur, dite de compensation. Le modèle de Pratt, à la fin du siècle dernier, mettait en jeu des colonnes de terrain de densités différentes, donc d'épaisseurs différentes. Celui de Airy, quelques années plus tard, mettait en jeu des colonnes de même densité discrétisant une couche homogène. Enfin, le modèle de Vening Meinesz, datant du milieu du XX°, s'appuie sur le fait que la réponse élastique de la croûte est d'une amplitude beaucoup plus importante que la dimension des reliefs qu'elle porte. Autrement dit, la compensation isostatique d'un relief est régionale. L'influence des racines peut être exprimée par une nouvelle correction, dite “ isostatique ”. Toutefois, l'existence d'anomalies résiduelles montre que l'équilibre n'est pas réalisé partout. La cause en est la viscosité très élevée du manteau qui implique un temps de réponse important à toute modification de l'équilibre. Ainsi, le bouclier Baltique remonte encore de nos jours alors qu'il est allégé depuis 10 000 ans environ du poids des glaces qui le couvraient. Le premier enseignement essentiel de la gravimétrie est donc la confirmation de la plasticité de la Terre, grâce à son manteau viscoélastique, malgré sa croûte élastique (rigide). On appelle géoïde la surface équipotentielle de pesanteur coïncidant avec le niveau moyen des mers, Fig. 7: Les modèles d'isostasie Fig. 8 : Effet des reliefs sous marins sur la déviation de la pesanteur et le niveau des mers (géoïde) - 45 - ENSM-SE, 2° A : axe transverse P N Fig. 9a: Altimétrie satellitaire 16/10/12 Fig.9b: Carte des anomalies de la gravité , Grace 2003, échelle en mgals Chaîne continentale Arc - Fosse ride océanique prolongée à travers les continents. Si la Terre était ellipso concentrique pour toutes ses propriétés, le géoïde serait un ellipsoïde, et les isothermes seraient des ellipsoïdes «conformes» au géoïde. En fait, la Terre n'est ellipso concentrique qu'en toute première approximation. Aux effets topographiques des fonds océaniques (Fig. 8) et de la surface continentale qui introduisent des ondulations du géoïde à l'échelle de quelques dizaines à centaines de Km, viennent s'ajouter des ondulations de l'ordre du millier de Km reflétant des hétérogénéités lithosphériques, et des ondulations à l'échelle de plusieurs milliers de Km, dues à la circulation convective dans le manteau. Ces ondulations du géoïde sont calculées en comparant la valeur théorique de la pesanteur sur l'ellipsoïde et la valeur mesurée rapportée à l'ellipsoïde. 2 - mesures de vitesse (effet Doppler) 3 - mesures angulaires (photographies sur fond d'étoiles) La modélisation de la trajectoire nécessite de connaître les paramètres suivants: 1 - la position des stations de mesure au sol; 2 - le champ de pesanteur; 3 - le freinage lié à l'atmosphère; 4 - Géodésie satellitaire 4 - la pression du vent solaire; Les satellites artificiels ont été utilisés de 2 façons: en mode passif, le satellite servit tout d'abord de réflecteur, la télémétrie laser apportant dans les années 60 une précision de la mesure de la position instantanée du satellite de l'ordre du mètre; en géodésie dynamique, l'objectif est de déterminer le mouvement du satellite par comparaison des données de poursuite avec la trajectoire théorique, modèle calculé à partir des équations de la mécanique Newtonienne. Les données accessibles sont de 3 types: 1 - mesures de distance (télémétrie laser, Fig. 9a) anomalies de grande longueur d’onde 5 - les déformations de la Terre liées aux marées, terrestres et océaniques; 6 - le mouvement de l'axe de rotation de la Terre; 7 - l'attraction de l'ensemble des planètes du système solaire. Aucun paramètre n'est connu parfaitement, et la géodésie dynamique consiste donc à opérer un ajustement itératif des données au modèle théorique. L'utilisation conjointe de plusieurs satellites sur près de 30 années a Fig. 10: le géoïde terrestre , http://principles.ou.edu/earth_figure_gravity/geoid/index.htm color Scale, Upper (Red) : 85.4 meters and higher; Color Scale, Lower (Magenta) :-107.0 meters and lower - 46 - ENSM-SE, 2° A : axe transverse P N Fig. 11 : Carte des anomalies à l’air libre sur les océans calculées par inversion des hauteurs du géoïde, obtenues par altimétrie spatiale, Géosat 1994, échelle en mgals 16/10/12 considère de nos jours que ces masses lourdes sont d’anciennes plaques lithosphériques subductées vers la couche D”. Compte tenu de la vitesse extrêmement faible du phénomène, la morphologie actuelle reflèterait l’histoire cumulée de plusieurs centaines de Ma. Inversement, tous les types de structures à petite échelle sont remarquablement identifiables sur les figures 9 et/ou 11: 1 - dorsales chaudes Sud-Atlantique et Indien; 2 - dorsale froide Nord-Atlantique ; 3- failles transformantes mettant en regard deux compartiments d'âges variés (et donc de structure thermique différente); 4 - chaînes sous-marines de points chauds 5 - fosses océaniques, qui provoquent un déficit local de masse (en bleu) encadré par deux anomalies, celle bien marquée (en rouge) de l’arc et celle moins marquée (en jaune) du côté océanique qui souligne le ploiement de la plaque subductée (Fig. 12). 6 - chaîne de collision (Alpes Himalaya) 7 - chaînes surmontant une zone de subduction (marges actives = Andes et Rocheuses) A une échelle encore plus réduite, l’altimétrie satellitaire permet de mettre en évidence le mouvement vertical synchrone des marées, lié au surpoids local de la masse d’eau en mouvement dans les régions côtières permis de proposer des modèles de plus en plus affinés du champ de la pesanteur terrestre. L'analyse de la trajectoire des satellites fournit une image très précise du géoïde (Fig. 9). En effet, les ondulations du géoïde à l'échelle de la centaine de km (flèches noires) traduisent très fidèlement la topographie car la compensation isostatique d'une chaîne ou B - La séismicité d’une fosse sous-marine par exemple, dépasse largement la surface occupée par la chaîne ou la fosse. Il s'ensuit donc un Les premiers enregistrements des soubresauts qui excès de masse local (au droit de la chaîne) ou un déficit agitent l'écorce terrestre datent de l'antiquité. Une stèle local (au droit de la fosse), qui implique un éloignement du centrale portant une boule, des grenouilles bouche bée géoïde (vers le haut pour la chaîne). La figure 10 met en accroupies autour, ont suffi à enregistrer le passage de l'onde évidence d'une part le bourrelet équatorial (aplatissement par la chute de la boule et la direction de sa propagation polaire) et d'autre part les creux et bosses du géoïde à grande avec la grenouille gagnante (fig. 13). longueur d’onde (en violet dans la fig. 9). La déformation De nos jours, on exprime l’intensité des séismes soit maximum, très exagérée sur la figure, est en fait inférieure à 100 m pour une amplitude de milliers de Km! Ces à partir de l’enregistrement de l’ébranlement (échelle de déformations de très grande longueur d'onde sont clairement Richter), soit à partir de leur impact observé sur le bâti et indépendantes de la topographie et doivent donc avoir une les déformations naturelles (échelle de Mercalli). origine très profonde. Elles traduisent nécessairement des hétérogénéités de densité dans le manteau profond. On 1 - Les ondes émises par un ébranlement Fig. 12 : effet du plongement d'une plaque De manière extrêmement résumée, en dehors du sismographe de Zhang Heng (Fig. 13) datant des premiers Fig.13 : Sismographe de Zhang Heng (≈ 100 AD)? http://www.gps.caltech.edu/~alex/subduction.htm - 47 - ENSM-SE, 2° A : axe transverse P N Fig. 14a: modules d'élasticité K=-dP/(dV/V)=ρdP/dρ 16/10/12 Tableau 1 : Relations entre constantes d’élasticité. µ=dσ/d siècles de notre ère, et qui ne représente qu’une manifestation des dieux à s’ébrouer, et la capacité à enregistrer une direction du mouvement, on peut dire que John Michell, géologue et physicien anglais, présente la première causalité physique des séismes en 1761: « Les tremblements de terre correspondent à des ondes émises par le déplacement de masses de roches sous la surface ». En 1807, Thomas Young, lui aussi britannique, suggère lui aussi que les séismes émettent des ondes qui se propagent à des vitesses finies. En 1841, James Forbes, physicien écossais, construit le premier sismomètre vertical, capable de mesurer des mouvements verticaux du sol ; il sera perfectionné par le volcanologue Luigi Palmieri en 1855. Puis en 1847, Hopkins fait la Première application au globe Terrestre de la théorie des ondes élastiques qui vient d’être fondée par Fresnel et Poisson : les tremblements de terre sont le résultat de vibrations élastiques du sol. Le premier sismomètre horizontal, capable de détecter des mouvements horizontaux du sol, date de 1869, il est dû à Frank Zöllner. Le comportement élastique d’un solide homogène (Fig. 14a) est complètement caractérisé par sa densité plus deux constantes d’élasticité : 1 - le module d'incompressibilité K = ρdP/dρ ρ qui caractérise la variation de volume ou de densité du milieu considéré en réponse à une variation de la pression P; 2 - le module de rigidité G = µ/ρ ρ où µ=dσ σ/dγγ est le module de cisaillement qui caractérise la déformation élastique (angle γ du milieu considéré, sous l'action du cisaillement σ). On utilise aussi communément le module de Young E, relié au module de cisaillement par le coefficient de poisson (tableau 1). Fig. 14b: ondes de volumes, P et S a - ondes de volumes Provoqué quelque part au voisinage de la surface lors d’un séisme, entre quelques dizaines de km de profondeur et plus rarement quelques centaines de km, dans le domaine de pression et de température dans lequel le matériau terrestre conserve un comportement fragile, l’ébranlement du solide terrestre en ce point sollicite son élasticité. Incompressibilité et cisaillement sont alors la source de deux ondes élastiques, respectivement une onde de compression-dilatation et une onde de cisaillement. Ces deux ondes vont se propager dans le corps de la planète (On parle d’ondes de volume) en une enveloppe « sphérique » (front d’onde) qui conserve sur l’ensemble de sa surface l’énergie de l’ébranlement dissipée au point source. L’amortissement de ces ondes est donc essentiellement lié à l’augmentation de la surface du front d’onde et très peu au déplacement de matière (Fig. 14b) en son point de passage : 1 - les ondes de compression dilatation sont longitudinales, et traversent tous les milieux. Elles correspondent à un déplacement des particules parallèlement à la direction de propagation de l'onde, et provoquent une variation de volume. Elles sont dites ondes P, «premières» (car les plus rapides) et se propagent à la vitesse : Vp= [(K + 4/3G)]0.5 2 - les ondes de cisaillement (transversales) correspondent à un déplacement des particules perpendiculairement à la direction de propagation de l'onde. Il s'ensuit une distorsion sans changement de volume. Elles ne traversent pas les matériaux dont le module de cisaillement est nul (liquides). Elles sont dites ondes S, «secondes», et leur vitesse est Vs= [G]0.5 (Vs<Vp). b - ondes de surface Lorsque, dans un corps fini, les ondes de volume atteignent sa surface, il apparaît par interférences - 48 - ENSM-SE, 2° A : axe transverse P N Fig. 14c: ondes de surface Fig. 15 : Enregistrement du séisme de Santa Cruz 1989 par la station de St Sauveur en Rue (Loire) constructives deux types d'ondes qui se propagent dans une épaisseur limitée au voisinage de la surface, et donc nommées ondes de surface ou ondes L, «Longues» en raison de leur faible vitesse (<Vs) (Fig. 14c): 1 - Les ondes de Love résultent d'interférences entre les ondes S, et correspondent à une oscillation polarisée de grande amplitude, dans le plan de la surface et perpendiculairement à la direction de propagation de l'onde; 2 - Les ondes de Rayleigh résultent d'interférences entre les ondes P et S, et induisent une oscillation dans le plan perpendiculaire à la surface, avec un déplacement des particules selon une ellipse (houle). Puisque les ondes sismiques se propagent à des vitesses différentes, elles sont enregistrées en des temps différents sur un sismographe situé en un point donné de la Terre, lorsqu'il est atteint par le front de l'onde considérée. Vp>Vs. Les ondes P sont donc les Premières et les ondes S les Secondes (Fig. 15). Les ondes longues L ou R arrivent plus tardivement. On notera que les ondes P ou S peuvent apparaître doublées à la suite de réflexions sur la surface terrestre (ondes PP ou SS, voir plus loin). 16/10/12 profonde dont le mécanisme est indépendant du fonctionnement des plaques. Nous ne reviendrons pas plus sur ce schéma bien établi et largement connu. A l’échelle régionale, la carte de la France des séismes d’une seule année (Fig. 16a) prouve combien la Terre est agitée de soubresaut, le plus souvent imperceptibles mais quasi permanents. Elle montre aussi la très forte inhomogénéité de localisation des épicentres, à cette échelle. Focalisés dans les deux zones orogéniques françaises, Alpes et Pyrénées, et l’axe Rhône –Rhin –Mer du Nord qui témoigne de la déchirure de l’Europe au front de l’arc alpin, les séismes jalonnent ici aussi des limites de plaques continentales. Ces régions subissent chaque année en moyenne au moins un séisme d’intensité égale ou supérieure à 5, et quelques uns par millénaire, d’intensité supérieure à 8 sur l’échelle de Richter (cf. $ Magnitude) qui peuvent être dévastateurs. En France, on compte 1 séisme d’intensité moyenne tous les 10 ans, et 1 séisme violent par siècle. L’arc alpin est la zone la plus mobile du territoire métropolitain. La figure 16b montre la relation étroite qui existe entre la structure profonde de la chaîne des Alpes et d’une part dans la distribution en carte des séismes et Fig. 16a : carte de la séismicité en France pour 2004. 2 - Distribution des séismes 11/03/ 2011 au Japon et 26 / 12 / 2004 en Indonésie: deux manifestations paroxysmiques, respectivement 9.0 et 8.4 sur l’échelle de Richter, de la relaxation des contraintes encaissées pendant un laps de temps de quelques 102 ans par une limite entre deux plaques. Dans les deux cas, le point de relaxation est précis (zone de subduction) et tous les séismes répliques qui suivront se distribueront dans la même surface, en se délaçant vers le Nord dans le cas de l’Indonésie. L’analyse historique de l’ensemble des séismes enregistrés depuis un siècle a en effet montré depuis longtemps le caractère inhomogène de la surface terrestre, comment les frontières de plaques sont secouées en permanence par des séismes alors que le cœur des plaques est beaucoup plus calme. La séismicité intraplaque est en effet généralement liée à un volcanisme dit « intraplaque » d’origine - 49 - ENSM-SE, 2° A : axe transverse P N 16/10/12 On constate à partir des courbes temps vs distance (Fig. 17a) que la vitesse moyenne des ondes de surface est quasi constante (de l’ordre de 4.4 Km/sec) avec l’éloignement de l’hypocentre (foyer du séisme). Par contre, la vitesse moyenne des ondes de volume augmente avec la distance au foyer, traduisant le fait Fig. 16b : Séismicité du Sud-Est de la France Fig 17a courbes temps vs distance qu’elles traversent des domaines de plus en plus « véloces ». a - Rebroussement des ondes de volume Si la Terre était constituée d’un matériau aux propriétés homogènes et isotropes autour du foyer, le front de l’onde créé par l’ébranlement serait sphérique (vitesse constante, quelle que soit la direction à partir du foyer). Mais il n’en est rien, car même si l’on considère que la Terre est constituée d’un seul matériau, celui-ci voit augmenter son poids volumique en raison de l’accroissement de pression avec la profondeur. Donc Rose , séismes historique ; rouge, séismes mesurés ; échelle colorée, profondeur vers le bas, la vitesse moyenne de propagation croît avec des séismes ; la coupe dans la croûte (Crt) et le Manteau (Mtl) suit le tracé la distance au foyer, et cela signifie que le front de l’onde fléché. qui traverse des domaines de plus en plus profonds est de d’autre part la profondeur de ces séismes. La plaque Ouest- plus en plus « en avance » sur le front sphérique. Il n’est Européenne plonge sous la plaque italienne (appelée Apulie) donc plus sphérique mais ellipsoïdal (Fig. 17b à gauche). engendrant des séismes de plus en plus profonds vers l’Est. Ce type de structure correspond à la situation de collision de Par analogie avec l'optique, on utilise la normale au deux plaques, dans ce cas poussée par l’avancée de front d'onde pour définir le rai sismique, et la loi de l’Afrique et la fermeture de la Méditerranée. Descartes pour décrire le parcours de ce rai. Si la Il apparaît aussi sur la carte de France un axe propagation de l’onde n’est pas sphérique, le rai sismique ne Bretagne Massif-Cenral, qui témoigne d’une sismicité plus décrit pas une droite mais une courbe (Fig. 17b à gauche). diffuse mais néanmoins bien réelle. Dans cette région la magnitude des séismes dépasse rarement 4 ; la relaxation des contraintes encaissées par cette partie Ouest du craton européen est très largement guidée par des failles anciennes profondes, héritées de l’histoire hercynienne de cette région, qui a structuré l’écorce terrestre dans cette région du globe durant l’ère Primaire. 3 - La propagation des ondes Pour étudier l’effet de cette variation de vitesse avec la profondeur, considérons une Terre constituée d’un matériau aux propriétés sphéroconcentriques, qui sera discrétisée pour la commodité du propos en une suite de sphères homogènes emboîtées (Fig. 17b centre). Pour un rai arrivant en P sur la surface sphérique de profondeur z sous l'incidence i avec la vitesse V, on écrira qu'il se réfracte à la vitesse V' sous l'angle r, tel que : Sin i/V = Sin r/V'. La figure 17b montre que Fig. 17b : rais sismiques - 50 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Fig. 18 : Caractérisation sismique de divers milieux : a) homogène ; b) hétérogènes, 1-régulier , 2-3 irréguliers. a) b)-1 b)-2 R sin r = R' sin i' = OQ et donc R sin i / V = R sin r /V' = R' sin i' / V' La quantité R Sin i / V est constante le long du rai, on l'appelle le paramètre du rai. La figure 17b montre à droite que lorsque la vitesse croît avec la profondeur, le rai est concave vers le haut. Au point le plus bas (sin i =1) la valeur du paramètre de rai p est égale à R/V. Si l'on prend deux rais, PQ et P'Q', de paramètre p et p+∆p, qui parcourent respectivement les distances angulaires ∆ et ∆+ d∆, on a: sin i= NP/PP'. En posant dt, la différence de temps mis par les deux rais sur leur trajet on écrit : Sin i= Vdt/Rd∆ ∆.Le paramètre du rai PQ s'écrit alors : p = dt/d∆ ∆, pente de la courbe t= f(∆) b - La fonction temps –distance des ondes de volume La figure 18 illustre à travers leurs courbes t-∆ les divers trajets possibles de rais sismiques des ondes de volume en milieu homogène, soit à vitesse constante (18a), soit lorsque V augmente de façon constante (Fig. 18b1) ce qui introduit le point de rebroussement pour chaque rai (↑). La présence d'une zone d’accroissement de la vitesse (Fig. 18b2, ―) conduit à un rebroussement précoce (↑) et provoque l'apparition d'une région recevant le train d'ondes anormalement tôt (↓). Inversement, la présence d'une région à basse vitesse (Fig. 18b3, ―) conduit à une incidence critique qui éloigne Fig.19a : L’expression de la fonction temps-distance, ∆t = f(∆x), pour une onde issue de S dans le milieu à vitesse V1, réfléchie sur l’interface de séparation avec le milieu à vitesse V2 est une hyperbole admettant la fonction linéaire temps distance de l’onde directe pour asymptote deux rais infiniment voisins, l’un étant rebroussé vers le haut (↓B), l’autre étant réfracté plus profondément avant d’être rebroussé lorsque la vitesse du milieu est remontée(↓C) ; Les rais un peu plus profonds, bénéficiant d’une vitesse accrue seront un temps rebroussés un peu avant C, et émergeront entre D et C puis au delà de C ; cela laisse une zone d'ombre qui ne peut recevoir de trains d'ondes partis de F. Nous avons évoqué le cas d’une variation continue des propriétés physiques, mais de telles variations peuvent aussi être discontinues. Elles séparent des terrains dont les impédances acoustiques reflètent des différences de compressibilité et de rigidité des matériaux constitutifs. Sur une telle discontinuité, comme en optique, le rai sismique incident donne naissance à un rai réfléchi (Fig. 19a) et à un rai réfracté. Comme en optique encore, sous incidence critique et dans les conditions de vitesse ad hoc (V milieu inférieur > V milieu supérieur), le rai subit une réfraction totale (fig. 19b), et voyage à l’interface « dans » la discontinuité à la vitesse du milieu inférieur rapide, générant des ondes coniques. Comme en optique enfin, les ondes réfléchies et réfractées sont polarisées lors de leur rencontre de la discontinuité. En résumé, un ébranlement de l’écorce terrestre crée deux ondes de volume, P et S, susceptibles d’être polariséesréfléchies et polarisées-réfractées chaque fois qu’elles rencontrent un contraste d’impédance acoustique, c’est à dire une variation brutale des caractéristiques Fig.19b : une onde issue de S dans le milieu à vitesse V1, réfractée sous incidence critique génère une onde conique qui voyage dans l’interface de séparation avec le milieu à vitesse V2, à la vitesse V2.L’expression de la fonction temps-distance, ∆t = f(∆x), est une droite tangente à l’hyperbole temps-distance de l’onde réfléchie, au point correspondant à la valeur d’incidence critique. En deça de ce point, aucune onde conique ne peut être générée. R e fle x io n S V1 V2 S ∆x h x 2d ∆t b)-3 ∆x ∆ x /V 1 V 2> V 1 - 51 - ∆ t ( I ) = 2 d ( I) / V 1 ∆ x ( Ic ) / 2 ∆ x (I) R e f r a c ti o n h V1 d (Ic ) V2 ∆ t (Ic ) = 2 d (Ic )/ V 1 + [ ∆ x ( I) − ∆ x ( I c ) ] / V 2 Ic d ( I) I V 2> V 1 ENSM-SE, 2° A : axe transverse P N pétrophysiques du milieu (Fig. 18-b2-b3 et Fig. 19 a-b). Il convient de ne pas confondre les caractéristiques pétrophysiques avec les caractéristiques pétrologiques (minéralogie) du milieu, car si une variation brutale de la minéralogie peut se traduire par une variation importante de l’impédance, elle ne l’impose pas nécessairement. C’est néanmoins largement grâce à l’analyse poussée des ondes sismiques, recherche d’hyperboles de réflexions, recherche d’ondes coniques que l’imagerie du sous-sol proche (quelques Km) permet aux pétroliers d’organiser l’exploitation de la ressource, gaz ou pétrole. A l’échelle de la Terre, l’ensemble des séismographes écoute notre planète en permanence, rendant possible la modélisation de l’intérieur de la Terre. c – Le chant de la Terre : oscillations propres et de la structure interne de la Terre. La Terre résonne alors comme une cloche, avec une période fondamentale (grave) de 54 minutes, et des harmoniques qui décroissent jusqu’à quelques secondes (quelques fractions de Hertz), et une amplitude maximale de l’ordre du millimètre. On utilise l'analyse en fréquence des oscillations libres de notre planète comme un spectroscope pour en analyser les hétérogénéités. d – Magnitude et Intensité d’un séisme L’intensité d’un séisme est définie par les désordres qu’il engendre. Echelles de XII degrés, les échelles de Mercalli, puis MKS, puis échelle EMS 92 préfigurant de l'échelle EMS 98 utilisée depuis janvier 2000 par le BCSF (Bureau Central Sismologique Français), ces échelles expriment la façon dont la secousse a été ressentie et quels dégâts ont été observés (tableau 2). Tableau 2 : degré I II III IV V VI VII VIII IX X XI XII Notons tout d’abord que, voyageant au voisinage de la surface terrestre les ondes de Love et de Rayleigh ne subissent pas d’augmentation de vitesse liée à la profondeur, ce qui explique que leur vitesse est à peu près constante ; en fait celle-ci dépend de la nature des matériaux traversés. Relativement rapides dans les matériaux massifs comme les roches de profondeur venues affleurer en surface (e.g. granites les basaltes etc.), leur vitesse chute dans les matériaux sédimentaires meubles, contenant de l’eau ou de l’air ; la fréquence du signal s’abaisse, et son amplitude croît, rendant ces ondes cisaillantes (Love) ou elliptiques (Rayleigh) d’autant plus destructrices, dans les plaines alluviales par exemple. En second lieu, les ondes de surface sont guidées entre la surface de la Terre et la base des couches superficielles qui composent la lithosphère. Lors des séismes forts, elles effectuent plusieurs fois le tour de la terre, traçant des paquets d'ondes (fig. 20) se propageant en un cercle qui s’agrandit à partir de l’épicentre. En interférant entre elles, elles construisent des ondes stationnaires, qui oscillent à des fréquences qui ne dépendent que de la nature Fig. 20 : paquets d’ondes de surface progressives amorties 16/10/12 Secousse imperceptible à peine ressentie faible ressentie par beaucoup forte légers dommages dommages significatifs dommages importants destructive très destructive dévastatrice catastrophique I, imperceptible - la secousse n'est pas perçue par les personnes, même dans l'environnement le plus favorable II, à peine ressentie - les vibrations ne sont ressenties que par quelques individus au repos dans leur habitation, plus particulièrement dans les étages supérieurs des bâtiments. III, faible - l'intensité de la secousse est faible et n'est ressentie que par quelques personnes à l'intérieur des constructions. Des observateurs attentifs notent un léger balancement des objets suspendus ou des lustres. IV, ressenti par beaucoup - le séisme est ressenti à l'intérieur des constructions par quelques personnes, mais très peu le perçoivent à l'extérieur. Certains dormeurs sont réveillés. La population n'est pas effrayée par l'amplitude de la vibration. Les fenêtres, les portes et les assiettes tremblent. Les objets suspendus se balancent., V, forte - la secousse est ressentie à l'intérieur des constructions par de nombreuses personnes et par quelques personnes à l'extérieur. De nombreux dormeurs s'éveillent, quelques-uns sortent en courant. Les constructions sont agitées d'un tremblement général. Les objets suspendus sont animés d'un large balancement. Les assiettes et les verres se choquent. Le mobilier lourd tombe. Les portes et fenêtres battent avec violence ou claquent. VI, légers dommages - le séisme est ressenti par la plupart des personnes, aussi bien à l'intérieur qu'à l'extérieur. De nombreuses personnes sont effrayées et se précipitent vers l'extérieur. Les objets de petite taille tombent. De légers dommages sur la plupart des constructions - 52 - ENSM-SE, 2° A : axe transverse P N ordinaires apparaissent: fissurations des plâtres; chutes de petits débris de plâtre. VII, dommages significatifs - La plupart des personnes sont effrayées et se précipitent dehors. Le mobilier est renversé et les objets suspendus tombent en grand nombre. Beaucoup de bâtiments ordinaires sont modérément endommagés: fissurations des murs; chutes de parties de cheminées. VIII, dommages importants - dans certains cas, le mobilier se renverse. Les constructions subissent des dommages: chutes de cheminées; lézardes larges et profondes dans les murs; effondrements partiels éventuels. IX, destructive - Les monuments et les statues se déplacent ou tournent sur eux-mêmes. Beaucoup de bâtiments s'effondrent en partie, quelques-uns entièrement. X, très destructive, Beaucoup de constructions s'effondrent. XI, dévastatrice - La plupart des constructions s'effondrent. XII, catastrophique - Pratiquement toutes les structures audessus et au-dessous du sol sont gravement endommagées ou détruites La magnitude d’un séisme quantifie l’énergie dissipée au foyer du séisme, sur une échelle logarithmique, échelle ouverte de Richter, qui utilise la hauteur de sa trace du séisme sur un enregistrement normalisé. Il existe plusieurs types de normalisations, utilisées en fonction de Fig. 21 : Echelle de Richter ; un séisme de magnitude 0 laisse sur un sismographe Wood-Anderson placé à 100 km de distance une trace de 01-3 mm de hauteur ; il peut donc exister des séismes de magnitude <0, et il n’y a d’autre limite supérieure à cette échelle que celle des matériaux terrestre à emmagasiner les contraintes. Plus la contrainte emmagasinée est forte, plus l’énergie correspondant à sa relaxation durant l’ébranlement sera forte, 10 sur l’échelle de Richter n’a jamais été atteint à ce jour, mais cette échelle est ouverte 16/10/12 l’énergie dissipée, de la distance de l’épicentre, mais toutes sont comparables dans leur principe (Fig. 21). Dans le cas de cette figure, le séisme enregistré laisse une trace de 23 mm. Pour une distance à l’épicentre nulle la valeur de 23 mm donne une magnitude de 2.2. Si l’on suppose que l’enregistrement a été fait à une distance de 400 km de l’épicentre, la magnitude atteinte par ce séisme est de l’ordre de 5. La magnitude est calculée soit à partir de l'amplitude comme précédemment, soit à partir de la durée du signal. Son calcul nécessite plusieurs corrections : elles tiennent compte du type de sismographe utilisé, de la distance entre le séisme et le sismographe, de la profondeur du séisme et de la nature du sol à la verticale du sismographe.. Les différentes magnitudes utilisées sont : La magnitude locale ML - on l'utilise pour des séismes proches (dits séismes locaux) ; elle est définie à partir de l'amplitude maximale des ondes P ; Elle est toujours moyennée sur plusieurs stations en tenant compte des corrections locales. La magnitude des ondes de surface MS - elle est utilisée pour les séismes lointains (dits téléséismes), dont la profondeur est inférieure à 80 km. Elle se calcule à partir de l'amplitude des ondes de surface. La magnitude des ondes de volume M - elle est définie pour les très gros séismes. Elle est calculée à partir d'un modèle physique de source sismique et est reliée au moment sismique m0 : m0 = µ.S.D avec: µ: rigidité du milieu ; D: Déplacement moyen sur la faille ; S: Surface de la faille . Il ne sera pas fait mention dans le poly des effets morphologiques des séismes : failles, effondrements, rejets, tsunamis... On pourra télécharger la présentation ppt de 2004 construite à l’occasion du tsunami (http://www.emse.fr/~bouchardon/enseignement/tsunami -2004/tsu_0000.htm). 4 - Hétérogénéités terrestres : le modèle PREM Pour établir précisément les trajets des ondes dans le globe (c’est à dire les profils de vitesse), il est nécessaire de disposer d'une relation entre l’incompressibilité, la densité, la pression et la température. Pour les régions profondes, que l’on peut considérer comme sphéroconcentriques en première approximation, nous disposons d’une relation entre incompressibilité, densité et pression, appelée équation d'état d'Adams-Williamson. Avec cette relation établie en 1923, Adams et Williamson avaient pu montrer que compte tenu des densités de surface, de la densité moyenne, et des valeurs de K, la Terre devait être constituée d'au moins deux couches de densité très différente. Elle prévoit qu'à la profondeur z, la variation de densité dρ avec la variation de profondeur dz est de la forme : dρ ρ/dz=gρ ρ/Φ Φ Le paramètre sismique Φ est égal à K/ρ (K, module élastique d'incompressibilité). Connaissant, gz, ρz et Φz à la profondeur z, les sismologues sont en mesure d'établir les profils des densités au sein de la planète. 0.001mm - 53 - ENSM-SE, 2° A : axe transverse P N Fig 22 : Corrélations expérimentales entre vitesse des ondes et la densité de divers éléments 16/10/12 Fig. 24a : modèle PREM Mais à faible profondeur, la Terre est trop hétérogène pour qu'une équation d'état entre ces divers paramètres suffise à décrire les variations des ondes sismiques. On utilisera pour cette région d’une autre loi, empirique, la Loi de Birch, qui relie directement la vitesse des ondes à la masse atomique moyenne des roches (indépendamment de leur composition minérale) et à leur densité (Fig. 22) mesurées pour des corps purs dans des conditions de pression variées. C’est aussi sur la base de ses expériences à haute pression que Birch put confirmer dès 1961 que les vitesses sismiques atteintes dans le noyau, de l’ordre de 10 km/sec étaient beaucoup trop faibles pour correspondre, aux pressions considérées, à un matériau mantellique. Par contre le Fer constituait un excellent candidat pour la constitution du noyau. discontinuités (Fig. 23 & 24a-b) : 1 - La discontinuité de Mohorovicic séparant croûte et manteau (CMB pour crust-mantle boundary), entre 10 et 70 km par une augmentation brusque de la vitesse à la base de la croûte; 2 - La discontinuité de Gutenberg séparant manteau et noyau à 2900 Km par une chute brusque de vitesse de 13,6 à 8,1 km/s; Ainsi outillés de relations densité-vitesse, les sismologues peuvent maintenant construire le modèle inverse du trajet des ondes à travers la planète à partir des temps d'arrivée. Le modèle PREM (Preliminary Reference Earth Model), résume l'état de nos connaissances en la matière, en se basant sur les variations de la vitesse des ondes en fonction de la profondeur qui mettent en évidence plusieurs Fig. 23 : relations vitesse des ondes - profondeur - 54 - Fig. 24b : courbes densité, pression dans le modèle PREM ENSM-SE, 2° A : axe transverse P N 3 - La discontinuité de Lehmann séparant noyau et graine à 5100 Km par une augmentation rapide, de 9,5 à 11,2 km/s, précédée d’une petite diminution. Unis, au Canada, en Australie, les épaisseurs connues sont comprises entre 35 et 37 kilomètres. 2 - En France, son épaisseur est de l’ordre de 30 km dans le Massif central et le Bassin parisien. Elle chute à environ 20 km sous les fossés d’effondrement (Limagne d’Allier, vallée du Rhin) ; Ayant reconstitué ainsi les discontinuités majeures, on estime les sauts de densité (et donc de composition) qui en découlent, et l'on fournit enfin une appréciation de l'état physique (fluidité) des divers milieux rencontrés. Le comportement des ondes est à cet égard très pertinent. La présence d'une infime fraction liquide (<<1%) aux joints des grains d'un solide, ou le seul fait d'approcher de son point de début de fusion (solidus), suffit à provoquer une diminution de vitesse des ondes sismiques. 3 - Dans les zones de surrections de montagnes, en revanche, l’épaisseur de la croûte augmente; elle est estimée à 55 km dans les Alpes occidentales et atteint 70 km dans la Bernina, l’Hindu-Kúch et dans les montagnes de Kirghizie. Sous ces montagnes, on met en évidence la remontée anormale à faible profondeur de roches à grande vitesse de propagation (7,2 à 7,4 km/s) comme la zone d’Ivrea dans les Alpes occidentales. Elles pourraient représenter des morceaux de manteau jalonnant la suture entre les 2 plaques qui donnent naissance à ces chaînes de montagnes. Le relief terrestre résulte d’une part du contraste de densité entre croûte et manteau, et d’autre part des capacités des matériaux (croûte et manteau) à se déformer. On admet en général que la chaîne Himalaya n’est pas très éloignée de ce maximum. a - La Croûte Terrestre. Les principaux résultats concernant la constitution de la croûte ont été obtenus à partir des séismes proches de la surface ou par les séismes provoqués (prospection sismique des sédiments et sismologie expérimentale). Les forages fournissent une observation directe sur les premiers kilomètres ; guère plus de 1 km en milieu océanique, 4 à 5 km en milieu continental avec un record de 12 km atteint par l’ambitieux projet soviétique (à l’époque) d’atteindre le « Moho » sous la presqu’île de Kola. Les conditions P, T° sont telles que l’on se situe là à la limite de résistance du matériel de forage. Seuls les tirs expérimentaux ont pu apporter des résultats précis sur la croûte océanique et sur les divers segments la croûte continentale, boucliers anciens et bassins sédimentaires, zones plissées modernes, marges continentales actives et passives, arcs insulaires, etc. En domaine océanique, sous une tranche d’eau variant de 2.5 à 5 km, la croûte est mince. En effet, la discontinuité de Mohorovicic se situe en moyenne à 10 ou 11 kilomètres au-dessous du niveau de la mer (pris en référence), donc l’épaisseur de la croûte peut être sensiblement inférieure à 5 Km, en particulier au droit des dorsales, sous lesquelles le « Moho » peut remonter de façon spectaculaire. La croûte océanique est constituée de 3 couches : 1 - des sédiments à faible vitesse (VP environ 1.7 à 2.5 km/s) dont l’épaisseur augmente en s’éloignant des dorsales ; 2 - une couche basaltique à fort gradient de vitesse (VP passe de 3.5 à 6.1 km/s) ; 3 - une couche de nature plus variée: gabbro, l’équivalent largement cristallisé des basaltes sus-jacents ; amphibolite, l’équivalent métamorphisé des gabbros ou basaltes ; serpentine, péridotites transformées par hydratation. La vitesse des ondes P augmente très lentement (entre 6,4 et 7,1 km/s) dans cette 3° couche. Dans la croûte continentale, sous les sédiments lorsqu’ils sont présents, on trouve partout une vitesse d’environ 6,2 km/s, que l’on attribue à des ondes coniques propagées sous la limite supérieure du socle granitique. Les résultats concernant la partie profonde de la croûte sont beaucoup moins concordants. Toutefois, la vitesse moyenne observée (environ 6,3 km/s) suggère encore une nature granitique, avec des intrusions de roches à plus grande vitesse, probablement de nature plus basaltique. La croûte continentale est épaisse, avec de fortes variations : 1 - Dans les plates-formes continentales, aux États- 16/10/12 A la limite du continent et de l’océan, dans les marges passives comme celles de l’Atlantique (pas de volcanisme, pas de fosse), la discontinuité de Mohorovicic remonte progressivement dans les marges continentales. Dans les régions de marges continentales actives (volcanisme et fosse sous-marine) à faible activité, ce schéma simpliste d’amincissement crustal reste globalement vrai : dans le golfe de l’Alaska par exemple, on observe le « Moho » à 29 km près de la côte, puis à 23-25 km sous le plateau continental, 13-15 km sous la fosse aléoutienne, et 9-11 km sous la plaine abyssale. Par contre cette discontinuité disparaît sous les guirlandes d’arcs volcaniques. Dans la marge active, des zones d’anomalies, comme la bordure orientale de la sierra Nevada (7,2 à 7,4 km/s) récemment découverte par la réfraction sismique, mettent en évidence la remontée de matériaux rapides. b - manteau supérieur Dans le manteau supérieur, les ondes coniques Pn qui se propagent à sa limite supérieure (sous le réflecteur croûte–manteau), ont une vitesse voisine de 8,2 km/s tant sous les continents que sous les océans. Cela suggère que le manteau supérieur est un matériau homogène. La réalisation de grands profils sismiques à partir des explosions nucléaires souterraines (îles Aléoutiennes, Nevada, Sahara), à partir des tirs en mer, et à partir de séismes naturels, a mis en évidence l’organisation en couches concentriques du manteau supérieur et ses deux caractéristiques essentielles : 1 - Il présente entre 125-140 km et 235 km une couche à faible vitesse mise en évidence par la diminution de la vitesse des ondes P et S (Fig. 23 et Tableau 3). Elle est appelée Low Velocity Zone (LVZ) ou asthénosphère car considérée comme ductile (astheno = sans force). En raison des conditions de pression et de température qui y règnent, c’est dans cette région de la Terre que les matériaux rocheux sont globalement le plus proche de leur point de fusion. Ils peuvent même localement - 55 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Tableau 3 :Vitesses et fréquences des ondes sismiques dans le manteau et dans le noyau. fondre très partiellement (quelques %), et leur viscosité est donc particulièrement faible. C’est donc cette région du manteau supérieur qui permet la compensation isostatique des variations de poids dans la colonne rocheuse sus-jacente. Pour l’opposer à l’asthénosphère, on nomme Lithosphère l’ensemble de cette colonne rocheuse sus-jacente, à la fois plus hétérogène21 et au comportement beaucoup plus fragile. Une remontée de la LVZ (asthénosphère) jusqu’au voisinage de la surface pourrait expliquer les anomalies de vitesse dans la zone d’Ivrea, sous le Massif central, ou encore sous les dorsales océaniques et les guirlandes d’îles volcaniques (foyers à la base de la couche). A l’inverse, la lithosphère à croûte océanique froide et rigide plonge sous les continents à partir des fosses océaniques. 2 - Sa vitesse croît ensuite rapidement jusque vers 670 km, mais par paliers successifs. Chaque palier correspondrait alors à un assemblage de phases minérales, et les sauts à des transitions de phases. Celles-ci pourraient être de deux types. Jusqu’à 400 km environ, la structure de base des matériaux silicatés resterait celle que l’on connaît en surface, et au-delà ils acquerraient une structure plus dense. Toutefois, l’élément de base des silicates que nous connaissons, le tétraèdre SiO4, y serait conservé, nous y reviendrons au chapitre 4. Cette zone est souvent appelée zone de transition. Rappelons que l’on appelle plaque lithosphérique la partie située au-dessus de la LVZ. Si la partie supérieure de la lithosphère a un comportement élastique, la partie inférieure présente un comportement déjà plus ou moins ductile. La Lithosphère associe donc : 1 - La croûte terrestre, issue du fractionnement du manteau, de nature très variée selon son origine 21 Elle est composée de manteau supérieur plus rapide et de la croûte (continentale ou océanique). océanique ou continentale ; 2 - La partie sommitale du manteau, suffisamment « froide » pour que ses propriétés mécaniques permettent de le désaccoupler du manteau convectif sous-jacent. La limite inférieure de la lithosphère apparaît donc bien moins comme une limite chimique que comme l’isotherme de transition entre le manteau conductif (non adiabatique) et le manteau convectif adiabatique (TBL pour thermal boundary layer) et comme une limite rhéologique entre le manteau convectif et le manteau lithosphérique rigide (LAB pour Lithosphère-Asthénosphère Boundary). Une telle limite est susceptible de varier en profondeur de manière importante en fonction du flux de chaleur (venu du manteau convectif) qui traverse la base de la lithosphère. Toutefois, en raison même de son isolement souvent long vis à vis du reste du manteau, le manteau lithosphérique (en particulier sous-continental) est voué à une évolution particulière, nécessairement liée étroitement à l’histoire de la croûte sus-jacente. Au droit des continents surtout, on parlera donc à juste titre de manteau lithosphérique subcontinental, par opposition au manteau supérieur convectif appelé manteau supérieur asthénosphérique. c - manteau inférieur Nous entrons dans le manteau inférieur avec une forte discontinuité située vers 670 km. Par rapport aux transitions de phases mises en évidence dans le manteau susjacent, celle-ci fait apparaître un saut de densité (ρinf / ρsup ≈ 1.1) et un saut de viscosité (νinf / νsup >10) beaucoup plus importants. Pour les géochimistes, la composition chimique des deux manteaux peut être considérée comme significativement différente. Le manteau supérieur apparaît de nature péridotitique22 alors que le manteau inférieur 22 Péridotite, roche constituée essentiellement de silicates magnésiens dont la fusion partielle est à l’origine des - 56 - ENSM-SE, 2° A : axe transverse P N semble avoir gardé au moins en partie des caractères chimiques voisins de ceux des matériaux les moins différenciés que nous connaissions, les chondrites. Toutefois, cette différence de composition ne peut expliquer à elle seule le contraste physique observé. Le manteau est bien constitué de part et d’autre de la discontinuité à 670 km essentiellement de Silicium et d’Oxygène, et il faut donc que les silicates du manteau inférieur présentent une structure beaucoup plus compacte (structure octaédrique dite pérovskite, SiO6 cf. Chp. 4.C.1) que celle des silicates du manteau supérieur (structure tétraédrique SiO4). Le rôle séparateur de ce changement de phase est encore largement discuté de nos jours, car il intervient directement dans le mode de convection du manteau, soit à deux étages (deux sphères emboîtées convectant de manière indépendante), soit à un seul étage, et la distinction entre un manteau supérieur et un manteau inférieur n’aurait alors pas de signification majeure. Deux couches caractérisées par des spectres de basses fréquences ont été mises en évidence dans le manteau inférieur : 1 - la première, entre 620 et 950 km, constitue l’interface entre manteau supérieur et manteau inférieur (Fig. 23 & 24); elle se situe au voisinage de la profondeur à laquelle disparaissent les foyers sismiques, en partie sans doute dans la zone de passage de la structure spinelle à la structure pérovskite. Le devenir des plaques subductées, dont on perd la trace sismique à cette profondeur, n’est pas clair ; 2 - la seconde, à la base du manteau, se manifeste par une rapide décroissance des fréquences dominantes vers une profondeur de 2850 km. Cette couche dénommée « D’’ », est actuellement l’objet d’une attention particulière. Elle reflèterait à la fois les interactions entre noyau et manteau, et le stockage profond de morceaux de plaques subductées. Pour d’autres auteurs cette couche D’’ résulterait de la séparation par gravité des matériaux denses générés dans les premiers stades de la vie de la Terre. Nous avons noté que la fin de la période d’accrétion - différenciation coïncide avec le maximum thermique de notre planète : collisions à grande vitesse, éléments radioactifs à vie longue abondants et éléments radioactif à vie courte encore présents. Comme pour la Lune (cf. Chp. 4.D.1.d), la partie supérieur au moins du manteau (ou sa totalité ?) était probablement un océan magmatique, en cours de cristallisation ; comme sur la Lune, cette cristallisation fractionnée à pu générer des continents de matériau feldspathique léger, et à l’opposé des matériaux cristallisés plus denses que le liquide. En sombrant vers le fond du réservoir, ces matériaux solides soumis à pression croissante pouvaient donner naissance à des assemblages plus denses que le liquide, voir même que le manteau non fondu. C’est dans ce type de scénario que certains auteurs recherchent la naissance de la couche D’’ encore mystérieuse. 16/10/12 d - Le Noyau Le réseau d'observatoires séismologiques mis en place à travers le monde à partir de la fin du XIX° permet de connaître le temps mis par une onde sismique pour parcourir une distance donnée. Dès 1906, Oldham constate que les ondes S captées au delà de 14000 km de l'épicentre d'un séisme sont en retard d'une dizaine de minutes sur le temps prévu. Il en déduit qu'il existe une structure interne centrale où les ondes sismiques se propagent moins vite. Mais le phénomène sismique planétaire le plus marquant est l'existence de la zone d'ombre créée par le noyau, mis en évidence en 1912 par Gutenberg. Il observa qu’aucune onde P n'est détectée par les sismographes situés à des distances angulaires de l'épicentre comprises entre 105 et 142°, et parvint alors à estimer la profondeur du noyau à 2900 km. En effet, partant d'un foyer F (Fig. 25), les ondes P arrivent directement en tout point situé à une distance angulaire inférieure à 105°. Le rai correspondant à cette valeur effleure le noyau. A peine au-delà, il est réfracté dans le noyau sous l'angle limite, et émerge en surface à plus de 180°. Bien que le Noyau soit de très haute densité, les rais sont en effet réfractés, car les ondes sont très ralenties par l'état liquide du noyau. Pour des angles de plus en plus forts, le ralentissement induit d'abord un rebroussement des rais jusqu'à 142°. Ensuite, l'émergence est de nouveau croissante jusqu'à 180°. La région 105-142° ne reçoit donc aucun train d'ondes en provenance de F. En 1926, Sir Harold Jeffreys constate que l'amplitude des marées terrestres impose que la rigidité moyenne de la Terre, connue à travers la mesure des vitesses de propagation des ondes sismiques, est inférieure à celle du manteau. Il en déduisit que le noyau devait avoir une rigidité nulle, et donc être liquide. La nonpropagation des ondes S dans le noyau est venue confirmer l’état liquide du noyau. Dans les années 30, le perfectionnement des sismographes permet d'observer des ondes à faible amplitude. Parmi celles-ci, les ondes notées PKIKP dans la figure 25 sont incompatibles avec l'hypothèse d'un noyau homogène. Dès 1936, Inge Lehmann en déduit l'existence d'une discontinuité à l'intérieur du noyau, la graine (1220 km de rayon). Les sismologues ont montré que le spectre des modes propres des oscillations de la Terre décrites plus avant (fig. 20) ne peut s'expliquer que si la graine est solide basaltes. - 57 - Fig. 25: zone d'ombre créée par le noyau ENSM-SE, 2° A : axe transverse P N et légèrement plus dense que le noyau externe. La courbe de vitesse des ondes P (Fig. 23) illustre bien cette structure stratifiée du noyau: 16/10/12 Fig. 27: champ dipolaire théorique 1 - Dans le noyau externe liquide, la vitesse des ondes P croît lentement ; 2 - Le contact noyau-graine (noyau externe - noyau interne) est marqué par un petit ralentissement ; 3 - L’entrée dans la graine solide provoque un fort gradient positif de la vitesse; 4 - Peut-être une autre discontinuité est-elle marquée par une petite chute de vitesse, puis celle-ci croît lentement jusqu’au centre de la Terre. L’étude encore très incomplète des spectres d’énergie montre également une structure stratifiée du noyau (Tableau 3 et Fig. 23), ainsi que des corrélations importantes entre les variations de vitesse des ondes P et les spectres de fréquence de ces ondes. C - Le magnétisme Les aurores polaires, draperies de lumière mouvante rose à vert bleuté visibles sous les hautes latitudes, ont longtemps hanté l’imaginaire humain. Elles constituent la première manifestation observable de l'activité magnétique de la planète. On a pu montrer par satellite et par des observations coordonnées aux deux pôles que ces phénomènes y sont simultanés et partiellement symétriques. magnétique terrestre est un dipôle et qu'il est interne à la planète. Au début du XIX°, Gauss formule la théorie du magnétisme, mettant en évidence la prépondérance du champ dipolaire sur les champs multipolaires avec la distance. A la surface de la Terre, 90% du champ est assimilable à un dipôle, incliné de 11.5° sur l'axe de rotation de la Terre (fig. 27). En un point donné de la surface terrestre et à un moment donné, le champ F est défini (Fig. 26) par sa déclinaison D, son inclinaison I et son intensité, qui varie de l'équateur au pôle, entre 33000 et 70000 nano Teslas actuellement. Relation entre Tesla, Oersted, et gamma 1 - le champ magnétique terrestre, Restons quelques instants sur le champ dipolaire. Il La boussole est un instrument connu en Chine au pourrait avoir une origine externe tout aussi bien qu’une début de notre ère, peut-être même au II° siècle avant J.C. cause interne. En première approximation, on admet Elle n'arrive en Europe qu'à la fin du XII°. Roger Bacon qu'aucun champ électrique ne perturbe le champ terrestre. (1216), puis Petrus Pérégrinus (1269), notent que si Autrement dit, aucune ligne de courant ne recoupe la surface l'aiguille aimantée pointe toujours dans la même direction, il de la Terre, Gauss considère que le champ dipolaire de la n'y a pas forcément un lien ni avec l'étoile polaire, ni avec Terre considérée comme une sphère de rayon R, peut être des masses de roches magnétiques, éparses sur la surface dérivé du potentiel V, fonction qui satisfait aux équations de connue de la Terre. Pérégrinus définit le concept de la Laplace. polarité magnétique. Au XVI°, l'observation de l'inclinaison magnétique (Fig. 26, angle avec l’horizontale dans le plan Le potentiel V, en un point de la sphère peut alors être représenté par une série d'harmoniques sphériques de degré du méridien magnétique) impose définitivement l'idée que le champ magnétique n'est pas lié à une étoile mais à la n et d'ordre m de la forme: Terre elle-même. La non coïncidence des pôles magnétiques avec l'axe de rotation de la Terre (déclinaison, m n m n+1} Cos mφ φ angle entre les directions des pôles magnétique et V=RΣ Σ∞ Σn Pmn(θ θ)[ {(ge) n(r/R) +(gi) n(R/r) n=1 m=0 géographique, déclinaison positive vers l’Est et m n m n+1 +{ {(he) n(r/R) +(hi) n(R/r) }Sin mφ φ] négative vers l’Ouest, Fig. 26) était connue des où : Pmn(θ) est la fonction harmonique sphérique de Schmidt; chinois à l'époque où la boussole arrive chez nous. Nous en refaisons la découverte à cette θ et φ sont respectivement les latitude et longitude magnétiques; époque, et Gilbert énonce en 1600 que le champ g et h sont les coefficients de Gauss, pour les sources; e et i sont respectivement externe et interne à la sphère. Fig. 26: Le champ magnétique terrestre. Gauss montra en 1839 non seulement que l'approximation selon laquelle aucun courant électrique extérieur perturbant le champ terrestre était satisfaisante, mais qu'en outre les coefficients ge et he pouvaient être considérés comme nuls pour rendre compte de l'essentiel du champ dipolaire à la surface de la Terre. Le champ terrestre pouvait donc bien être considéré comme d'origine interne. - 58 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Fig. 28: a) champ magnétique terrestre comprimé et raccordé au champ solaire ; b) piégeage des particules dans les vortex (aurore) 2 - Le champ déformé de la magnétosphère En s'éloignant dans l'espace, la magnétosphère (cf. Chp. 5.C.2) est très fortement déformée (Fig. 28a). Elle est confinée par la pression du vent solaire (particules chargées, protons, électrons, ions H+, He2+, constituant un plasma contenant en moyenne 10 particules/cm3) animé d’une vitesse de quelques 300 Km sec-1dans le plan équatorial solaire à 800 Km sec-1 au voisinage du pôle solaire. A Fig. 29 : Enregistrement du 09 mai 2009 à 15h 01. le site http://www.swpc.noaa.gov/pmap/index.html montre (en léger différé = 2h30) l’état d’ionisation des zones polaires. Plus la zone est rouge plus la chance de voir une aurore est grande. La flèche rouge indique le sens du midi solaire vrai. l’image de l’onde de choc supersonique, le vent solaire provoque une onde de choc sur la face avant de la magnétosphère. Le vent solaire a aussi pour effet d’étirer le champ magnétique solaire jusqu’aux confins de notre système. Dans la magnétopause, limite d’influence de la magnétosphère, les champs solaire et terrestre fusionnent. On parle de reconnections des lignes de champ. La déformation de la magnétosphère est permanente et considérable. Elle s’étend à environ 65000 Km en direction du soleil, soit environ 10 rayons terrestres seulement, mais à plus de 1000 rayons terrestres du côté nuit ! La “ densité ” de la magnéto gaine est de l'ordre de 1000 particules/cm3. En temps ordinaire, l'essentiel du vent solaire est dévié par la magnétosphère et les particules solaires ne parviennent pas jusqu’à l’ionosphère terrestre. Lors des tempêtes solaires, le flux de particules est considérablement accéléré. Mesurée en 2001, la vitesse des électrons atteignait 750 Km.sec-1. Selon leur incidence, les particules sont soit détournées par les lignes du champ terrestre soit piégées et dirigées vers la corne polaire (vortex, fig. 28b), nourrissant l’ovale auroral en particules (Fig. 29, degré d’ionisation des ovales Nord et Sud au moment de l’écriture de ces lignes). Si l’énergie des particules est suffisante (cas les vents solaires issus d’éruptions) elles descendent jusque dans la « basse » atmosphère. Elles y produisent de la lumière dans l’ovale auroral, les aurores boréales et australes, grossièrement symétriques et simultanées (cf. . Fig. 29), en ionisant l'atmosphère très raréfiée au-delà de 70 Km (ionosphère). Nous y reviendrons lors de la description de l’atmosphère (Chp. 5.C.2). Lors d'éruptions solaires particulièrement fortes, les satellites et les systèmes électriques au sol peuvent être endommagés (on parle d’électrons tueurs de satellites), les compas et les liaisons radios. 3 - Le champ terrestre est actif En 1634, Gellibrand découvrit que la déclinaison et l'inclinaison varient lentement avec le temps. L'accumulation des relevés faits depuis lors a montré que la position des pôles magnétiques terrestres a varié de façon importante (plusieurs dizaines de degrés de longitude, (Fig. 30). Cette variation séculaire du champ est trop rapide pour être expliquée par un phénomène superficiel tel que la dérive des continents. On a longtemps attribué la - 59 - ENSM-SE, 2° A : axe transverse P N Fig. 30: variation séculaire du champ magnétique 16/10/12 (orientation dans le champ durant la chute vers le fond). L’aimantation rémanente des matériaux ferromagnétiques est effacée par la température (point de Curie). La T° maximum du point de Curie des minéraux terrestre (silicates ou oxydes) ne dépasse pas 770°C (Fe). Elle n’est que de 580°C pour la magnétite, principal minéral ferromagnétique dans la croûte Terrestre. Compte tenu de la valeur du gradient de T° terrestre, aucun champ rémanent ne peut donc subsister au-delà de 25 à 30 Km de profondeur. Le champ magnétique terrestre est donc actif, et lié à des courants électriques profonds. Il existe donc une géodynamo magnétohydrodynamique au cœur de la planète. Le noyau représente à cet effet “LE ” candidat idéal : le Noyau est un conducteur (Fer liquide) animé de mouvements (courants de convection) plongé dans un champ initial (champ solaire) variation séculaire à un phénomène de précession du champ dipolaire (rotation de l'axe du dipôle autour d'un axe constant, à la manière d'une toupie) mais les mesures obtenues sur des fours de potiers datés (depuis le début du 1° Millénaire en Europe) et conservés en place ne viennent 4 - Un champ magnétique auto-entretenu pas s’aligner sur l’ovale espéré, infirmant cette hypothèse. La variation séculaire n’est pas donc pas encore clairement L'idée d'un champ magnétique auto-entretenu fut proposée expliquée de nos jours. En outre on a pu montrer qu'en tout d’abord par Larmor en 1919 pour expliquer le champ Europe occidentale, le champ magnétique a régulièrement solaire. La dynamo hydrodynamique terrestre est le moyen décru depuis le ~VI° siècle jusqu’à sa valeur actuelle, permettant la conversion de l'énergie cinétique tirée de la perdant environ 50% de son intensité. convection du noyau liquide — convection engendrée par la cristallisation fractionnée progressive du liquide Fe-Ni du noyau en graine On sait depuis Pérégrinus que le champ propre des solide — en énergie magnétique via le fluide conducteur matériaux observés en surface reflète le caractère ferromagnétique de certains minéraux ferrifères qui les qu’est le Fe-Ni liquide du noyau. En effet, lorsque ce dernier constituent. Contrairement aux substances diamagnétiques est en mouvement, il crée un champ magnétique, et à cause ou paramagnétiques dont l’aimantation acquise sous l’effet de la turbulence, un courant est auto-induit dans le fluide. Si d’un champ extérieur cesse avec ce champ, les corps la configuration permet à ce courant d'amplifier le champ ferromagnétiques sont capables d'enregistrer le champ magnétique initial, le mécanisme est alors auto-entretenu existant et de le conserver ensuite, sauf pour une valeur (voir wiki PN, Origine du champ magnétique terrestre, faible de ce champ. L’aimantation J acquise par un corps W.Saifane 2010). ferromagnétique est fonction de l’intensité du champ Cette idée fut reprise par Elsasser (1946) puis par appliqué H, jusqu’à saturation de l’aimantation Js (Fig. 31). Bullard à propos du champ terrestre (1949). La dynamoL’aimantation acquise ne peut donc dépasser la valeur de Jc, disque de Bullard (Fig. 32) en explique le principe : un quel que soit H. Lorsque le champ appliqué H cesse, disque conducteur tournant dans un champ magnétique l’aimantation J décroît jusqu’à Jr, aimantation rémanente, initial produit une force électromotrice; les charges, stockées mais ne s’annule pas. On peut faire disparaître cette à la périphérie du disque sont évacuées par une spire aimantation rémanente en appliquant au corps aimanté un coaxiale qui produit alors un champ qui renforce le champ champ inverse, dit coercitif (Hc). En faisant varier le champ initial. La résistance du circuit et le sens des courants induits H entre deux valeurs identiques mais de sens opposé, on (Lenz 1833) imposent une limite à l'accroissement du obtient ainsi une courbe fermée d’aimantation appelée champ, mais la dynamo produira un champ tant que le hystérésis. Les champs que l’on mesure sur des roches conducteur sera en rotation. contenant des minéraux ferromagnétiques sont donc des champs rémanents (fossiles), datant de leur cristallisation Dans une sphère fluide conductrice mais non convective en (e.g. roches volcaniques) ou de leur sédimentation rotation et soumise à un champ initial il ne se passe rien car Fig. 31 : Courbe Ferromagnétiques d’hystérésis des corps la distribution de la conductivité est alors homogène. Par contre, le cas d'une sphère convective introduit une hétérogénéité. Le conducteur y décrira des boucles simples, de la forme des cellules de convection. Depuis les Fig. 32 : disque dynamo de Bullard travaux de F.H. Busse (1970) sur les systèmes en rotation rapide, on imagine que la convection dans le noyau se fait au moyen de cellules parallèles à l’axe de rotation (Fig. 33a). La vitesse de rotation étant maximum à l’équateur, ces cellules ne sont pas des cylindres mais des lobes nord-sud enroulés par la - 60 - ENSM-SE, 2° A : axe transverse P N rotation (Fig.33b). Le nombre des lobes est proportionnel à la vitesse de rotation de la sphère. Le schéma de la convection de Busse montre, au sein de la cellule, les lignes de déplacement du fluide. Le champ magnétique étant gelé (piégé) dans le fer liquide du noyau, il est entrainé par la convection. 16/10/12 Fig. 34 : naissance d'un champ toroïdal dans une sphère hétérogène en rotation Il suffit que la vitesse du fluide soit suffisante (x10 km/an dans le noyau) pour que la force de Coriolis puisse enrouler le conducteur, qui décrira alors des spires tout en parcourant la boucle convective, dessinant un tore (Fig. 34). La figure montre comment les lignes de force d'un champ initial poloïdal commencent à s’enrouler (en haut à gauche puis à droite), donnant naissance à un champ tore (en bas à gauche). Dans ce tore parcouru par le fluide conducteur naît alors un nouveau champ poloïdal (en bas à droite) qui vient renforcer le champ poloïdal initial. La dynamo auto-entretenue est alors activée. Dans le Noyau terrestre, le champ dipolaire (90% du champ) résulterait de ce champ toroïdal, lié à la rotation de la Terre. Les 10% multipolaires du champ résulteraient en grande partie de mouvements cycloniques variés dans le noyau. On a longtemps pensé que la présence de la graine solide reconnue au cœur du noyau liquide par le PREM était indispensable au fonctionnement d’une telle dynamo. Cette contrainte reposait sur l’idée que la convection du noyau était engendrée essentiellement par le fractionnement des éléments lourds (Fe, Ni, nous reviendrons sur la composition du noyau au chapitre 4) dans le processus de cristallisation de la graine au dépend du noyau liquide. Le liquide situé au dessus de la surface de la graine « fraîchement » cristallisée se trouve ainsi enrichi en éléments légers (Si, O, S, H) par rapport au reste du liquide et tend donc à convecter spontanément grâce à ce changement de Fig. 33a : modèle de convection dans le densité lié au noyau selon Busse 1970 changement de composition. On considère maintenant au contraire, depuis Sakuraba & Kono, 1999, que la convection purement thermique est un moteur possible pour notre dynamo, et qu’il http://iopscience.iop.org/1367a fort bien pu présider 2630/9/8/306/fulltext Fig. 33b : Cellules de convection de seul à la convection Busse dans un modèle actuel de sphère du noyau terrestre, même dans un noyau en rotation resté entièrement liquide durant les premiers âges de la Terre. L’âge magnétique connu de la Terre (environ 3.8 Ga.) n’est donc plus l’âge le plus ancien admissible pour la http://www.gla.ac.uk/schools/mathematicsstatistic graine, et les modèles s/research/maths/fluids-mhd/# Fig. 35a, magnéto à double disque de Rikitake (1958) Fig. 35b, variations du courant avec le temps les plus récents de refroidissement du manteau et du noyau suggèrent au contraire que la graine est relativement jeune et n’aurait guère plus de 2Ga. Si une dynamo auto-entretenue comme la dynamo de Bullard peut maintenir un champ d'une polarité donnée, elle peut fonctionner aussi avec la polarité inverse. La dynamo simple-disque de Bullard présente un fonctionnement constant et stable. Par contre une dynamo à double disque, comme celle de Rikitake (Fig. 35a) montre des oscillations du champ et inversions spontanées des pôles (Fig. 35b). Depuis Brunhes au début du XX° siècle, on connaissait des régions volcaniques anciennes dont le Fig. 36 : structure symétrique et alternée du magnétisme rémanent du plancher océanique Est Pacifique. - 61 - ENSM-SE, 2° A : axe transverse P N Fig. 37 : taches solaires magnétisme rémanent montrait une polarité inverse de celle du champ actuel, mais ce phénomène d’inversion des pôles a été clairement mis en évidence sur terre avec l’exploration des océans dans les années 1950 et 60 (Fig. 36) qui a montré que le plancher océanique est constitué d’une succession de bandes parallèles de polarité alternée, N-S puis S-N, etc. L’inversion des pôles magnétiques terrestre n’a rien de régulier. On a pu mettre en évidence des durées de polarité très courtes de l’ordre de 100 000 ans et à l’opposé des durées très longues entre deux polarités, e plusieurs dizaines de millions d’années. On n’a encore aujourd’hui fort peu d’idées sur les raisons qui président à une telle diversité de la durée des polarités du champ magnétique terrestre. Les mesures faites sur des piles de coulées volcaniques montrent que la durée d’une inversion est de l’ordre de 5000 ans environ et qu’elle s’accompagne d’un affaiblissement très important de l’intensité du champ dipolaire, voir de sa disparition. Le chemin suivi par les pôles magnétiques durant une inversion est longtemps apparu erratique. Cependant, quelques inversions récentes du champ terrestre ont été bien enregistrées lors des épisodes volcaniques contemporains. Ces séries volcaniques ont été abondamment et précisément datées, et il résulte de ces études que les pôles migreraient durant l'inversion en suivant des longitudes privilégiées. Ce fait reflète peut-être les mouvements convectifs externes du noyau. Nous y reviendrons dans la description du fonctionnement du noyau (Chp. 4.A.3). Le Soleil présente un comportement similaire organisé par le cycle solaire de 22 ans (2 x 11ans). Galilée avait observé les taches solaires, avec moins de définition que dans l’image de la figure 37. Sa lunette ne lui permettait que d’imaginer des nuages flottant dans l'atmosphère du soleil, obscurcissant un peu de sa lumière. En 1843, S. H. Schwabe annonce23 que le nombre de taches solaires varie de manière cyclique, atteignant un apogée à environ tous les dix ans. R. Wolf passe plus de 40 ans à fouiller les archives des observatoires astronomiques24 et parvient à reconstituer l'histoire de ces variations jusqu'à 1745. Il révise alors la période du cycle de Schwabe pour l'établir à 11 ans (Fig. 38). Leur nature magnétique sera établie en 1897, lorsque Pieter Zeeman découvre qu’en présence d’un champ magnétique fort, l’intensité de l'émission de lumière d’un gaz surchauffé (émission aux longueurs d'ondes définies par les éléments qu’il contient) est divisée en fonction de la 23 24 après 17 ans d'observations quotidiennes ! Tiré de Paul Charbonneau Département de physique, Université de Montréal, Agence spatiale canadienne, www.asc-csa.gc.ca 16/10/12 Fig.38 : Variation du nombre de taches solaires observées http://www.asc-csa.gc.ca/fra/sciences/taches_solaires2.asp force du champ en différentes longueurs d'ondes. Or les couleurs de la lumière émise à partir des taches solaires étaient "divisées" exactement de cette façon. Par ailleurs et corrélativement, les orages magnétiques les plus puissants ont lieu durant les années où les taches solaires sont les plus nombreuses. George Elery Hale confirma la vraie nature magnétique des taches solaires en 1908 et il établit que : 1 - les grandes taches solaires apparaissent en paires rapprochées, à peu près alignées dans la direction de la rotation du Soleil ; 2 - les polarités des paires sont toujours opposées et quasi toujours ordonnées de la même manière dans chaque hémisphère; 3 - l'ordre des polarités est inversé d'un hémisphère à l'autre; 4 - les polarités s'inversent d'un cycle à l'autre. Il observa aussi que le champ est si puissant (3000 fois plus fort, près de la surface de la terre, que le champ terrestre) qu’il ralentissait le flot de chaleur provenant de l'intérieur du soleil, causant les taches plus sombres que le reste du soleil. En 1919 Sir Joseph Larmor proposa la théorie suivante : les champs des taches solaires étaient dus à ces courants dynamos. Il suggéra qu'une chaîne fermée de cause à effet existait, dans laquelle le champ créé par ces courants était aussi le champ qui les rendait possible, le champ dans lequel le mouvement du plasma générait les courants nécessaires. Beaucoup de caractéristiques de ces taches solaires restent un mystère, mais l'idée de J. Larmor permit l'ouverture d'une ère de nouvelle compréhension des processus magnétiques dans le noyau terrestre. En 1957, on observa que le soleil était en train de subir une inversion de ses pôles. Le passage d'un état stable à l'état stable inverse dura 18 mois. Le mécanisme de ces inversions est complexe et encore mal compris, mais elles sont la règle. Tous les 11ans à peu près, à l'approche du maximum d’activité solaire, c'est-à-dire lorsque le nombre des tâches est à son maximum, les pôles magnétiques échangent leur place. Inversement, cette inversion est une bonne indication que le maximum solaire est bien atteint. La dernière inversion enregistrée se situe lors du pic du cycle 23, en 2001 et la prochaine devrait avoir lieu en 2012 mais le cycle 24 est largement en retard (Chp. 5.B.1.c Fig. 19) En 2007, D. Gubbins, A. P. Willis et B. Sreenivasan ont montré que les variations latérales du flux de chaleur - 62 - ENSM-SE, 2° A : axe transverse P N Fig. 39 a-b : champ quadripolaire observé à la surface a) 1750 b) 1990 16/10/12 Fig. 39 c-d : champ quadripolaire modélisé par Gubbins et al http://yakari.polytechnique.fr/people/willis/papers/pepi162_256.pdf dans le manteau inférieur sont capables d’influencer l’activité de la géodynamo. Le champ terrestre n’est pas seulement dipolaire. Il existe aussi un champ quadripolaire d’intensité beaucoup plus faible que le champ dipolaire, qui occupe une position à peu près symétrique par rapport à l’équateur. On définit donc 2 dipôles, tous deux symétriques par rapport à l’équateur, appelés Sibérien et Canadien. Si l’axe du champ dipolaire est largement bloqué par l’axe de rotation de la Terre — et donc n’évolue que peu et très lentement autour de cet axe — le champ quadripolaire évolue semble-t-il avec une plus grande liberté, comme le montre La figure 39 (a,b) tirée des travaux de Gubbins et al.. Mais il reste néanmoins relativement permanent autour de ses deux pôles Sibérien et Canadien. Autre relative fixité dans le temps, on observe qu’au cours des inversions du champ dipolaire, les pôles Nord et Sud migrent en suivant un chemin préférentiel bien enregistré par le volcanisme de la Terre, (cf. chp. 4). Les auteurs ont donc pensé que de telles constances, tant en longitude dans la position du quadripôle qu’en chemin préférentiel du dipôle lors des inversions, doivent résulter d’un manque de symétrie sphérique dans le manteau car rien ne s’opposerait, dans le cas contraire, à une rotation de ce quadripôle, ou bien à un chemin plus aléatoire du dipôle en inversion. Dans ce travail, les deux dipôles (Sibérien et Canadien) constitutifs de ce quadripôle sont présentés dans une série d’animations, qui montre le flux magnétique obtenu en faisant varier latéralement le flux de chaleur dans le manteau. En considérant les variations latérale de vitesse des ondes S — mises en évidence par la tomographie sismique au sein du manteau inférieur au voisinage de la limite manteau noyau — comme résultant de variations du flux de chaleur, les auteurs obtiennent une modélisation satisfaisante du champ quadripolaire actuel et de ses variations entre 1750 et 1990 (Fig. 39-c-d). La paire canadienne y apparaît fixe, alors que la paire sibérienne est plus mobile, conformément à ce que suggère l’ensemble des observations sur la même période dans la figure 39 a-b. La morphologie du champ magnétique terrestre ne dépendrait donc pas uniquement de la structure interne du noyau et de la graine, mais aussi de la structure thermique du manteau inférieur. Les étoiles et les planètes ont des champs magnétiques très variés. Le rôle de la rotation du corps explique que le dipôle magnétique coïncide ou presque avec l'axe de rotation du globe. Cette constatation a été faite sur Terre comme sur les autres corps célestes émettant un champ actif (Tableau 4). Tableau 4 : champ magnétique des planètes et des étoiles densité période de rayon (Km) Astre rotation Soleil Mercure Vénus Terre Lune Mars Jupiter Saturne Uranus Neptune étoile magnétique pulsar quasar voie lactée 5.3 4.95 5.52 3.6 3.95 1.33 0.69 1.56 2.27 27j 59 j 243j 23h 56’ 27j 695000 2425 6070 6400 1740 24h 37’ 9h 55’ 10h 38’ 10h 49’ 15h 48’ 10h 1’’ 3395 71300 60100 24500 25100 2000000 qqs km 200 Ma 50000 a.u. Champ prévu (gauss) 1 0.0035 0.001 0.0004 champ observé (gauss) 1 0.0020 nul ? 0.3 0.00001 0.06 14 5 1.8 1.6 103 1013 0.001 0.00001 0.0006 4 ? ? ? 500-1000 ? 0.0001-0.001 <0.00001 origine du champ dynamo active dynamo active ? dynamo active dynamo ancienne ? dynamo ancienne dynamo active dynamo active? ? ? dynamo active dynamo active ? ? Sites WEB consultés http://www1.gly.bris.ac.uk/~george/gjift96/gjift96.html#figs http://www.space.com/scienceastronomy/gravity_map_030725.html http://renass.u-strasbg.fr/ http://www.unb.ca/courses/geol1001a/lec-8.htm http://antwrp.gsfc.nasa.gov/apod/ap011113.html http://denali.gsfc.nasa.gov/research/earth_grav/earth_grav_med.jpg http://sismalp.obs.ujf-grenoble.fr/sismalp.html http://www.unb.ca/courses/geol1001a/lec-10.htm - 63 - ENSM-SE, 2° A : axe transverse P N 16/10/12 http://www.unb.ca/courses/geol1001a/lec-13.htm http://www.scecdc.scec.org/Module/module.html http://www.pmel.noaa.gov/vents/acoustics/seismicity/seismicity.html http://www.seismo.unr.edu/ftp/pub/louie/class/100/seismic-waves.html http://web.ngdc.noaa.gov/mgg/image/images.html http://lasker.princeton.edu/ScienceProjects/curr/waves/seismic_waves.htm http://www.eas.purdue.edu/~braile/edumod/slinky/slinky.htm http://mahi.ucsd.edu/Gabi/3dmodels.html http://istp.gsfc.nasa.gov/earthmag/dynamos2.htm http://www-istp.gsfc.nasa.gov/earthmag/demagint.htm http://www.ggl.ulaval.ca/personnel/bourque/s1/magnetisme.terr.html http://csep10.phys.utk.edu/astr161/lect/earth/magnetic.html http://www.psc.edu/science/Glatzmaier/glatzmaier.html http://www.spaceweather.com/glossary/imf.html http://www-istp.gsfc.nasa.gov/Education/Imagnet.html http://www.phy6.org/earthmag/sunspots_fr.html http://www.ubka.uni-karlsruhe.de/cgi-bin/psview?document=/fzk/6797 http://www.didiersvt.com/cd_1s/html/c1/prem.htm http://mahi.ucsd.edu/Gabi/rem.dir/rem.home.html http://www.didiersvt.com/cd_1s/html/c1/prem.htm http://homepage.oma.be/mvc/ http://www.esgt.cnam.fr/fr/surcharge.htm http://www.astrosurf.com/luxorion/sysol-soleil-magnetique2.htm http://www.swpc.noaa.gov/pmap/index.html http://www.asc-csa.gc.ca/fra/sciences/taches_solaires2.asp http://iopscience.iop.org/1367-2630/9/8/306/fulltext http://www.gla.ac.uk/schools/mathematicsstatistics/research/maths/fluids-mhd/# http://www.gps.caltech.edu/~alex/subduction.htm http://www.ladhyx.polytechnique.fr/people/willis/papers/pepi162_256.pdf http://principles.ou.edu/earth_figure_gravity/geoid/index.htm http://yakari.polytechnique.fr/people/willis/papers/pepi162_256.pdf quelques idées fortes Quelques idées fortes : Gravité En 1798 Cavendish mesure G= 6.67 10 -11 SI et montre que la Terre est constituée de 2 couches L’unité de pesanteur, le gal, équivaut à 10-2m.s-2 La pesanteur terrestre est de l’ordre de 980 gal : Le fil à plomb (g) ne passe pas par le centre de la Terre, sauf aux pôles; L’intensité du champ de pesanteur varie avec la latitude. ; L’image du champ de pesanteur est l’image de la topographie, faible au droit des fosses, fort au droit des montagnes Les hétérogénéités de masses volumiques dans la croûte terrestre sont compensées : Cette compensation est de type hydrostatique, elle est appelée isostasie ; Elle confirme la plasticité de la Terre Séismicité Un séisme émet au foyer des ondes de volume : P, ondes de compression dilatation (longitudinales) elles traversent tous les milieux ; S, ondes de cisaillement (transversales), et ne sont pas transmises par les liquides ; En arrivant à la surface, P et S créent des ondes dévastatrices propagées en surface, dites ondes de Love et de Rayleigh Discontinuité de Mohorovicic, sépare la croûte du manteau : Croûte = constituée de silicate alumineux, SiAl ; Manteau = constitué de silicate magnésien, SiMg, alias SiMa ; Croûte océanique : « Moho » à 5-10 km; Croûte continentale : « Moho » à 20-30km, jusqu’à 70 km sous les montagnes ; Asthénosphère = LVZ dans le manteau = zone ductile débute vers 100 km et finit vers 250 km ; Lithosphère = tout ce qui est au dessus de la LVZ ( et donc a un comportement fragile) Discontinuité à 670 km sépare manteau supérieur et manteau inférieur : Jusqu’à 900 km environ zone de transformation de la structure spinelle (ρ faible) à la structure pérovskite (ρ fort) ; Couche D’’, Vers 2850 jusqu’a 2900km, résultant des interactions entre manteau et le noyau ; Discontinuité de Gutenberg, à 2900km, sépare le manteau solide (silicaté) du noyau liquide (alliage fondu de Fe-Ni) : C’est la coupure majeure de toutes les planètes rocheuses : sur terre : ρ manteau = 4 ; ρ noyau = 12 ; Le ∆ρ très fort crée une zone d'ombre sismique en surface (pas d’ondes reçues entre 105 et 142°) ; Le noyau ne transmet pas les ondes S, il est liquide Discontinuité de Lehmann à 5100 km, sépare le noyau liquide de la graine (alliage cristallisé de Fe-Ni) Magnétisme En 1600 Gilbert énonce que le champ magnétique est un dipôle, et qu'il est interne à la planète : le champ F est défini par : Sa déclinaison D (angle entre les directions des pôles magnétique et géographique) ; Son inclinaison I (angle avec l’horizontale dans le plan du méridien magnétique) ; Son intensité, qui varie de l'équateur au pôle, entre 33000 et 70000 Nano-Teslas ; 90% du champ est assimilable à un dipôle, incliné de 11.5° sur l'axe de rotation de la Terre : Aucun champ rémanent ne peut subsister au-delà de 25 à 30 Km de profondeur ; Le champ terrestre est actif, il varie avec le temps (variation séculaire) ; Le noyau ferreux liquide de la Terre fonctionne comme une géodynamo magnétohydrodynamique la magnétosphère est déformée par la pression de vent solaire, Elle s’étend à 10 rayons terrestres seulement côté Soleil, et à plus de 1000 rayons terrestres du côté nuit ! Le champ terrestre, comme le champ solaire, s’inverse ; Le mécanisme de ces inversions est complexe et encore mal compris ; L'intensité du champ décroît, s'annule durant l'inversion, puis augmente à nouveau. - 64 - ENSM-SE, 2° A : axe transverse P N 16/10/12 CHAPITRE 4 Les enveloppes rocheuses de la Terre Interfaces coloured according to indices of surfaces and a velocity section in model PREM Seismic Waves in Complex 3-D Structures (SW3D) A - Le Noyau Terrestre Les météorites précoces formées dans la nébuleuse solaire (les chondrites CI) et la photosphère solaire actuelle nous enseignent qu’au moment de la formation de la Terre, le rapport molaire du Fer au Magnésium était de l’ordre de 0.84. Dans l’hypothèse généralement admise d’une nébuleuse chimiquement homogène au moment de la formation du soleil et des planètes, ce rapport doit être aussi celui de la Terre. Partant des proportions massiques des éléments majeurs du manteau: O=50%; Si=22% ; Mg=22% ; Fe=6% e : Mg=22%, Fe=6% et des masses molaires des éléments : mO=16, mSi=28, mMg=24.3, mFe=56 on constate que le rapport molaire du manteau Fe/Mg = (6/56) / (22/24.3) n’est que de 0.1 environ. A Magnésium constant, il manque donc une quantité importante de Fer dans le manteau que nous pouvons essayer d’estimer : 1- la masse molaire moyenne du manteau (0.5*16 + 0.22*28 + 0.22*24.3 + 0.06*56) est de =22.8. 2- le nombre de moles de Magnésium NMg dans le manteau s'écrit : NMg = Mg/mMg * Mmanteau (1) Si l'on suppose que le rapport molaire Fe/Mg de la Terre totale est égal à celui des chondrites (0.84), on en mq déduit que M Fe la masse manquante de fer est : M Mq Fe = Mq N *m Fe Fe = N Terre Fe − N Manteau x Fe m Fe on sait que N Terre Fe = Terre N Mg x Chon N Fe N Chon Mg Or, puisque Mg est constant, on a N Terre Mg = N Manteau = Mg N Mg donc on réécrit la masse manquante de fer du manteau M Mq Fe = N x Mg N Chon Fe N Chon − N ChManteau Fe N Mg Manteau x Mg m Fe et en remplaçant de (1) NMg par Mg/mMg * Mmanteau on a : M Mq Fe = M manteau ∗ Mg ∗ M Mq m = M ou M Fe Mg Fe m manteau Mq Fe = N Chon Fe N ∗ 0.22 ∗ 56 Chon − N ChManteau Fe Mg N 1 - Le noyau liquide Sismiquement transparent pour les ondes S et ralentissant fortement les ondes P, le noyau terrestre est à l'état liquide (Chp. 3.B.4.d). La pression varie de 130 G.Pa à la surface du noyau à 400 G.Pa au cœur du globe (1 G.Pa = 10 000 atm.). L’estimation de la température dans le noyau est encore de nos jours un point largement débattu. On sait que le manteau est solide et constitué principalement de pérovskite. On a pu extrapoler vers les très hautes pressions qui règnent à l’interface manteau-noyau la courbe de fusion de la pérovskite, qui fixe ainsi la limite supérieure de la température au sommet du noyau à 5000°K. La température à la limite entre le noyau et la graine, considérée comme le point de fusion du fer à une pression de 320 G.P, a pu être évaluée grâce à des expériences de fusion par ondes de choc à 6000°K. Si l’on tient compte de la présence de 10% environ d’éléments légers, on obtient une température de l’ordre de 5000°K. Considérant alors que la chaleur du noyau liquide est transportée par convection, le gradient adiabatique donne pour la surface du noyau une température de l’ordre de 3800°K. La température au centre de la Terre serait de l’ordre de 6000°K. Une équipe du University College de Londres a donné récemment (1999) des valeurs beaucoup plus élevées, de l’ordre de 9900°K, fondées elles aussi sur des extrapolations de la courbe de fusion du fer, voir 11500° pour du fer pur. Le calcul ab initio des énergies libres du fer liquide et solide à 330 G.Pa. (Alfé, Gillan et Price 1999) donne une température de 6700 ± 600°K à la frontière noyau-graine. Le débat n’est pas clos, mais la tendance vers de plus hautes valeurs de la température du noyau tend à montrer que la part de celui-ci dans le bilan thermique de la Terre (chaleur initiale et chaleur latente) sera certainement à revoir dans les années qui viennent. Manteau Mg (0.84 − 0.1) 24.3 0.38∗M environ 40% de la masse du manteau. Or, le rapport des masses entre le noyau ferreux et manteau est de 0.48 et non 0.4. Mais le fer n’est pas le seul élément contenu dans le noyau ; à partir de la composition des sidérites et en raison des contraintes imposées par la géophysique on estime que le noyau est aussi constitué de nickel en faible %, et d'éléments légers (O, Si, ou S). D’après Allègre et al., 1995, la composition du noyau serait la suivante : Fe=79%, Ni=5%, Si=7%, S=2%, O=4%. Sa densité doit être comprise entre 10 et 12, et il est conducteur de l’électricité. manteau La masse manquante de fer représenterait donc On estime que la viscosité du fer fondu dans les conditions régnant dans le noyau est peu différente de celle que l'on obtient en surface. Elle serait donc du même ordre de grandeur que la viscosité de l'eau ! Nous avons vu au chapitre précédent que le Noyau fonctionne comme une - 65 - ENSM-SE, 2° A : axe transverse P N Fig. 1 : Circulation dans le noyau liquide ; en jaune les régions de vitesse maximum, en bleu l’interface noyau-manteau, en rouge la limite noyau-graine. Fig. 2 : Champ magnétique jusqu’à une distance de 2 rayons terrestres; en bleu champ rentrant dans le manteau ; en orange , champ sortant. L’axe de rotation est vertical et passe par le centre. magnétohydrodynamique et que la force de Coriolis joue un rôle important dans le développement de ce champ. On sait que Coriolis n’est applicable qu’à un objet animé d’une vitesse significative. Dans le noyau, les vitesses de déplacement par convection seraient de l’ordre de une à plusieurs dizaines de kilomètres par an. « Dynamo », le modèle de convection sphérique en rotation et de calcul du champ (dipolaire et non dipolaire) de Glatzmaier et Roberts (1997 ; Fig. 1, et copie de l’animation du modèle sur http://www.emse.fr/~bouchardon/) intégrant le rôle de la graine solide conductrice, montre de larges courants équatoriaux, tournant vers l’est au voisinage de la graine et vers l’ouest à proximité du manteau. Le champ magnétique simulé est majoritairement dipolaire (Fig. 2). Une transition apparaît à la limite noyau-manteau, séparant un champ à structure complexe produit par le noyau liquide du reste du champ beaucoup plus régulier. Les structures non dipôles obtenues par ce modèle au sein du noyau (et non en surface comme dans les travaux de Gubbins et al. Chp. 4) se décalent lentement vers l’ouest de 2°/an, suggérant que la graine tourne légèrement plus vite que le manteau terrestre. Pour Ken Creager ce différentiel de vitesse pourrait être très petit <0.5°. 2 - La graine solide 16/10/12 provoquant une orientation des cristaux de fer ; 2 - soit un dépôt orienté de ces mêmes cristaux par le champ magnétique du noyau. Dans les deux cas, l’anisotropie observée résulterait du mode de cristallisation du fer sous haute pression, stable dans le système hexagonal compact (HCP, Fig. 3b), axisymétrique. L'orientation préférentielle des cristaux peut engendrer des variations fortes des propriétés élastiques selon les directions. Pour S.I. Karato (1999), cette anisotropie serait provoquée par les forces de Lorenz liées au champ toroïdal qui, en comprimant de plus en plus la graine (en direction de l’axe de rotation) depuis l’équateur (où la force est nulle puisque les lignes du champ changent de sens) vers le pôle de la graine (où les forces de Lorenz deviennent maximum). En observant le comportement de rais sismiques répétés au cours des 30 dernières années, couplant une même région sismiquement active avec un ou des observatoires de mesure, X. Song et P. Richards ont mis en évidence une évolution temporelle de l’axe d'anisotropie de la graine, traduisant une rotation de la graine vers l’ouest de 1° par an. Le mécanisme et l’ampleur de cette super-rotation de la graine par rapport au manteau, et son existence même, sont encore largement débattus. Pour Kenneth Creager, cette super rotation serait due au mécanisme complexe de transfert d’énergie du noyau vers le manteau, dont le modèle très fertile de géodynamo de Glatzmaier et Roberts donne l’image suivante : le champ magnétique généré dans la Terre génère à son tour un couple de forces qui s’applique au noyau, imposant à la graine Nous avons vu que la vitesse de transmission des rais sismiques présente une zone interne plus Fig. 3 : a) Vitesses de propagation dans la graine : zones lentes en rouge ; rapide que son enveloppe plus lente. A la zones rapides en bleu. L'axe d'anisotropie de la graine (point rouge) n'est pas fin des années 90, W.J. Su et A.M. confondu avec l'axe de rotation du globe. b) système HCP Dziewonski ont découvert en analysant précisément la distribution spatiale des vitesses des ondes sismiques que la graine présente en outre un axe d'anisotropie incliné d'une dizaine de degrés par rapport à l'axe de rotation de la Terre (Fig. 3a). Les ondes P qui voyagent dans la graine entre ses pôles seraient (même après correction de l’aplatissement terrestre) plus rapides de 5 secondes que celles qui voyagent dans son plan équatorial, ce que l'on pourrait peut-être attribuer à deux causes possibles: 1 - soit une convection axisymétrique a) b) - 66 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Fig.4 : Champ magnétique des planètes du système solaire solide et au noyau liquide sus-jacent une co-rotation vers l’ouest par rapport à la surface. Pour Glatzmaier et Roberts ce mécanisme est l’analogue d’un moteur synchrone, pour lequel le champ, transporté vers l’ouest par le fluide du noyau agit comme le champ tournant du stator, alors que la graine agit comme le rotor d’un tel moteur. Dans ces simulations, la rotation différentielle engendrée est de 2°/an à 3°/an, ce qui est en accord avec les observations sismologiques. Il convient cependant de rester critique, d'abord parce que les données collectées sont limitées dans le temps et donc ne couvrent qu'une fraction très petite de révolution de la graine, et ensuite parce que les données les plus anciennes (années 60) sont à la fois moins précises et moins nombreuses. Ainsi, l'apparente inclinaison de l'axe d'anisotropie pourrait provenir de la distribution irrégulière des stations sismologiques et des séismes observés (principalement issus de rides océaniques et de zones de subductions). En outre, selon S. Tanaka et H. Hamaguchi (1997) il est possible que la graine ne soit pas de symétrie cylindrique. De plus, comme le souligne Annie Souriaux, la rotation différentielle de la graine pose un problème théorique: la forme de la graine doit être modelée par le champ de gravité du manteau. Celui-ci étant hétérogène il génère nécessairement des creux et des bosses à la surface de la graine. Si celle-ci est bien en super rotation par rapport au manteau, leur couplage gravifique doit engendrer la disparition et la recréation simultanée de ces creux et bosses (de quelques x100m tout de même)… En d’autres termes, si la graine tourne plus vite que le manteau, elle doit adapter sa forme au champ de gravité. Il faut donc que les "bosses" de la graine fondent pour se recristalliser ailleurs, ou se déforment par viscosité. Pour Laske et Masters (1999), cette super rotation n’existerait pas, et ne serait qu’un artefact lié justement aux hétérogénéités de la graine. Le noyau recèle encore bien des mystères ! Il est à noter que parmi les champs magnétiques des planètes du système solaire, seuls les champs actifs ont une Fig. 5, échelle des polarités et des temps durant 4.5 Ma forte intensité (tab. 1 du Chp. 3). Depuis, d'autres analyses ont conduit à des valeurs allant On constate aussi (Fig. 4) que si l’orientation du champ dipolaire est souvent proche de l’axe de rotation de la planète, Uranus et Neptune montrent un champ d’orientation très différente. La nature de ces champs n’est pas encore bien connue. Constituée de fer quasi pur, la graine résulte de la cristallisation du noyau. Les calculs laissent à penser que 30 à 100 m3 de graine sont ainsi cristallisés chaque jour, dégageant assez de chaleur latente pour entretenir la convection dans le noyau liquide. En outre, le liquide restant est enrichi par soustraction du fer en éléments qui n'entrent pas dans la graine (fractionnement chimique). Ces éléments plus légers que le fer doivent donc avoir tendance à remonter vers la surface du noyau, libérant de l'énergie potentielle de gravité. L'ensemble pourrait suffire, même sans radioactivité (40K, § bilans énergétiques), à entretenir la géodynamo. Une telle géodynamo peut fonctionner dès lors que le noyau existe, ce qui expliquerait que l’on ait pu observer l'existence de ce champ dans des roches très anciennes, allant jusqu'à 3.8 Ga. (Ishua, Groenland) et même 3.96 Ga. (Acasta, USA). En cas d'arrêt de la convection dans le noyau, on estime à 10 000 ans environ le temps de disparition du champ magnétique. Ce temps correspond à la dissipation par effet Joule de l'énergie disponible dans le fluide conducteur arrêté. Fig. 6a : fréquence des inversions de polarité du champ Crétacé Jurassique 170 160 150 140 130 120 110 100 Paléocène 90 80 - 67 - 70 60 Eocène 50 Pléistocène Pliocène Miocène Oligocène 40 30 20 10 0 ENSM-SE, 2° A : axe transverse P N 16/10/12 coïncidence relevée par Gubbins et al. (2007, Chp. 3) de la trace des pôles parcourant des chemins préférentiels durant les inversions découverts par C. Laj et al.(1991, Fig. 7b) avec l’existence d’ondes sismiques S lentes dans le manteau au voisinage de l’interface avec le noyau confirme le rôle de la structure thermique profonde de la Terre dans le phénomène des inversions du champ. 3 - Les inversions du champ terrestre Les inversions du champ terrestre sont fréquentes. La durée moyenne de stabilité est de l'ordre de quelques centaines de milliers d'années, mais elle peut être beaucoup plus courte (Fig. 5). Inversement, par deux fois au moins (Fig. 6a), au Permien (limite Permien-Trias = 250 Ma.) et au Crétacé (Limite CrétacéTertiaire =65 Ma.), la géodynamo a Fig. 7a : état du champ magnétique terrestre lors d’une inversion, à t = 500 ans après le “ oublié ” de permuter ses pôles début de l’inversion, t=1000 ans et t = 1500 ans, d’après Glatzmaier et Roberts pendant plusieurs dizaines de millions d'années. Les inversions bien documentées du paléo champ de la Terre apparaissent rapides (5000 à 15000 ans) et l’errance des pôles magnétiques pendant cette période montre clairement deux choses : 1 - Les pôles parcourent des chemins préférentiels, découverts par C. Laj et al.(1991, Fig. 6b) ; 2 - l’inversion s'accompagne d'un affaiblissement très important du champ dipolaire. La décroissance rapide de l’intensité du champ actuel pourrait l’amener à zéro dans 2 à 3 milliers d’années, suggérant que nous sommes en train de vivre le début d’une telle inversion. En 1995, dans la simulation de G.A. Glatzmaier et P.H. Roberts (Fig. 7a), la première inversion est apparue à 36000 ans, la seconde à 120000 ans et la troisième à 220000 ans. Comme dans les archives géologiques, les inversions sont un phénomène rapide, pendant lequel le champ non dipolaire devient temporairement dominant. Enfin leur apparition apparaît chaotique. Selon certains auteurs, les modifications fréquentes des champs magnétiques de la graine et du noyau tendraient à inverser le dipôle, mais selon des constantes de temps très différentes, faible dans le noyau liquide et longue dans la graine. Une inversion nécessiterait alors la coïncidence de ces deux phénomènes. Nous avons vu au chapitre 3 que le modèle « Dynamo », en prenant en compte les échanges de chaleur du noyau avec le manteau, montre qu’aucune inversion ne se produirait si le flux de chaleur vers le manteau était constant. Les inversions modélisées telles que celles à 120000 et 220000 ans l’ont en effet été avec un flux de chaleur hétérogène, suggérant qu’en effet la structure thermique du manteau inférieur joue un rôle important sur la convection dans le noyau liquide sousjacent et corrélativement sur le champ magnétique. La Fig. 6b : chemins préférentiels des pôles durant les inversions B - Le couplage Noyau-Manteau-Atmosphère et la couche D" Les modes de couplage du noyau avec du manteau représentent donc un paramètre clef de la compréhension de la machine Terre. Des variations dans le transfert de l’énergie du noyau au manteau, mais aussi du manteau à l’atmosphère vont ainsi se traduire par des échanges de moment angulaire entre ces sphères concentriques, et finalement se traduire par des variations de la durée du jour terrestre. Mais celles-ci sont complexes. Au lieu de 365 jours, l'année terrestre comptait 425 Jours au Dévonien, il y a environ 400 Ma. Ce ralentissement de la rotation terrestre est dû en bonne partie aux marées océaniques, qui freinent la Terre par le biais du frottement au fond des mers peu profondes, et pour partie aussi aux marées terrestres. L'application du principe de conservation du moment angulaire au couple Terre-Lune impose que le ralentissement de la Terre augmente la distance Terre-Lune de quelques cm/an actuellement. En dehors de cette tendance lourde, on observe avec les horloges modernes très précises des variations saisonnières25, mensuelles ou journalières qui sont elles aussi attribuables en partie à des échanges de moment angulaire entre atmosphère et manteau. Il est intéressant de noter que les variations pluri décennales de la longueur du jour apparaissent étroitement corrélées cette fois avec la variation séculaire de la déclinaison du champ magnétique, mais avec un décalage de 10 ans environ. Le mode de couplage entre noyau et manteau n'est pas encore clairement établi, mais on sait au moins que compte tenu de la différence de viscosité entre noyau et manteau, le couplage visqueux ne peut pas être efficace. Reste le couplage électromagnétique par des courants de fuite dans le manteau. Ils produiraient alors un 25 Les variations saisonnières apparaissent ainsi étroitement corrélées aux vents zonaux (alizés, vents d'ouest). - 68 - ENSM-SE, 2° A : axe transverse P N Fig. 8 : a) interface réactionelle entre manteau et noyau ; 16/10/12 b) altimétrie de la surface du noyau champ secondaire, comme dans le moteur électrique de Glatzmaier et Roberts. Mais le manteau qui est essentiellement silicaté peut-il être suffisamment conducteur ? L’observation en surface de soubresauts magnétiques trouvant leur origine dans le noyau impose une conductivité maximale de 10 siemens/m au manteau, il n’est donc pas A PRIORI un bon stator. Par contre, sa base dénommée26 couche D" (Fig. 8 a-b), est de nature très différente et représente un excellent candidat potentiel pour un tel couplage. 1 - Nature de la couche D" Cette couche D" est identifiée par la séismologie comme une région très hétérogène et discontinue, formant la base du manteau quand elle est présente (Fig. 8a-b). Elle apparaît solide mais à vitesse lente, à forte densité, et elle donne des rais sismiques spécifiques, qui émergent dans la zone d'ombre entre 103 et 120°. Son épaisseur ne dépasse pas quelques dizaines de Km, exceptionnellement 200300Km, et sa topographie est tourmentée, avec des écarts de plus de 100 Km pour 10° d’angle. L'existence de ces hétérogénéités à la base du manteau est connue depuis une quinzaine d'années, mais leur localisation exacte reste imprécise. Selon les hypothèses, les caractéristiques physiques globales de la couche D" ont trois origines possibles : 1 - elles peuvent être liées à la convection du manteau ; elles sont un héritage de plaques lithosphériques plongeantes provenant de la surface ; 2 - elles résultent d'une contamination du manteau par le fer du noyau. donc être une région de la Terre extrêmement active. Il s’y produirait une réaction de dissolution-recristallisation entre les roches du manteau et le noyau externe liquide, laissant un dépôt (solide) riche en métal à la surface du noyau. Les expériences au laboratoire montrent que le fer en fusion pénètre la roche silicatée par capillarité dans les joints des grains minéraux. Dans la zone mouillée par le fer, les oxydes de fer du manteau semblent se dissoudre partiellement dans le fer liquide, augmentant ainsi la fraction oxygène du noyau. Ces échanges chimiques pourraient contribuer à fabriquer une pellicule (liquide?) enrichie en Magnésium et en Oxygène dans le noyau au voisinage du contact avec le manteau. Cette réaction lente de dissolution serait rendue possible par un changement du type de liaison de l’oxygène sous très haute pression, qui tend alors à former des alliages métalliques conducteurs, au lieu des traditionnels silicates isolants. Quelle serait l’ampleur de ce phénomène dans la couche D"? Probablement quelques dizaines de mètres, quelques centaines au mieux ! En effet, la transmission des soubresauts magnétiques suggère que la partie basale conductrice du manteau ne dépasse pas une épaisseur de quelques x100 m au plus. Par conséquent, cette imprégnation seule ne peut expliquer les 200 ou 300 Km atteints par cette couche D". Les mouvements de convection à la base du manteau tendraient localement à rassembler ces dépôts conducteurs dans les ascendants (Fig. 8) ou inversement à les disperser dans les descendants. Ils constitueraient ainsi une couche discontinue plus ou moins enrichie en matériau mantellique. La couche D" serait alors un mélange constitué pour partie de matériaux issus du manteau27 et pour partie de fer métal issu du noyau. Les lithosidérites (pallasites) sont de bons analogues possibles de cette région du globe. Un tel mélange, bon conducteur, est à la fois capable de couplage électromagnétique avec le noyau, et d’un transport de chaleur beaucoup plus important que le manteau ordinaire. En outre, la partie basale de la couche D" montre de fortes incohérences entre ondes P et S, qui ne peuvent être d'origine purement thermique. Elles peuvent par contre témoigner d'hétérogénéités chimiques (présence de plusieurs types de matériaux). Cette couche fine fortement incohérente à la base de la couche D" pourrait être le produit 2 - Couche D", accumulateur de chaleur de l'interaction chimique entre le fer liquide du noyau et le manteau silicaté. L’interface noyau-manteau pourrait Les estimations du flux de chaleur à la frontière Noyau-Manteau sont très diverses, de 1.7 à 10 T.Watts. La 26 . La terminologie utilisée (couche D") est un héritage historique du début du XX° siècle qui découpait la Terre en couches A, B, C, D, E, F. Seule D" est toujours usitée par les géophysiciens. 27 Le manteau inférieur serait constitué de silicates (perovskite) et d'oxyde de magnésium (magnésio-wüstite, MgO), - 69 - ENSM-SE, 2° A : axe transverse P N valeur la plus faible était proposée par Stacey & Loper (1984) afin d'avoir un noyau qui ne se refroidit pas trop vite et ainsi obtenir une graine (supposée indispensable au fonctionnement du magnétisme terrestre) âgée au minimum de 4 Ga. L'interface noyau-manteau représente une couche limite entre la convection mantellique et la convection du noyau. La couche D" ne peut donc échanger de chaleur que par conduction, et elle doit être le siège d’un gradient de température élevé. Un tel gradient peut provoquer des instabilités d’autant plus variées que la couche D" présente de fortes hétérogénéités de conduction. Cette région du globe jouerait alors un rôle clef dans la stabilité de la dynamo terrestre, mais aussi dans la convection du manteau inférieur. En effet, les zones de mélange enrichi en fer, en constituant de véritables accumulateurs de chaleur à la base du manteau, pourraient engendrer la montée de panaches de matière surchauffée (Fig. 8-9). S’ils sont constitués de matériau de la couche D" de tels panaches seront beaucoup plus denses que le manteau silicaté environnant et ne pourront pas s’élever considérablement. Ils rejoindront rapidement la couche D". On observe un autre indice de surchauffe à la base du manteau. Il s’agit de poches de 40 Km environ que l'on ne retrouve nulle part ailleurs dans le manteau, dans lesquelles les vitesses des ondes sismiques sont localement réduites d'au moins 10 %. Elles ne sont explicables actuellement qu’en invoquant une fusion locale et massive. Ces poches pourraient déclencher un panache mantellique, sorte de colonne de matériau surchauffé, qui amorcerait une traversée complète du manteau en quelques dizaines de millions d'années seulement. Chaque panache viendrait nourrir un volcanisme ponctuel et fixe dans l’espace appelé volcanisme de point chaud28, pouvant 28 Ce volcanisme dit est aussi dit « intraplaque » parce que non situé sur les limites des plaques. Le foyer volcanique apparaît fixe dans le manteau. L’activité de ce foyer perce la plaque sus-jacente et y construit un édifice volcanique, qui sera transporté ensuite par la plaque en mouvement. Cela conduit à la fabrication d’une chaîne de volcans dont le seul actif se situe au bout de la chaîne comme dans le casde la chaîne Hawaïe. C’est la raison pour laquelle on a toujours cherché une origine profonde à ce volcanisme, indépendante de la tectonique des plaques. Cette hypothèse est confortée par la composition chimiques des laves de ce type de volcanisme, qui est riche en alcalins, en accord avec une origine à la fois profonde et obtenue par un un debut de fusion d’un manteau « initial » c'est-à-dire non appauvri par des fusions partielles antérieures. Mais ce paradigme vacille face à de nouvelles approches qui, depuis 2000-2001 avec Jillian Fouger, montrent que souvent la signature géochimique profonde de ces laves n’est corroborée en rien par des études sismiques mettant en évidence le plume de manteau chaud ascendant, ou bien encore que l’hétérogénéïté du manteau supérieur est telle que la composition alcaline des laves n’est plus le garant d’une origine profonde, ou bien enfin dans des condition de contraste RedOx entre le manteau et les fluides (e.g. S. F. Foley 2011, C. Gerbode et R. Dasgupta 2010…) qui le traversent capables d’engendrer une fusion partielle. L’oxydation d’un fluide (riche en CH4 ou H2) cause une augmentation de l’activité de l’eau (aH2O) par réaction avec 16/10/12 Fig. 9 : schéma de couplage noyau-manteau, la couche D" durer des dizaines de Millions d’années. Ce volcanisme est donc complètement indépendant des mouvements superficiels qui affectent la lithosphère terrestre. Il présente en outre des caractères chimiques très particuliers, facilement identifiables par rapport aux autres manifestations volcaniques. Par deux fois dans l’histoire de la Terre, des super-panaches ont donné un volcanisme d’une intensité considérablement supérieure au rythme habituel, produisant en quelques x100 000 ans un volume de lave énorme, de l'ordre du million de km3. Il s’agit des trapps de Sibérie, épanchés à la fin du Permien, et des trapps du Deccan en Indes, mis en place à la limite CrétacéTertiaire. Ces deux épisodes volcaniques suivent précisément les deux longues périodes de magnétisme sans inversion, suggérant fortement un fonctionnement conjoint du magnétisme dans le noyau, du transfert de chaleur du noyau dans le manteau et des panaches qui quittent la l’oxygène, ce qui a pour effet de faire chuter la température de fusion du manteau environnant (à l’image de ce qui se passé en subduction dans le prisme mantellique au dessus de la plaque subductée). On appelle cette fussion hydrous redox melting (HRM). Un second mode de fusion RedOx à partir du carbonate (CO3) a été décrit récemment Recently, a second redox melting mechanism (carbonate redox melting; CRM). Reste l’apparente fixité des points chauds alors que les plaques sur lesquelles ils se manifestent sont en mouvement. Certains auteurs comme XXXX arguent de la présence de zones de distension dans ces plaques, en relation ou pas avec la convection mantellique sous-jacente, car c’est bien la décompression qui induit la fusion partielle du manteau, asthénosphérique ou bien lithosphérique. - 70 - ENSM-SE, 2° A : axe transverse P N couche D". On tient peut-être là l’explication de certains phénomènes géologiques d'ampleur exceptionnelle comme les fameuses éruptions de komatiites, laves anormalement chaudes qui s'épanchèrent voici plusieurs milliards d'années, sur plusieurs millions de kilomètres carrés? 16/10/12 Tableau. 1, minéralogie de péridotites du manteau supérieur Composition Minéral (Mg,Fe)2SiO4 60 à 70% et monoclinique (Mg,Fe)2Si2O6 CaMgSi2O6; total 25 à 30% plagioclase ou spinelle ou grenat CaAl2Si3O8 MgO(Al2O3,Fe2O3,Cr2O3) Olivine 2 pyroxènes 1 phase Alumineuse C - Le Manteau Terrestre Orthorhombique i2 3 - les péridotites à grenat La théorie des plaques lithosphériques ne nous dit rien de la convection mantellique profonde. Les basaltes échantillonnés en surface peuvent contenir des fragments du manteau, dont ils sont issus par fusion partielle. Le manteau terrestre nous est aussi accessible directement le long de certaines failles transformantes océaniques à très fort rejet, comme la fracture de Vema dans l’atlantique, et de manière à peine moins directe dans les ophiolites. Ces dernières sont des pans entiers de dorsale ou de plancher océanique, qui sont venus s’échouer après un épisode tectonique majeur sur la bordure des continents. 1 - Minéralogie du manteau Quelle que soit leur origine, ces fragments nous renseignent directement sur la minéralogie du manteau supérieur, ou plus exactement de la partie supérieure (200 Km environ) du manteau supérieur (670 Km). Il s'agit de péridotites, roches de densité 3.3, constituées de silicates plus quelques oxydes, résumés dans le tableau 1. Les enclaves de manteau rapportées à la surface par les volcans montrent que dans les 200 premiers Km celui-ci est soumis à des changements de phases qui ne concernent que la phase alumineuse. On observe successivement : % Poids 5 à 10%. (Mg,Fe)3Al2Si3O12 au-delà de 60 Km. La conservation de la masse implique que dans ces transformations, la phase alumineuse n’est pas seule concernée, et ces transformations modifient les proportions des autres minéraux, olivine et pyroxènes, mais qui restent stables. A plus grande profondeur, la sismique nous enseigne que le manteau supérieur est encore le lieu de plusieurs changements de phases qui intéressent cette fois la phase minérale majeure du manteau, l'olivine (Fig. 10).Elle passe tout d'abord de la symétrie orthorhombique peu dense au système cubique plus dense. Cette structure de l'olivine est dite « spinelle » proche de celle du minéral spinelle, cubique lui aussi. Dans ces deux structures de l'olivine, orthorhombique et cubique, le Silicium occupe un site tétraédrique, où chaque atome de silicium est entouré par 4 oxygènes. Vers 670 Km, l'olivine Mg2SiO4 se transforme une seconde fois, en un mélange ultra dense de deux phases, de la pérovskite, silicate magnésien (Mg, Fe)SiO3, à Silicium en site octaédrique où chaque atome de silicium est entouré de 6 oxygènes au lieu de 4 (Fig. 10), et de la magnésio-wüstite (oxyde de Magnésium MgO et de fer FeO). Cette discontinuité à 670 km sépare très nettement le manteau en deux parties, Fig. 11 : discontinuités du manteau 1 - les péridotites à plagioclase dans les 30 premiers Km; 2 - les péridotites à spinelle entre 30 et 60 Km; Fig. 10 : structure pérovskite (d'après Hazen): Unité de base, le cube est formé d'un gros cation métallique entouré de 8 cations métalliques de petite taille (sommets), et de 12 anions non métalliques, constituant un site octaédrique pour le petit cation - 71 - ENSM-SE, 2° A : axe transverse P N manteau supérieur et manteau inférieur. 16/10/12 Fig. 12 : diagramme P,T du manteau supérieur Le manteau inférieur commence avec la discontinuité à 670 km (Fig.11). Il apparaissait jusqu'à récemment comme très homogène, à l'instar de l'augmentation très lente de la densité et de la vitesse des ondes, qui atteignent respectivement, difficilement 6 pour la densité, et 6.6 km/s pour la vitesse des ondes S, au voisinage de la discontinuité de Gutenberg (Fig. 11). Il faut remarquer que les discontinuités qui marquent le manteau ne sont pas comparables à la discontinuité entre noyau et manteau où le saut de densité est supérieur au saut océan-lithosphère, et où le contraste des viscosités est sans doute « comparable » à celui de l'interface océan-lithosphère. 2 - Fusion partielle du manteau b - Le manteau : 2 paramètres externes, P & T, et La fusion partielle du Manteau a - Le manteau en quelques paramètres intensifs On sait ainsi que le Manteau supérieur est un solide, nommé péridotite, constitué de 4 phases solides majeures : Olivine ol Orthopyroxène opx Clinopyroxène cpx plus une phase alumineuse: Plagioclase plg Spinelle sp Grenat gt. Lorsque ces 4 phases sont présentes, la péridotite porte le nom de lherzolite. On sait aussi que la composition chimique du manteau supérieur reste à peu près constante, quelque soit l’assemblage des phases qui le constituent. Les principaux constituants chimiques du manteau sont des oxydes, SiO2, MgO, FeO, CaO et Al2O3, qui entre dans les phases solides, silicates et spinelle. H2O est aussi un constituant de système mantellique, mais son abondance très faible, de l’ordre de 0.1%, justifie que l’on néglige ici les phases minérales hydratées (contenant des groupements OH, e.g. phlogopite). Les trois phases minérales non alumineuses seront toujours présentes, mais leurs abondances relatives varieront avec la profondeur, en relation avec la phase alumineuse présente. Ainsi: 1) lorsque 1 mole de plagioclase disparaît au profit d’1 mole de spinelle créé on a: 2 SiO2 1 Al2O3 1CaO libérés 1 Al2O3 1 MgO consommés Le bilan apparaît donc équilibré en Al2O3, et le MgO provient de la transformation d’une olivine en pyroxènes, et l’on doit écrire la relation suivante 1 Plg + 2Ol = 1 Sp + 1 Cpx + 1 Opx; (1) 2) lorsque le spinelle disparaît au profit du grenat on a: 1 Al2O3 1 MgO libérés 3 SiO2 1 Al2O3 3 MgO consommés Le bilan apparaît donc encore équilibré en Al2O3, etSiO2 et MgO proviennent cette fois de l’orthopyroxène, et l’on doit écrire la relation suivante 1 Sp + 2 Opx = 1 Gt + 1 Ol (2) Les changements de phases décrits précédemment par relations (1) et (2), ont un ∆V <0 de la gauche vers la droite. Ils expriment la réponse du solide mantellique à l’augmentation de pression avec la profondeur. Par ailleurs, en dehors de l'eau qui est un corps aux propriétés physiques éminemment particulières, le passage de l'état solide à l'état liquide des matériaux terrestres se fait à ∆V croissant (La pression "favorise" le solide). Dans un champ P, T, le liquidas et le solidus anhydres du Manteau terrestre, connus expérimentalement, ont donc une pente positive. Le choix du solidus anhydre est justifié par la très faible quantité d’eau contenue dans le manteau. On appelle géotherme la relation température profondeur(courbe P. T.). Si celle-ci était linéaire, c’est à dire si l'augmentation de température avec la profondeur était constante, et restait égale à la variation mesurée au voisinage de la surface terrestre29, le point de fusion du manteau serait très rapidement dépassé. Le manteau serait entièrement fondu au delà de 100 Km, et la température au cœur de la planète serait incompatible avec l’état physique qui est le sien. En outre, la propagation des ondes sismiques dans le manteau impose que celui-ci soit solide. Il faut donc nécessairement que le géotherme terrestre soit courbé pour ne pas recouper le solidus du manteau (Fig. 12). La courbure du géotherme résulte de 2 phénomènes: 1 - en premier lieu, la lithosphère terrestre rigide (croûte + sommet du manteau) ne transfert la chaleur que par conduction30, alors que le manteau plus profond est un solide “fluide” qui transporte la chaleur aussi par convection; le gradient de température, fort dans la lithosphère, s’affaiblit donc rapidement en entrant dans le manteau convectif ; 2 - en second lieu, l'essentiel de la chaleur terrestre est produite par Radio Activité, et ce de façon hétérogène; 29 de l’ordre de 30°/Km en moyenne et pouvant dépasser 100°/Km dans les rifts. 30 exception faite du transport de chaleur par advection dans les zones de rift et de subduction (chapitre 1 et § suivants). - 72 - ENSM-SE, 2° A : axe transverse P N la majeure partie des éléments à vie longue, U, Th, K sont concentrés dans la croûte terrestre ce qui ne peut que renforcer la courbure du gradient thermique. Depuis 4.5 Ga., les volcans terrestres déversent à la surface des dizaines de km3 de lave / an. Si ce liquide est extrait du manteau par fusion partielle, on voit mal dans ce qui précède comment le solide mantellique peut être capable de produire des liquides magmatiques! Produire du liquide impose donc une alternative : 1 - soit déplacer le géotherme terrestre jusqu'à recouper le solidus du manteau ; 2 - soit déplacer le solidus du manteau jusqu'à atteindre le géotherme.... Comment pouvons nous agir sur les paramètres de système pour faire se recouper solidus et géotherme? 1 - Déplacer le géotherme signifie augmenter la T° à une pression donnée, donc disposer de plus de chaleur que ce dont le solide à l'équilibre dispose normalement. Ce déséquilibre doit apparaître grâce au comportement de fluide convectif du manteau à l'échelle géologique, dont la dérive des continents est la manifestation en surface. Si la vitesse de convection est suffisamment lente, le solide ascendant mantellique dans une cellule convective aura le temps "d’ajuster" son état aux conditions environnantes, mais si la vitesse de convection est suffisante pour que la diffusion de la chaleur avec l'environnement ne soit pas complète, on se rapproche des conditions d'une détente adiabatique (sans échange de chaleur). Si une parcelle de manteau s’élève dans les conditions considérées, elle sera alors anormalement chaude et tendra à remonter vers la surface, et cela d’autant plus vite que la différence de densité avec le manteau environnant sera grande. Le géotherme se trouve alors déplacé vers les hautes températures. La fusion commencera lorsque la parcelle de Manteau arrivera à une profondeur suffisamment faible, et elle sera d’autant plus intense que l’intersection du géotherme et du solidus sera importante. La décompression adiabatique caractérise les ascendants mantelliques (au droit des rides océaniques par exemple) qui constituent des lieux majeurs de production de magma. Nous y reviendrons dans la description de la lithosphère océanique. Fig. 13 : Tomographie sismique du manteau supérieur 16/10/12 2 - Déplacer le solidus jusqu’à recouper le géotherme impose de modifier au moins 1 des paramètres intensifs qui décrivent le système mantellique. Le constituant H2O est le paramètre influent essentiel, même si sa concentration dans le système est basse. En effet, la pression partielle d'H2O peut modifier très fortement la position du solidus. On remarque sur la figure 12 la morphologie du solidus humide, très incurvé vers les basses pressions (flèche 2). Mais pour ce faire, il faut pouvoir justifier une introduction d'eau dans le système. Inversement, si l'on y parvient, la fusion partielle est assurée. Nous y reviendrons dans la description de la lithosphère plongeante. La géochimie affirme reconnaître deux réservoirs parents distincts dans les produits du volcanisme: 1 - Le premier correspond aux basaltes d'origine profonde. Ceux-ci montrent des rapports isotopiques proches de ceux des chondrites (que l'on considère comme un matériel non différencié n'ayant subi aucune ségrégation). Le manteau profond qui donne naissance à ce type de basaltes n'aurait donc pas subi d'autre fractionnement que celui qui a séparé le noyau du manteau lors de la constitution du globe. Son caractère primitif n'aurait pas été considérablement modifié depuis. Des études récentes des rapports isotopiques de l'hélium, élément volatil et donc prompt à se séparer du manteau pour rejoindre l’atmosphère31 montrent aussi que le rapport 3He/4He est anormalement élevé dans ces roches volcaniques d'origine profonde. Ce rapport apparaît proche de ce qu’il devait être au début de l’histoire de la Terre et il n’aurait que très peu évolué lui aussi depuis plusieurs Ga. Inversement certains caractères chimiques particuliers de ce volcanisme, qui par exemple s’apparentent à un mélange avec des matériaux sédimentaires, supposent que ce réservoir n'est pas complètement isolé de la surface. 2 - Le second type correspond aux basaltes d'origine mantellique plus superficielle. Leur composition élémentaire et leurs rapports isotopiques sont très différents des premiers et suggèrent que le manteau superficiel dont ils sont issus a subi une histoire beaucoup plus mouvementée, passant en particulier par le fractionnement de la croûte continentale. De densité considérablement plus faible que celle du manteau supérieur, elle est donc très peu recyclée depuis sa fabrication. Si l'on considère que la croûte terrestre est le produit de la différenciation chimique du manteau, la partie du manteau qui a donné naissance à la croûte doit être corrélativement appauvrie en éléments qui sont préférentiellement incorporés dans la croûte. Cette soustraction a sans doute marqué à jamais la composition du manteau supérieur. Une telle dichotomie des produits volcaniques tend naturellement à laisser imaginer que ces deux réservoirs, si différents, ont vécu indépendamment. Dans ces conditions, la discontinuité à 670 Km paraît se comporter comme une 31 et ce d’autant plus qu’il s’agit d’un isotope léger (cf. § VI). - 73 - ENSM-SE, 2° A : axe transverse P N couche limite diffusive, séparant ces deux réservoirs qui doivent donc nécessairement convecter séparément, au moins en première approximation. 3 - La tomographie sismique du manteau supérieur La tomographie sismique est probablement le moyen d'investigation du manteau le plus puissant dont nous disposons de nos jours. Il s'agit d'une méthode d'analyse des données sismiques enregistrées par un réseau serré de sismographes. Nous avons vu au paragraphe “ sismique ” que l'inversion consiste ici à fabriquer un modèle de Terre sphéro-concentrique radialement homogène, dont nombre de paramètres ne sont pas directement mesurables (profondeur des discontinuités, T°, P, K, µ, ρ...), mais pour lesquels les valeurs attribuées satisfont au mieux les données mesurées en surface (temps de trajet des ondes en particulier). La tomographie donne, après inversion, une image du manteau à une profondeur donnée en mettant en évidence des variations latérales des vitesses de transmission des ondes sismiques à la profondeur considérée, par rapport à la moyenne prévue par le modèle. Elle met ainsi en évidence dans le manteau supérieur profond (Fig. 13) des zones plus rapides (en bleue) et des zones plus lentes (en rouge) qui sont attribuées à des écarts de T° caractérisant des mouvements convectifs évidemment transverses sur les discontinuités liées aux changements de phases préalablement évoquées. Fig.14 : Tomographie sismique du manteau supérieur, représentation 3D des zones chaudes (rapides dv/v <0) en rouge, sous les rides océaniques principalement 16/10/12 a - Zones d’accrétion Les cartes des vitesses à profondeur croissante de la figure 13 montrent une très bonne corrélation entre la position des régions lentes et chaudes en profondeur (rouge foncé) et la présence des dorsales océaniques en surface, qui sont les zones où les plaques lithosphériques sont fabriquées en continu à partir du manteau, par accrétion de lithosphère. La zone chaude correspondant à la ride Est et Sud Pacifique reste marquée jusqu'à 600 Km de profondeur. On peut donc dire que sous les dorsales océaniques qui fonctionnent depuis longtemps avec une vitesse d'expansion élevée (10 à 20 cm/an) comme la ride circum-Pacifique ou Est-Pacifique, le domaine chaud semble s'étendre jusqu'à la discontinuité de 670 Km (manteau supérieur - manteau inférieur) mais pas au-delà. Une dorsale ancienne mais lente comme la dorsale Atlantique paraît correspondre à une “ déchirure ” au moins localement moins profonde dans le manteau (Fig. 13-14). Les petites ouvertures récentes, comme la mer du Japon, correspondent à une anomalie thermique peu ou pas marquée en profondeur. b - Zones de subduction Les cartes de la figure 13 montrent que les régions rapides et froides du manteau correspondent, en surface, en premier lieu aux masses continentales, et en second lieu à la zone centrale de la plaque Pacifique. On remarquera que la zone froide centrée sur la plaque Pacifique perd progressivement son identité en descendant. Seules les zones de subduction présentent des racines froides profondes. Certes le réchauffement des plaques subductées lors de l'enfouissement efface progressivement le contraste de densité avec le manteau environnant, mais leur signature sismique a pu être mise en évidence malgré tout jusqu'à la transition à 670 Km(Fig. 15). Si les rides sont le lieu d'âge zéro de la lithosphère, les fosses (zones de subduction) ne constituent pas un lieu isochrone. Le lieu de plongement d'une plaque résulte en effet d'un ensemble de paramètres qui n’ont rien à voir avec l’âge de la plaque en ce lieu, mais bien plutôt avec la nature et la géométrie des plaques en contact avec elle : Fig.15 : Tomographie sismique du manteau supérieur, représentation 3D des zones froides (lentes) en bleu, localisées à faible profondeur sous les continents, et à grande profondeur en périphérie de l’océan pacifique (zones de subduction) 1 - Leur nature intervient en effet car il existe un seuil de densité en dessous duquel les matériaux sont trop légers pour suivre une branche convective descendante dans le manteau. Ainsi, les continents (densité moyenne 2.7) ne peuvent être que très partiellement recyclés, nous en reparlerons. Leur présence impose alors à une plaque voisine de plonger à leur contact. 2 - La distribution (géométrie) des masses non recyclables joue aussi un rôle prépondérant, car la Terre est une surface fermée; tout mouvement en un point a donc des incidences ailleurs. On l'oublie trop souvent à regarder des projections planes. Une coupe à travers une zone de subduction, comme par exemple le NE de l’arc volcanique du Japon (Fig. 16) montre que les foyers des séismes (petits ronds) sont répartis sur trois régions: 1 - Du côté de la fosse océanique, les séismes sont localisés à la partie moyenne et supérieure de la région - 74 - ENSM-SE, 2° A : axe transverse P N Fig. 16 : coupe EW à travers l'arc du Japon 16/10/12 sur la zone de transition à 670 Km. En 1994, Kawakatsu et Niu ont reconnu une nouvelle discontinuité dans le manteau inférieur, à 920 km sous la zone de subduction de Tonga. Cette discontinuité a été observée depuis sous deux autres zones de subduction (Japon-Izu Bonin, et Indonésie) à une profondeur variant de 920 à 1080 Km. Le contraste d’impédance acoustique que révèlent ces discontinuités est lui aussi très variable. Trois hypothèses sont envisageables pour caractériser cette discontinuité : 1) un nouveau changement de phase ; 2) une hétérogénéité chimique dans le manteau inférieur ; 3) plus probablement cette discontinuité correspond à la base de la plaque subductée, stockée à une profondeur pouvant atteindre ainsi 800 à 1000 km. froide (en bleu sombre) identifiée comme l’extrados de la plaque Pacifique plongeant sous le Japon. Cette trace sismique est appelée plan de Benioff. Il est à noter que le coin de manteau situé au-dessus de la plaque plongeante est constitué de deux régions : le 4 - La tomographie sismique du manteau inférieur manteau en contact avec la plaque plongeante est refroidi par celle-ci ; cette région est surmontée par Nous avons déjà mis en évidence le caractère une région chaude (jaune à rouge) en relation étroite hétérogène de la couche D" à la base du manteau (frontière avec le volcanisme en surface. noyau-manteau) et, en corollaire, l’existence d’anomalies 2 - En sub-surface sous le Japon, les séismes en grand thermiques liées au mode de transfert de la chaleur du noyau nombre témoignent de l'activité volcanique dans la vers le manteau. Les cartes tomographiques obtenues ces croûte continentale de l'arc. dernières années pour diverses profondeurs dans le manteau 3 - Du côté de la mer du Japon, on observe beaucoup de inférieur (e.g. Michael Gurnis et al, 2000, Fig. 18) nous foyers sismiques peu profonds. Ceux-ci sont montrent que le contraste de densité définit deux zones provoqués par la mise en place plus à l’ouest de petites chaudes équatoriales au voisinage du noyau. Ce contraste cellules de convection dans le coin mantellique situé tend à s’effacer dans la partie médiane du manteau. On entre la plaque plongeante et la lithosphère (Japon + remarque en effet qu'à cette profondeur deux « tuyaux » mer du Japon). Cette “ mini ” convection provoque beaucoup plus étroits (en rouge) correspondent aux deux dans cette lithosphère une distension très comparable à zones chaudes de la couche D". On remarque sur la figure celle que l'on observe au droit des dorsales océaniques que le tuyau mantellique africain se situe à l'aplomb du majeures. On appelle ces régions d'ouvertures plateau sud-africain. Ce haut plateau est anormalement élevé océaniques mineures des bassins arrière-arc. Ces pour un vieux craton complètement érodé (environ 1000zones chaudes du manteau sous les petites mers 1200m au lieu de 300-400m en moyenne). Pour Michael arrière-arc disparaissent rapidement en profondeur Gurnis et son équipe, la dilatation provoquée par le matériel dans le manteau. mantellique chaud serait à l’origine de soulèvements Le comportement du plan de Benioff est différent d'une zone régionaux de grande ampleur. Ainsi la topographie de la de subduction à une autre. Son angle de plongement varie planète serait largement marquée par la convection considérablement (Fig. 17). Les zones de Benioff plongeant mantellique profonde. Le second conduit surchauffé, situé vers l’E-NE sont à faible pendage et supportent des chaînes sous le Pacifique, correspondrait aux panaches équatoriaux percent en orogéniques à double vergence alors que celles plongeant qui Fig. 18 : cartes tomographiques du vers l’Ouest sont à forte pente et les chaînes associées sont à surface le plancher (e.g. manteau inférieur simple vergence. C. Doglioni 1999 voit dans cette océanique différence un mouvement relatif d'est en ouest du manteau volcanisme profond par rapport à celui des plaques lithosphériques, d’Hawaï). provoqué par la rotation terrestre. Le plus souvent, la plaque subductée vient s’étaler Fig. 17 : 2 types de zones de - 75 - subduction ENSM-SE, 2° A : axe transverse P N Dans les interprétations construites à partir de l’ensemble des données (Fig. 19), les auteurs montrent sur les coupes B et C que le matériel chaud qui remonte ne dépasse pas la discontinuité à 670 Km. Par contre, dans la coupe A, le panache chaud semble en connexion avec le manteau supérieur chaud et très étiré vers le nord-est. C’est ce manteau supérieur qui alimente à son tour le volcanisme Est-Africain. 16/10/12 Fig 20 : a)Modèle Terra-Dynamo ; Les hétérogénéités de transfert de chaleur à la surface du noyau paraissent guider la convection dans le manteau, modèle à une couche. A la surface terrestre, les zones froides apparaissent beaucoup moins diffuses (réseau linéaire ou curvilinéaire bleu) que les zones plus chaudes en vert à l’aplomb des panaches rouges dans le manteau. Il apparaît ainsi que la discontinuité à 670 Km est probablement franchie, au moins partiellement ou de manière intermittente, par les panaches ascendants du manteau inférieur, et qu’elle est aussi probablement franchie par du matériel froid et dense stocké au fond du manteau supérieur. Faut-il alors envisager que la convection mantellique est à un seul étage ? b) Modèle isovisqueux c) Modèle à viscosité croissante 5 - Vers une convection à 1 ou 2 couches ? Pour les géochimistes, la question est en effet encore largement d’actualité. Nous avons vu que la dichotomie de composition chimique entre volcanisme d’origine profonde et volcanisme d’origine plus superficielle paraît nécessiter une séparation ancienne (plusieurs Ga.) en deux réservoirs mantelliques distincts, l'un supérieur et l'autre inférieur. La discontinuité à 670 Km agissant alors comme une couche limite diffusive, ces deux réservoirs devraient alors nécessairement convecter séparément. Pour les géophysiciens, cette séparation n’est pas évidente et les opinions sont encore tranchées. Certains, comme Glatzmaier et Roberts, estiment que les modèles à une seule couche de convection, comme Terra-Dynamo (Fig. 20a), « collent » mieux aux données sismiques que les modèles à deux couches. Deux observations clefs doivent être conservées en mémoire : 1- Nous avons vu que la forme du géoïde est dominée par des structures de grande longueur d’onde, 10 000 à 20 000 kms, qui sont considérablement plus grandes que la hauteur possible des cellules convectives du manteau (moins de 3000 km maximum pour un manteau à une couche) ; 2- Les hétérogénéités de vitesses sismiques mesurées dans le manteau sont Fig. 19 : coupes tomographiques elles aussi de grande du manteau inférieur longueur d’onde Ces deux faits sont en contradiction avec les résultats des modèles de manteau iso visqueux, qui montrent des cellules convectives aussi peu larges que hautes (Fig. 20b). Par contre les modèles de manteau à viscosité croissante (Fig. 20c) présentent des cellules étalées beaucoup plus conformes aux structures gravifiques et sismiques évoquées. En plus, les branches plongeantes des cellules acquièrent une morphologie en feuillets plus comparables aux plaques plongeantes que les panaches froids plongeants des modèles isovisqueux. Outre le chauffage interne du manteau par radioactivité et son chauffage basal hétérogène (et mal connu) par la couche D”, il existe de nombreux autres paramètres qui peuvent modifier la convection, rappelons le comportement cassant de la lithosphère continentale qui vient localement jouer le rôle de couvercle, la viscosité qui peut varier brutalement, les changements de phases qui accompagnent l’augmentation de pression avec la profondeur. Confortant ce point de vue, on a mis en évidence pour la première fois dans les années 90 dans l’Ouest Pacifique sous la fosse des Kouriles et sous le Japon, des zones froides dans le manteau inférieur qui paraissent relier zone de subduction dans le manteau supérieur et couche D". Les simulations, effectuées depuis les années (19971998) à partir des résultats de la tomographie viennent conforter cette hypothèse. La figure 21 montre par exemple l’iso-surface limitant le domaine des ondes P à vitesse 0.5% plus grande que la moyenne, pour tout le manteau (supérieur et inférieur) de la région allant du Japon à l’Est de la Chine. Cette surface iso-vitesse décrit la subduction de la plaque océanique Est-Pacifique au niveau des fosses des Kouriles, du Japon et de l’arc Izu-Bonin. Le modèle rend compte d’une part de l’accumulation de matériel subducté en une flaque plate située sur la zone de transition entre manteau supérieur et manteau inférieur, et d’autre part de la présence d’un pont étroit de matière froide dans Fig. 21 : Simulation tomographique le manteau inférieur du manteau Est Pacifique qui met en relation la discontinuité à 670 Km et une sorte de cône de déjection s’étalant sur la couche D", dénommé « cimetière » des - 76 - ENSM-SE, 2° A : axe transverse P N Fig. 22a : plaque subductée sous l’Ouest du lac Baïkal 16/10/12 Fig. 23a: convection à deux étages de Paul J. Tackley plaques enfouies. Récemment, une zone froide a été identifiée sous la Sibérie (Van Der Voo 1999 ; Fig. 22a) à l’Ouest du lac Baïkal jusqu’à 2500Km de profondeur. Elle est interprétée comme les restes d’une plaque océanique ancienne qui, dans la collision des blocs qui formèrent progressivement l’Eurasie, fut subductée en lieu et place du Lac Baïkal pendant 50 Ma. au moins à la fin du Jurassique (Fig. 22b). Cette découverte suggère donc que la trace des plaques subductées dans le manteau inférieur persisterait au moins durant 150 Ma., peut-être plus ? Ainsi donc, des exemples de plus en plus nombreux de plaques modernes et anciennes plongeant dans le manteau inférieur sont rapportés. Ces plaques vont rejoindre la couche D", qui apparaît d’une part, ainsi qu’on l’a montré plus avant, comme le parent des ascendants mantelliques profonds (les panaches), et d’autre part comme le cimetière des plaques océaniques subductées. Il est toutefois très probable que les descendants mantelliques ne franchissent pas aisément la discontinuité à 670 Km. Dans un article Récent paru dans Nature P. J. Tackley 2008 confirme que les modèles de convection sont toujours d’actualité (Fig. 23c) et suggèrent que les plaques relativement froides (en bleu) sont soit défléchies sur cette discontinuité (tireté). On observe en effet clairement que les plaques subductées n’offrent pas un contraste de densité suffisant avec leur manteau environnant (en tous cas les plaques à vitesse sismique lente) pour traverser la discontinuité. Elles viennent donc s’étaler à la profondeur de 700 Km. D’autres, au contraire traversent bien la discontinuité et sont renvoyées vers la CMB. Les morceaux accumulés dans ces cimetières bleus sont de l’ancienne lithosphère, donc un matériau issu de la fusion partielle du manteau. Or le produit de l’extraction des matériaux fusibles est enrichi en alcalins. Donc la CMB s’enrichit en matériaux Fig 22b : paléo-reconstructions de la Sibérie (SIB) et des blocks adjacents, a) au Jurassique Supérieur et b) au Crétacé Inférieur, montrant la subduction de l’océan Mongol-Okhotsk sous la marge Sibérienne. EUR, Europe; KAZ, Kazakhstan; MON, Mongolia; NCB and SCB, North and South China blocks; INC, Indochina; and SH, Shan-Thai block. lithosphériques donc certains sont des reliquats réfractaires pauvres en alcalins et d’autres sont au contraire très enrichis en alcalins. Ce matériel est figuré en rouge orangé dans la figure 23a. Il donne naissance à des panaches chauds et légers de matériel marqué par sa grande richesse en alcalins (mantle-plumes en rouge), qui vont remonter vers la surface et alimenter le volcanisme alcalin de point chaud. Leur trajet peut être direct jusqu’à la surface (plumes primaires), mais les panaches peuvent aussi être bloqués sous la discontinuité à 670 Km et alimenter des plumes secondaires. On sait que le contraste entre les deux réservoirs résulte principalement de la transformation de phase, olivine ↔. pérovskite + magnésio-wüstite. Aussi, dès 1994, on a cherché comment la transition de phase à 670 Km pourrait jouer un rôle de clapet intermittent. Les modélisations du transfert de chaleur dans le manteau prenant en compte cette transition de phase (Fig. 23b) ont alors montré qu’en fonction de la pente de l'équilibre des phases (pente de Clapeyron), on peut envisager plusieurs modes de distribution des isothermes (parties droites des sphères de la figure) et des cellules de convection (parties gauches). Entre les deux extrêmes que sont, a) la convection unique à travers les deux manteaux pour une pente nulle, et c) la convection à deux étages découplant complètement le manteau inférieur du manteau supérieur pour une pente très forte de l’ordre de – 4.106 Pa/°K, il peut exister b) des modes de convection à deux étages de cellules capables d'échanges intermittents, pour des valeurs de la pente de l’ordre de – 2.106 Pa/°K – 3.106 Pa/°K tout à fait comparables à celles qui ont été obtenues lors de travaux expérimentaux sur cette transformation de l’olivine en pérovskite D’après ces modèles, le manteau supérieur froid stagne et s’accumule sur la discontinuité, qu’il franchit spontanément lorsque l’accumulation est suffisante. Lorsque cette quantité critique est atteinte, il se produit une avalanche de ce manteau supérieur froid jusqu’au fond du manteau inférieur, et un nouveau cycle recommence. Pour les auteurs, la durée de ces cycles pourrait être comparable aux cycles de construction des super continents (Pangée(s)), de l’ordre de 400 à 500 Ma. En résumé : 1 - La trace froide de la plaque subductée peut être suivie jusqu'à 650-700 Km, zone de transition pérovskite, voir plus de 1000 km, ce qui suggère des complications dans cette transformation; 2 - L'angle de plongement de la plaque est souvent brutalement modifié à cette profondeur, témoignant ainsi de la « flottabilité » importante de cette plaque - 77 - ENSM-SE, 2° A : axe transverse P N 16/10/12 sur le manteau inférieur ; La zone de transition D - La valse à trois temps, l’Adéen, l’Archéen, et les constitue donc bien une couche limite (conductive et Temps Modernes donc à fort gradient thermique) ; 3 - Le déplacement de l'équilibre de phase initial, résultant de cette accumulation de matériau froid et dense pourrait permettre un changement de la pente de 1 - L’Adéen, une naissance tourmentée l’équilibre, déclenchant une avalanche de matériau Rappel : la grande majorité des astrophysiciens lithosphérique (plaque subductée) dans le manteau s’accorde à penser que durant sa prime jeunesse, la Terre, inférieur suivie d'un retour à la normale ; le rôle de datée de 4.55 Ga. par C. Pattierson en 1953, a grossi par couche limite de la zone de transition est donc transgressé au moins localement, et la convection accrétion à froid, selon un scénario d’évolution de la mantellique, certes à deux couches, admet des nébuleuse que nous emprunterons à D. Bockelée-Morvan et discontinuités de cette couche limite, dans le temps J. Crovisier (1993) et à A Brahic (1999). et/ou dans l’espace ; 4 - La couche D" constituerait le cimetière de ces plaques a - Scénario d’une accrétion à froid en subductées, matériau hétérogène mélange de manteau moins de 10 Ma ? lithosphérique appauvri et réfractaire, et de matériau crustal relativement enrichi en éléments alcalin et Résumons les 3 étapes développées au chapitre 2.D : hygromagmatophiles32 ; elle s’enrichirait en outre des produits de réaction entre la base du manteau et le 1 - Le stade nébuleuse aurait été initié à l’occasion de la noyau métallique liquide ; traversée d’un bras de notre galaxie (la Voie Lactée) 5 - Les hétérogénéités de la couche D", en agissant sur le par un nuage interstellaire. La compression qui en transfert de chaleur du noyau vers le manteau, résulte aurait provoqué la fragmentation du milieu en régiraient le fonctionnement de la dynamo terrestre et globules de Bok et l’effondrement de ces globules. la dynamique des panaches mantelliques profonds L’un d’entre eux était la nébuleuse ancêtre commun de générateurs d’épisodes volcaniques paroxysmiques ; notre Soleil et des planètes. 6 - Le transfert des panaches chauds du manteau inférieur 2 - Le stade proto-Soleil, passage de la nébuleuse à au manteau supérieur est complexe; une partie l’étoile, implique une concentration de la matière à seulement du matériel du panache est transférée vers le laquelle tout s’oppose : la température du gaz qui manteau supérieur; cette partie semble entraînée dans s’élève ; le champ magnétique qui s’intensifie ; la la convection mantellique supérieure (au moins dans le vitesse de rotation du nuage qui s’accélère. Les cas de l’Afrique). En surface, le volcanisme des points observations des pouponnières d’étoiles comme la chauds reste géographiquement fixe sur de longues nébuleuse d’Orion, et les modèles théoriques nous périodes alors que les plaques sont mobiles, dessinant montrent qu’à ce stade, l’étoile émet un jet de plasma ainsi par exemple les chaînes de volcans d'âge bipolaire représentant une perte importante de matière régulièrement croissant du Pacifique. Un tel schéma et de moment cinétique, ce qui rend l’effondrement suggère que la géométrie des cellules convectives du possible. Cet effondrement donne une étoile très manteau supérieur reste stable au moins pendant le lumineuse, et concentre rapidement la matière en un même laps de temps ; la géométrie de ces cellules est disque équatorial. Pour les objets suffisamment alors indépendante de celle des plaques sus-jacentes, massiques comme notre Soleil, l’effondrement sauf dans les branches descendantes qui, pour gravitaire s’arrête lorsque la pression est assez forte et certaines, coïncident nécessairement avec les zones de donc la température assez élevée pour permettre le subduction. démarrage de la fusion de l’hydrogène en Hélium (Ensuite, tant qu’il restera de l’hydrogène Fig. 23b : simulation de la convection dans le manteau; à consommer, l’état de notre Soleil sera a) modèle à une couche; b) modèle mixte; c) modèle à deux couches stationnaire). Mais l’étoile perd à ce moment de sa luminosité, et l’arrêt de l’effondrement se traduit donc aussi dans le gaz restant, par la chute de la température, et en cascade par la condensation de ce gaz en particules (grains). Près du Soleil se sont retrouvés condensés les composés réfractaires de Ca, Al, Mg, Ti, apparus les premiers en dessous de 2000°K. Ensuite, les silicates se sont condensés entre 1400 et 1000°K, puis les 32 On appelle élément hygromagmatophile tout élément qui, sulfures et les oxydes métalliques et, vers 300°K, est engagé ans un processus de fusion partielle du manteau ou apparue la glace d’eau. Enfin aux alentours de de la croûte, présente un coefficient de partage D entre le quelques x10°K sont apparus des grains méthane. solide et le liquide très faible : D<<1. Autrement dit, ces Dans ce disque en cours de refroidissement avait lieu élément présentent une grande affinité (comme les alcalins des réactions chimiques dont la nature diffère avec la dans la fusion du manteau) pour les liquides magmatiques. température, et donc aussi avec la distance au soleil. Donc lors de la cristallisation fractionnée les éléments Les compositions, minéralogique et chimique, du hygromagmatophiles se concentrent dans les derniers système solaire actuel sont le reflet de cette liquides. différenciation première, conséquence directe de la - 78 - ENSM-SE, 2° A : axe transverse P N variation de température dans le disque protoplanétaire. 3 - Le stade d’accrétion des planètes est décrit à travers les modèles théoriques comme un événement très bref, moins de 100 Ma. La condensation chimique que nous avons évoquée au stade B ne permet pas de dépasser une taille d’objet supérieure à quelques x.Cm. Sans instabilités gravitationnelles locales, nous en serions encore à ce stade, mais fort heureusement, celles-ci provoquent rapidement la constitution d’agglomérats de grains de x.100m, les planètésimaux (moins de 10 Ma. selon Lugmaier et Shukolyukov 1998). Les collisions entre planètésimaux fabriquent des embryons planétaires de x.100 Km à quelques x.1000 Km. Les collisions provoquent tantôt la fragmentation des corps, tantôt leur fusion. Ce sont elles qui ont finalement donné aux planètes internes au moins leur axe et leur période de rotation initiaux. C’est bien sous l’égide d’Ades, en cette époque “ infernale ” de l’Adéen que commence la vie de notre planète, qui atteint sa masse actuelle entre 4.51 et 4.45 Ga. (Halliday 2000), et voit se différencier son noyau en moins de 30Ma ! (Yin et al. et Klein et al. 2002). Le cas des planètes géantes gazeuses est probablement différent. Il paraît difficile d’obtenir des planètes de cette taille par accrétion, et certains imaginent dans un scénario complètement différent qu’elles résultent directement d’effondrements gravitaires précoces au sein du disque protoplanétaire. En outre, l’existence d’un très grand espace, plus de 500.106 Km sans planète entre Mars et Jupiter33 peut laisser à penser que Jupiter a été formée très tôt, et que sa très grande influence gravitaire aurait alors interdit la fabrication de corps importants dans cette région de l’espace, d’où une planète Mars très petite par rapport à la Terre, et une ceinture d’astéroïdes qui n’ont jamais réussi leur accrétion entre Mars et Jupiter. La localisation des objets les plus froids, les comètes, dans la ceinture de Kuiper et le nuage de Oort aux confins du système solaire fait de ces objets des planètésimaux qui ont échappé à l’attraction des planètes géantes en formation. En 1995, C. J. Allègre, G. Manhès et C. Göpel ont précisé ce scénario général. Partant de la datation précise des corps les moins différenciés (donc les plus proches des planètésimaux connus) les inclusions réfractaires de la chondrite CI de Allende, on donne pour âge du début de l’effondrement de la nébuleuse solaire une fourchette de temps très étroite, 4.568-4.565 Ma. Or certaines achondrites basaltiques qui sont des météorites différenciées et donc ne peuvent provenir que de corps rocheux ayant déjà subi une fusion partielle et une ségrégation, sont à peine plus jeunes, de 8 Ma. seulement ! Il faut alors imaginer que notre scénario de formation des embryons planétaires à partir des planètésimaux peut se dérouler en moins de 8 Ma., un laps de temps extrêmement court. Il aura fallu que l'augmentation de la pression et de la température34 du corps en cours d’accrétion aient été 33 alors que les 4 planètes internes sont confinées dans un rayon de 230.106 Km seulement. 16/10/12 suffisantes pour amener ces embryons planétaires jusqu’à l'état liquide (ou à son voisinage). b - Un vernis météoritique et cométaire tardif pour la Terre Par similitude, on peut certainement rapporter la différenciation dans la Terre du noyau métallique à cette période hautement dynamique de l’accrétion planétaire, en raison sans doute de la forte densité du fer, mais aussi de l’état possiblement entièrement liquide auquel cet épisode tumultueux avait amené la Terre. Observé à travers les informations de la géochimie du manteau, cet épisode de fractionnement majeur dans notre planète paraît avoir eu lieu avant la fin de la phase d’accrétion planétaire. En effet, lorsque l’on mesure (depuis les années 70) les rapports des abondances en métaux nobles à leur teneur en fer dans les roches du manteau, remontées par les volcans ou exhumées par la tectonique, on constate qu’elles sont plus proches des rapports chondritiques qu’elles ne devraient. Si la différenciation avait eu lieu strictement après la phase d’accrétion, l’affinité de ces métaux vis à vis du fer étant variable (c. à d. la similitude de comportement avec le fer), cela aurait dû engendrer une ségrégation différentielle de ces métaux dans le noyau en cours de différenciation ? Ainsi, les métaux à affinité forte (e.g. Ir) ont dû être entraînés avec le fer dans le noyau, et inversement les métaux à affinité plus faible (e.g. Pd) ont dû « enrichir » le manteau ? Reprenant les évaluations du fer manquant dans le manteau actuel du début de ce chapitre, les rapports mesurés de ces métaux au fer dans le manteau, et enfin les mêmes rapports dans les chondrites supposées représenter la composition de la Terre avant la différenciation, les géochimistes concluent à un enrichissement du manteau, post-différenciation, qui représente le mélange du manteau déjà différencié avec 0.5 à 1% de matériel chondritique. On appelle « vernis tardif » l’héritage géochimique de cette période « finale » du bombardement météoritique et cométaire postérieure à la différenciation du noyau terrestre. C’est à cette période que l’on rapporte le rôle essentiel joué par le bombardement météoritique dans la composition de l’océan. c - Mise en place du système solaire L’accrétion récente des planètes, encore plongées dans un disque de gaz et de poussières, est un processus relativement instable. La masse du « cocon » de poussière et de gaz restant en fin de phase d’accrétion des planètes — et qui va continuer à s’accréter principalement à l’étoile naissante — est suffisante pour entraîner un rapprochement des planètes géantes déjà partiellement formées vers la proximité même de l’étoile. Pour Aurélien Crida (Observatoire de la Côte d’Azur), sur les plus de 250 exo planètes connues de nos jours, on observe que la plupart sont ainsi des géantes qualifiées de « Jupiters chauds », c'est-à-dire formées loin de l’étoile et rapprochées ensuite par interaction avec le disque gazeux. En effet, Au moment de leur formation, les planètes ou les protoplanètes sont « immergés » le disque de gaz, et ils interagissent avec lui. Leur masse créée une onde spirale de densité (Fig. 24a) qui repousse le gaz, plus fortement vers l’extérieur de son orbite 34 Augmentation qui résulte à la fois de l'accroissement de taille et de la quantité d'énergie cinétique emmagasinée sous forme de chaleur lors des collisions. - 79 - ENSM-SE, 2° A : axe transverse P N Fig. 24a: Interactions Planète-Disque, : un objet massif perturbe le disque de gaz et crée une onde spirale de densité http://www.oca.eu/crida/index.html que la vers l’intérieur. En réaction la planète est poussée vers le Soleil. Ce processus, appelé migration planétaire, explique la formation de nombreuses planètes géantes extrasolaires, qui ne peuvent s’être formées sur leur orbite basse actuelle car il n’y avait pas assez de matière dans le disque de gaz à ce niveau. Elles sont nécessairement nées plus à l’extérieur avant de commencer leur migration, vidant le disque de gaz et la migration s'est arrêtée où on les observe. Les simulations récentes menées par l’auteur et A. Morbidelli et al suggèrent que cette étape n’a pas eu lieu dans le système solaire parce que Jupiter, la plus massique des deux géantes Jupiter et Saturne, est sur l’orbite la plus basse. Dans le cas inverse, Jupiter aurait poussé Saturne avec elle même dans une position beaucoup plus chaude. Que serait-il advenu des planètes rocheuses internes ? L’éjection du système de l’une ou plusieurs d’entre elles devient alors tout à fait probable. Le bombardement cométaire déjà évoqué pour la fin de l’accrétion terrestre a semble-t-il joué un rôle primordial dans le positionnement final des planètes. Selon le model proposé par ces auteurs (model de NICE, 2006, 2007), au départ, l’ensemble des 4 géantes est plus proche du Soleil et la ceinture de comètes de Kuiper est, elle aussi, beaucoup moins éloignée que de nos jours(Fig. 24b-a). De ce fait, les géantes captures nombre de comètes, qu’elles absorbent ou dévient vers l’intérieur du système ; seuls Jupiter et le Soleil ont une masse suffisante pour les renvoyer vers l’extérieur, voire en éjecter une partie hors du système. Chaque fois qu’une comète est catapultée vers le Soleil, la conservation du moment cinétique de la planète en cause lui impose un léger déplacement vers l’extérieur. Chaque comète expulsée 16/10/12 par Jupiter tend au contraire à la déplacer vers l’intérieur. Selon les auteurs, le déplacement des planètes les auraient conduites à se situer un temps (Fig. 24b-b) en résonance 2 :1 (Jupiter faisait alors 2 tours pendant que Saturne en faisant 1); cette résonance confère une excentricité croissante aux orbites des 2 planètes, perturbant ainsi celles de Neptune et d’Uranus. Initialement plus interne qu’Uranus, Neptune va ainsi dépasser Uranus et acquérir une excentricité temporairement maximale. C’est donc l’ensemble des interactions comètes-planètes durant la phase de nettoyage du disque stellaire qui aurait conféré aux orbites des planètes les caractéristiques qu’on leur connaît (Fig. 24b-c), et repoussé le reste de la ceinture de Kuiper de 15-30 UA à 3850 UA, alors que les planètes gazeuses passaient respectivement de 5.5 à 5.2 UA pour Jupiter, 8 à 9 UA pour Saturne, de 13 à 30 UA pour Neptune et de 16 à 19 UA pour Uranus. L’excentricité temporairement extrême acquise par Neptune au cours de cette période aurait déclenché une avalanche de 1016 tonnes de comètes, pour l’essentiel catapultées vers les planètes rocheuses et le Soleil. Une telle avalanche aurait duré de 30 à 100 Ma. et aurait aussi vidé partiellement la ceinture d’astéroïdes située entre Jupiter et Saturne. On retrouve la trace de cet épisode de bombardement d’astéroïdes sur la Lune ; grâce aux roches collectées par les missions Apollo, il est daté à 3.9 Ga., soit 700 Ma. après la formation de système Solaire. Ce bombardement cométaire et météorique est aussi observé sur Terre, dans la géochimie du manteau terrestre (vernis tardif, § D1b), mais aussi dans l’abondance de l’eau sur notre planète. d - Terre-Lune, le couple infernal Pour W. Hartmann et D. Davis (1975), reprenant une hypothèse émise par R. Daly en 1946, c’est encore durant l’Adéen que le couple Terre Lune a été créé vers 4.5 Ga. lors d’une capture violente d’un météore. Dans cette hypothèse, l’impact d’un météore de la taille de Mars sur la Terre serait à l’origine de ce couple. L’intérêt de cette théorie est de rendre mieux compte des contraintes géochimiques: leurs manteaux présentent des points de similitude troublant et des différences importantes. Les autres scenarii proposés à ce jour sont moins performants : 1 - Pour Georges Darwin (fils de Charles) la Lune était née de la fission de la Terre, arrachée au Pacifique en raison d’une rotation trop rapide. Trois objections peuvent être faites à cette théorie: l’orbite lunaire est inclinée de 5° sur le plan équatorial de la Terre; le moment cinétique du couple Terre Lune Fig. 24b : migration des planètes du système solaire selon le modèle de NICE n’est pas assez élevé http://www.futura-sciences.com pour expliquer une instabilité de rotation; d’où viennent les différences chimiques entre Terre et Lune ? - 80 - ENSM-SE, 2° A : axe transverse P N 2 - La capture douce de la Lune par la Terre : l’objection de l’orbite lunaire disparaît ; deux mécanismes sont possibles, soit une orbite initialement très rasante qui permet la dissipation de l’énergie cinétique en marées énormes et donc la capture de la Lune, soit l’existence préalable d’une première « Lune » autour de la Terre, permettant un échange de moment avec la Lune lors de sa capture et de l’éjection de la première « lune ». Mais nous n’avons aucune trace de cette première « lune », et quid des similitudes chimiques entre Terre et Lune. 3 - Les deux planètes, sœurs jumelles, auraient grandi simultanément. Mais formées dans le même environnement par un processus similaire, on comprend très mal les différences chimiques de leurs manteaux. Reste donc la capture violente d’un météore de la taille de Mars ! Pour qu’un scénario de ce type soit possible, les contraintes que cela impose à son orbite initiale suggèrent un objet d’une telle taille devait être déjà différencié au moment de l’impact, probablement en un noyau métallique et un manteau silicaté. Depuis une décennie, on envisage le scénario suivant (Fig. 25a) : 1 - à t=0 premier impact ; 2 - à t=12’ Les noyaux restent individualisés, mais les manteaux fusionnent ; 3 - à t=45’ Le météore déstructuré rebondit ; Il est alors constitué d’un mélange des manteaux des 2 corps et de son noyau; 4 - à t=1h20’ une fraction du noyau s’est réindividualisée et se prépare à retomber sur la protoTerre ; le reste est satellisé autour de la proto-Terre ; 5 - à t= 4h07’ deuxième impact ; le noyau du météore va s’intégrer au noyau terrestre et augmenter la masse volumique moyenne de celle-ci ; la Lune va renaître de l’accrétion des fragments restés en orbite. La nature ferreuse du noyau lunaire est encore largement discutée, il pourrait aussi être silicaté. 16/10/12 Fig. 25b : Un océan de magma aurait enveloppé la lune. 7 - Les continents lunaires (par opposition aux mers basaltiques plus récentes) paraissent constitués de matériaux silicatés alumineux riches en alcalins (Na, K, le feldspath). Globalement légers, ces continents de feldspath pourraient avoir été séparés par flottation, très tôt, à partir d’océans magmatiques (Fig. 25b). Un océan de magma aurait enveloppé la lune. Durant les 100 Ma. de sa cristallisation, les feldspaths, légers auraient constitué la croûte lunaire, les actuelles montagnes de la Lune. A l’opposé, olivine et pyroxènes seraient venus sédimenter au fond du réservoir, constituant progressivement le manteau lunaire. Sa fusion partielle ultérieure aurait donné les basaltes, constituant alors les mers lunaires, plus récentes et moins constellées d’impact .On imagine que ces océans ont pu être créés soit par la catastrophe soit en conjonction avec la séparation du noyau lunaire, qui permet la récupération d’énergie gravitationnelle. 8 - Lors de la phase d’accrétion des planètes, les objets plus petits ont été rassemblés à froid. Ils ne pouvaient être que peu ou pas différenciés, et contenaient donc une part non négligeable d'éléments volatils. Ceux-ci ont dû être incorporés en solution dans le manteau des planètes durant cette période. Mais la fin très chaude de cet épisode de l’histoire précoce des planètes telluriques fut très propice au dégazage du manteau. Au paragraphe “ histoire de l’atmosphère ” du chapitre V, on montrera, grâce à l'étude isotopique des gaz neutres, qu’en effet l’essentiel de l'atmosphère terrestre s’est différenciée du manteau très tôt, avant 4.4 Ga. et de façon brutale. Le reste des volatils dissous dans le manteau continue encore à rejoindre l’atmosphère, mais sur un tout autre rythme. 6 - A supposer qu’ils aient été solides au moment de l’impact, on imagine que 65% de l’ensemble des 2 corps aurait pu fondre. la proto-Lune perd dans cette aventure une grande partie de son noyau au profit de la Terre, mais elle perd aussi dans le cosmos de une partie de ses constituants volatils en raison la chaleur dégagée ; elle présente de ce fait une surabondance des constituants réfractaires par rapport à la Terre. Cette perte d’une partie de la masse initiale la plus légère est 2 – L’Archéen, une convection mantellique rapide et probablement reflétée dans la masse volumique des komatiites, chaleur oblige… moyenne un peu élevée du couple Terre-Lune (cf. introduction). Dès lors que la Terre fut différenciée en noyau, manteau et atmosphère, le gradient de pression dans le manteau est devenu Fig. 25a, scénario d’une collision en 5 clichés : le noyau du météore rebondit avec un mélange comparable à ce qu’il est des 2 manteaux. Le mélange reste sur orbite (future Lune), alors qu’une partie du noyau aujourd’hui. Par contre, le retombe sur Terre. géotherme était considérablement plus chaud. La température de la surface de la géosphère était celle son atmosphère de l’époque, c'est-à-dire une atmosphère t=0 t=12’ t=45’ t=1h20’ t=4h07’ Echelles des tailles et distances des corps non respectées vénusienne, dense et - 81 - ENSM-SE, 2° A : axe transverse P N 16/10/12 composée principalement de CO2 dont la température très qu’elle n’a dû démarrer significativement que vers 2.7 Ga. élevée par effet de serre pouvait atteindre 400 à 500°C au Jusque là la convection devait être la plus forte et le lieu des 13°C actuels. On peut penser que la vitesse de recyclage da la croûte dans le manteau devait être très circulation dans les cellules convectives précoces (vers 4.3 important. Néanmoins nous connaissons des morceaux de Ga.) dans ce manteau très fluide, permettait, sinon continents plus âgés (e.g. Isua, 3.8 Ga.), mais d’autant plus l’existence d’océans magmatiques comme il a pu en exister rares qu’ils sont plus anciens. sur la Lune, au moins l’extraction très active par fusion partielle et flottation des mêmes matériaux silicatés alumineux riches en alcalins, donnant des embryons de 3 - Le début des temps modernes vers 2 Ga. croûte continentale. 1 - En résumé, après une naissance tourmentée, commencée à l’Adéen par une agrégation froide et Mais les conditions de température en surface vont se achevée dans une débauche d’énergie, concentration rapprocher très vite de celles que nous connaissons du fer dans le noyau, tumulte des collisions de aujourd’hui, puisque l’on sait que la précipitation de météores, naissance du couple Terre-Lune, la Terre l’océan s’est produite vers 4.1 Ga. ; les sédiments marins inaugure avec le refroidissement de sa surface et la les plus anciens jamais trouvés (Isua au Groenland), datés de naissance de l’océan, un mode de fonctionnement 3.8 Ga., attestent de la précocité de l’océan terrestre. toujours d’actualité : extraction des matériaux Néanmoins, la radioactivité mantellique plus abondante à fusibles, par fusion mantellique partielle d’une part, cette époque imposait une température interne plus élevée, et par introduction d’eau dans le système mantellique et en outre une grande partie de l’énergie initiale était encore d’autre part. Même si les modes de fonctionnement disponible. Quel pouvait être l’état de ce manteau de l’Archéen vont évoluer dans le détail, tous les “archaïque” ? La géochimie des komatiites, roches ingrédients de la tectonique des plaques moderne volcaniques (sortes de basaltes très magnésiens) connues sont réunis, et l’extraction des matériaux crustaux à une exception près seulement dans des terrains très anciens peut démarrer. Avec la fin des komatiites, vers 1.7 (entre 3.5 à 1.7 Ga., Archéen), impose que le manteau dont Ga., on peut considérer que la période archéenne elles sont issues était à cette époque environ 200° plus chaud prend fin. Néanmoins, le dernier épisode que le manteau actuel. En effet ces roches, qui trouvent leur komatiitique connu, mis en place durant un origine dans la fusion partielle de ce manteau vers 250 Km volcanisme de point chaud classique il y a 90Ma de profondeur, témoignent d’un taux de fusion de 30% seulement, nous montre malgré tout que des environ. De nos jours la chaleur disponible à cette panaches profonds anormalement chauds peuvent profondeur ne permet pas de dépasser un taux de quelques peut-être encore venir heurter la lithosphère. % (en tous cas moins de 10%) et induit un volcanisme chimiquement bien différent. On atteint de nos jours les 30% de fusion du manteau à des profondeurs bien moindres, moins de 100 km, et la composition des laves qui en E - La croûte terrestre et la lithosphère, interaction résultent (basaltes des rides océaniques) est encore plus entre manteau et atmosphère éloignée de celle des komatiites. La température des éruptions de komatiites était de l’ordre de 1700°c contre Rappelons la distinction opérée entre croûte et 1200 pour les basaltes modernes, et la fluidité des laves était lithosphère : beaucoup plus grande. 1 - la croûte, océanique ou continentale est héritée du fractionnement du manteau. Elle est mécaniquement On en conclue que la tectonique des plaques que rigide et transporte la chaleur par conduction, mais nous connaissons devait être très différente à cette époque, aussi par advection grâce aux liquides qui y circulent. et que vers 2 Ga. la convection (et le mouvement des plaques) était encore certainement environ 10 fois plus 2 - la lithosphère comprend la croûte plus la partie rapide que les plaques d’aujourd’hui. Si la contribution de mécaniquement rigide du manteau sous-jacent. Ce ce type de volcanisme à la création de la croûte terrestre manteau lithosphérique est complexe puisqu’il a précoce, en particulier en domaine océanique, a souvent subi des extractions partielles ayant donné la probablement été essentielle à cette époque, elle a presque croûte sus-jacente. Il est en outre traversé (Fig. 26) totalement disparu de nos jours. Quant à l’extraction de la par des magmas en provenance du manteau croûte continentale, A PRIORI non recyclable, nous verrons asthénosphérique convectif situé en dessous ou de plumes plus profonds, qui vont alimenter des plutons crustaux ou le volcanisme à la surface de la Terre. A l’exception des magmas, le manteau lithosphérique et la croûte profonde ne transportent la chaleur du manteau convectif que par conduction. Fig. 26 : Advection magmatique au sein de la lithosphère 1 - Croûte et lithosphère continentale, une mémoire longue, mais effaçable http://faculty.weber.edu/bdattilo/parks/plume_cont.jpg Parce que le premier constituant (70% environ) de la croûte terrestre est océanique et perpétuellement recyclé dans le manteau (en moins de 200 Ma. actuellement), c’est la croûte continentale, constituée essentiellement de - 82 - ENSM-SE, 2° A : axe transverse P N matériaux légers théoriquement non recyclés dans le manteau qui va nous fournir les principales archives. Les fragments très anciens sont exceptionnels, d’une part parce ce que les premiers continents, partis de rien, ont vu leur taille s’accroître progressivement (fig. 27), et d’autre part parce que s’ils n’ont pas été recyclés dans le manteau, ils peuvent avoir été « réinitialisés » comme par exemple lors des collisions entre plaques continentales. Les ensembles rocheux les plus anciens connus, Isua et Acasta, sont de tous petits fragments, et leur âge ne dépasse pas 4.03 Ga. D’autres noyaux de croûte continentale ont donné des âges qui s'étendent entre 4.03 et 2.5 Ga., période appelée archéenne. Dans des roches légèrement plus jeunes, situées dans l’ouest Australien, des zircons (silicates de Zirconium) ont donné un âge de 4.2 Ga. Ils sont donc plus âgés que les roches qui les contiennent, ils sont « hérités ». Dans ces minéraux, le rapport Hf/Lu (Hafnium/Lutécium) est utilisé pour traduire le caractère continental (riche en Hf) ou au contraire mantellique (riche en Lu) de leur milieu d’origine. En effet, on sait que Hf présente une grande affinité chimique avec les éléments constitutifs de la croûte continentale, il est lithophile, alors qu’à l’inverse Lu n’est pas lithophile et donc tend à rester dans le manteau. Donc, dans les premiers âges de la Terre, tant que le processus de cristallisation fractionnée n’avait pas commencé le rapport Hf/Lu du matériau initial homogène est partout le même. Par contre avec le fractionnement de la croûte terrestre et la séparation en deux réservoirs distincts, manteau et croûte du matériel initial, le rapport Hf/Lu de l’un grimpe très vite (les petits bouts de croûte continentale formés) quand celui de l’autre décroît lentement (l’ensemble du manteau un peu modifié). Les zircons cristallisés dans l’un ou l’autre des deux réservoirs présenteront donc des rapports Hf/Lu très différents. Ensuite, ce caractère est quasiment inaltérable et ineffaçable. Les zircons étudiés en Australie par M. Harrison et J. Blichert-Toft ont ainsi été recyclés dans des roches plus récentes qu’eux, et ils témoignent de l’existence d’une croûte terrestre âgée de 4.2 Ga. au moins, soit à peine quelques 200 Ma. seulement après la fin de l’accrétion terrestre. Les premiers embryons de continents se seraient donc formés très tôt après la naissance de la Terre, estimée 16/10/12 quant à elle à 4,56 milliards d'années. Mais les rapports en Hf/Lu des zircons de cette époque sont irréguliers, chaotiques, suggérant de multiples débuts de fractionnements suivis de ré-homogénéisations locales et redifférenciations donnant ces premiers zircons conservés. Ce n’est qu’à partir de 3.8 Ga. environ que la tectonique des plaques que nous connaissons aujourd'hui semble se mettre en place. Le rapport Hf/Lu des zircons augmente alors graduellement, prouvant qu’une extraction généralisée, progressive et largement irréversible cette fois se met en place à partir du manteau. Le système paraît avoir trouvé son rythme et sa pérennité. Parallèlement, les premiers lambeaux de croûte peuvent être conservés (noyaux archéens). Ceux qui étaient apparus préalablement, dans un milieu très chaud, turbulent et violent, ont tous replongé dans le manteau ou ils ont été recyclés. Les premiers noyaux continentaux conservés se retrouvent au cœur des boucliers archéens (plages violacées de la figure 27) et occupent une surface bien inférieure à la surface actuelle des continents. En outre, leur répartition actuelle n'a évidemment rien à voir avec celle qu’ils occupaient à l’époque. Ils sont constitués par 3 grands ensembles de roches : 1 - les roches vertes (greenstone belts) qui forment des ceintures de laves constituées de komatiites (évoquées plus haut), de basaltes et d’andésites ; ces ensembles volcaniques présentent à la fois des caractères de roches de dorsale océanique et des caractères de roches des zones de subduction. 2 - les roches granito-gneissiques, qui proviennent de la transformation métamorphique de granites et rhyolites et/ou de schistes argileux ; 3 - les roches sédimentaires, qui témoignent de l'altération et de l'érosion par l'eau et/ou le vent d'anciens massifs rocheux dès cette période ; la roche sédimentaire la plus ancienne date de 3,8 Ga. (Isua, Groenland). Reprenant Pierre André Bourque de l’Université de Laval (Québec) nous dirons qu'il est fort probable que des mécanismes comme ceux qui sont associés à la tectonique des plaques de nos jours ont joué un rôle comparable dès cette époque: Fig. 27 : l’âge de la croûte continentale ; les ronds représentent les pointements connus de komatiites - 83 - ENSM-SE, 2° A : axe transverse P N Fig. 28 : 4 - fusion partielle du manteau produisant des laves de dorsale et de zone de subduction; 16/10/12 croissance des continents 5 - métamorphisme dans des zones de subduction pour produire les terrains granito-gneissiques; 6 - altération des premières roches formées, érosion et dépôt conduisant aux premières roches. Les estimations de volume de la croûte continentale constituée à cette époque reculée (Fig. 28) sont encore très controversées. Les informations sont fragmentaires, difficilement déchiffrables, et encore moins aisément interprétables en termes de reconstitution géotectonique. a - Des blocs ceinturés Si la période archéenne correspond à la formation des premiers noyaux continentaux à la surface de notre planète, la période suivante, le Protérozoïque, correspond à la croissance des masses continentales autour de ces témoins de l’époque Archéenne, qui se retrouvent ainsi souvent bordés de « ceintures » d’âge décroissant (Amériques Nord et Sud et Australie en particulier). Les terrains les plus récents notés 0-250 Ma. constituent deux types de ceintures orogéniques : l’une est coincée entre les blocs plus anciens Nord-Européen et Afrique-Arabie-Inde ; l’autre occupe une situation périPacifique tout à fait remarquable Dans le premier type, dénommé ceinture orogénique de collision, ce sont des pans entiers de la mémoire continentale qui sont un jour repris dans l’étau d’une collision continentale comme celle qui crée les Alpes ou l’Himalaya actuellement. Lors d’un tel processus, deux blocs continentaux s’affrontent et leurs bordures comprimées se déforment et se chevauchent. Dans les parties profondes de la croûte sur-épaissie par cette collision, le métamorphisme et la fusion partielle viennent alors effacer largement les traces de l’histoire continentale antérieure. Quant-aux parties superficielles de l’édifice montagneux, elles sont alors largement soumises à l’érosion, et la mémoire continentale s’émiette ici dans les rivières et les océans qui bordent la nouvelle chaîne. Dans le second type, dénommé ceinture orogénique de marge continentale active, les mêmes agents, métamorphisme et fusion partielle en profondeur, érosion en surface sont aussi en action. Dans les chaînes montagneuses qui surplombent des zones de subduction en bordure de continents (les marges actives des continents Nord- et SudAméricain par exemple) se fabriquent depuis 200 Ma. environ des chaînes de montagnes qui remodèlent ainsi les bordures préexistantes de ces continents (les Rocheuses et les Andes par exemple). Mais parallèlement, c’est aussi principalement dans ces zones de subduction que de la croûte continentale nouvelle est susceptible de se former encore de nos jours (cf. § lithosphère et subduction). Il faut toutefois noter que les études récentes et détaillées de ces régions (dans les Andes par exemple) suggèrent à l’inverse qu’une fraction non négligeable de la base des continents puisse être scalpée par la plaque plongeante et entraînée avec elle dans le manteau. Le bilan de matière n’est décidément pas facile à évaluer. La croissance des continents s'est faite surtout durant le Protérozoïque, entre 2.5 Ga. et 600 Ma., et l’on est à peu près certain que le volume des continents n'a finalement que peu varié durant les derniers 400 Ma. (Fig. 28). Cela signifie donc que les processus d’extraction des matériaux fusibles et légers du manteau terrestre sont maintenant globalement compensés par les processus d’introduction de ces mêmes matériaux dans le manteau. Il a souvent été observé que le Protérozoïque inférieur vient recouper des blocs archéens. On a tout d’abord pensé que les formations protérozoïques sont venues s'ajouter autour de ces noyaux archéens, mais on considère de nos jours que cet Archéen formait de grands noyaux qui ont été fragmentés en microcontinents déplacés par la tectonique des plaques. Les matériaux protérozoiques se sont donc déposés dans des océans entre ces microcontinents, puis le puzzle se serait à nouveau rassemblé, coinçant les matériaux protérozoiques dans de nouveaux continents plus grands. Vers 1.0 Ga. à 800 Ma., l’ensemble des continents de l’époque allait se trouver suffisamment rassemblés pour qu'on ose parler d'un méga continent, sorte de Pangée de l'époque, que l’on a appelé Rodinia , et l’océan mondial qui l’entourait, Mirovia. La valse des continents, leur rassemblement, leur déchirure et leur écartement ont donc certainement déjà l’allure qu’on leur connaît aujourd’hui. b - Une hétérogénéité horizontale verticale et Nous avons décrit la surface terrestre (croûte continentale en particulier) comme le résultat de l’extraction de matériaux à partir du manteau. Cette notion, qui d’ailleurs est valable aussi pour la croûte océanique, est basée sur un processus de fractionnement chimique qui enrichit l’un en appauvrissant l’autre. Mais la mécanique terrestre couple largement produits et producteurs et introduit une dichotomie rhéologique bien différente. Rappelons qu’elle oppose le manteau convectif (et particulièrement ductile dans la région de la LVZ, asthénosphère) à la couche limite conductive et rigide reconnue comme la lithosphère, indépendamment de tout caractère chimique. La partie sommitale du manteau, trop froide et donc rigide, appartient à la lithosphère dont elle constitue la base. Quant-aux produits de fractionnement du - 84 - ENSM-SE, 2° A : axe transverse P N manteau, croûte continentale et croûte océanique légères, ils constituent le sommet de la lithosphère. La lithosphère constitue, entre le manteau et l'atmosphère, un équivalent de la couche D" entre le noyau et le manteau, avec les points de similitude essentiels suivants: 16/10/12 Fig. 29 : fusion de l’asthénosphère par décompression adiabatique au droit d’une dorsale 1 - la lithosphère est une couche thermique limite (transport de la chaleur par conduction); 2 - la croûte montre une grande hétérogénéité horizontale (océanique, continentale, nature et âge dans les continents); 3 - la lithosphère reflète les interactions entre le manteau supérieur et l'atmosphère. Ajoutons à ces critères de similitude avec la couche D" les caractères propres à la lithosphère : 1 - la stratification verticale de la croûte océanique et la grande jeunesse du domaine océanique ; 2 - le déplacement relatif des pièces du puzzle (plaques lithosphériques) qui la constituent, mais s’agit-il bien là d’une spécificité de la lithosphère; 1: péridotite source solide minéraux cristallisés) 2: péridotite source en partie fondue e 2 – Croûte et lithosphère océanique Une mémoire courte de 200 Ma. De nos jours, c’est au droit des dorsales océaniques ou des rifts continentaux (grandes fractures qui séparent des blocs) que la croûte nouvelle est formée. Sous ces structures, du manteau supérieur en cours d'ascension subit une décompression adiabatique. On retrouve donc, à une profondeur donnée, du manteau « anormalement » chaud par rapport à son environnement. a - La lithosphère océanique est issue de la fusion du manteau dans les zones d'accrétion Le resserrement vers le haut des isothermes se traduit dans la figure 12 (§ 4.C.2.b) par un géotherme terrestre très décalé vers les hautes températures (flèche 1), que l’on retrouve en pointillé rouge dans la figure 29. Lors de la chute rapide de pression que subit le manteau (adiabatique donc sans perte de chaleur ou presque) il franchit son solidus (sec), ce qui provoque sa fusion partielle. Ce processus donne naissance à un liquide silicaté qui monte vers la surface et nourrit la croûte terrestre. La figure 12 montre les champs de stabilité du solide, péridotites à plagioclase ou à spinelle ou à grenat selon la profondeur. Au-delà du solidus débute le domaine de l'équilibre solide + liquide (Fig. 29). La pente négative du solidus sec signifie que la pression favorise l'état solide. La f b Néanmoins, la différence de densité qui oppose croûte continentale et croûte océanique conduit à un comportement radicalement différent dans le temps : Il nous faut maintenant aborder l’extraction des matériaux mantelliques qui fabriquent ainsi la lithosphère. 4: péridotite résiduelle issue de 2 d c a 1 - La mémoire continentale est effaçable, mais le matériau continental reste très largement piégé en surface ; 2 - La mémoire océanique est courte, et le matériau océanique retourne rapidement dans le manteau. 3: basalte issu de 2 minéraux a, b et cstructure holocristalline liquide magmatique entre cristaux Verre, microlithes et phénocristaux structure hémicristalline structure holocristalline http://svt.ac-dijon.fr/schemassvt/article.php3?id_article=187 composition chimique du liquide est différente de celle du manteau parent car, dans le manteau parent polyphasé (olivine, pyroxènes, et phase alumineuse cf. tableau 1), les minéraux les moins réfractaires sont ceux qui portent les alcalins et l’aluminium, clinopyroxènes plus grenat ou spinelle. A l’opposé, les plus réfractaires sont les silicates magnésiens, orthopyroxène et surtout olivine. Une fois le solidus franchi, le trajet du système dans le plan PT° se rapproche du liquidus, ce qui signifie que le taux de fusion augmente (zone rouge Fig. 29). Les 2 petits cartouches gauches de la figure 29 montrent ce phénomène, mais ne rendent pas en compte de la plus ou moins grande fusibilité des différentes espèces, et donc de la différence de composition entre le liquide formé et le résidu solide. Rapidement, tout le clinopyroxène et le grenat ou le spinelle de la lherzolite sont fondus ; la péridotite mantellique résiduelle n’est alors plus constituée que de minéraux réfractaires, l’orthopyroxène et l’olivine, on appelle cette péridotite une harzburgite. Inversement, le liquide formé dans cette fusion présente une composition chimique très marquée par celle des minéraux fondus préférentiellement (cf. Chp. 4.E.3.a). Si le ∆T° au dessus du solidus augmente encore, la fusion des minéraux réfractaires commence, en engageant prioritairement l’orthopyroxène dans ce liquide ; lorsque tout l’orthopyroxène a disparu, la péridotite est devenue monominérale, on la nomme dunite, elle est extrêmement magnésienne. Au liquidus, tout le solide étant fondu, la composition du magma serait identique à celle du manteau lherzolitique parent. Plus on déplace le géotherme vers les hautes températures et plus le début de la fusion commence profondément, et plus le trajet du système s’approche du liquidus. La composition très magnésienne des komatiites s’explique de cette manière, par une fusion profonde et un taux de fusion très élevé. C’est aussi ainsi que la croûte océanique actuelle prend naissance par fractionnement chimique à partir du manteau, mais à des taux de fusion et à une profondeur moindre qu’au premier jour de la Terre. - 85 - ENSM-SE, 2° A : axe transverse P N Fig. 30a : croûte océanique Au droit d’une dorsale océanique, les magmas arrivent presque en continu jusqu'à la surface en ligne directe du manteau sous-jacent anormalement chaud. Ils fabriquent la croûte océanique (Fig. 30a), constituée depuis la surface d’abord de basaltes en coussins (pillow lavas, Fig. 30b), puis d’une séquence de dykes d’alimentation (filons entrecoupés). En dessous on observe (Fig. 30a) les roches plutoniques de composition similaire aux laves, qui sont un ensemble de chambres magmatique initialement situées sous la ride. Ces chambres ont lentement cristallisé en gabbros de plus en plus évolués vers leur toit (cristallisation fractionnée, Chp. 3.E.3.a), tout en fractionnant des laves plus ou moins variées. Enfin la base de la série est constituée de péridotites mantelliques variées, lherzolites fertiles qui ont donné par fusion partielle des reliquats réfractaires, harzburgite et dunites. Ces péridotites peuvent être lardées de pos chromifères, résultant d’une lente ségrégation du chrome. Au droit de la ride on peut considérer que l'isotherme 1200°C qui constitue grossièrement la limite entre lithosphère et asthénosphère arrive pratiquement à l'affleurement. Il n'y a donc quasiment pas de lithosphère au niveau des dorsales. Seule la croûte est présente. La couche limite conductive est réduite ici à pratiquement rien, et une bonne part du transfert de la chaleur du manteau vers l’hydro-atmosphère se fait ici par advection, au niveau de la 16/10/12 dorsale. Le gradient thermique est très fort, et l’évacuation de la chaleur est largement facilitée dans la croûte solide par la mise en place d’une cellule convective aqueuse (Fig. 31a), qui constitue une seconde entorse au transfert de chaleur seulement conductif dans la couche limite. A 1000m de profondeur la T° d’ébullition de l’eau est de 310°C ; elle est de 370°C à 2000m et de 410°C à 3000m (http://www.divediscover.whoi.edu/vents/). En de nombreux évents, la température de l’eau dépasse la valeur du point critique 218 atm, 375°C. La mise en place de ce thermosiphon est rendue très aisée par le grand nombre de fractures ouvertes qui accompagne l’énorme distension à laquelle est soumise cette zone tiraillée entre les deux plaques. Cette circulation d’eau supercritique lessive la croûte et le manteau sous-jacent, l'hydrate en transformant par exemple la péridotite du manteau en serpentinite, lui échange du Sodium contre du Calcium, et lui emprunte du Soufre, du Fer, du Manganèse... Très riches en métaux et en soufre, les sources très chaudes précipitent brutalement au contact de l'eau de mer des sulfures et des oxydes ou hydroxydes qui opacifient l'eau, leur donnant leur nom de fumeurs noirs, et construisent des cheminées sur le fond de l'océan (cf. poly LDC). On a pu les observer au cœur des rides océaniques depuis une quinzaine d'années environ (Fig. 31b). Ils rejettent des quantités considérables d'eau dont la température peut atteindre ou dépasser 350°C. L’énergie disponible est utilisée par une chaîne alimentaire complexe depuis des archéobactéries extrêmophiles pouvant vivre à des T° allant jusqu’à 105°C et très mal à l’aise en dessous de 85°C., jusqu’à des organismes supérieurs, mollusques, crustacés parfaitement adaptés, en passant par les célèbres vers vestimentaires Riftia (cf. Poly LDC). L’enveloppe de l’anomalie de concentration en Fe et Fig. 30b : a droite et au centre, éruption sous-marine sous faible tranche d’eau ; la lave refroidie en surface (noire) par l’eau (noter l’ébullition) craque sous l’effet de la poussée de la lave chaude. La fente (rouge) sert alors de filière pour l’extrusion de nouveaux coussins noter les stries laissée par l’extrusion ; à faible profondeur le refroidissement brutal de la lave est souvent accompagné d’une explosion des gaz contenus ; à grande profondeur, sur les rides (à droite) la pression empêche cette expression des gaz. Fig. 31 : a) lessivage et hydratation de la croûte et du manteau au droit des dorsales; b) fumeur noirs; c) anomalie du rapport (Al+Fe+Mn)/Al., http://www.whoi.edu/oceanus/viewArticle.do?id=2400 http://earthsci.org/mineral/energy/geomin/geomin.htm a) b) c) - 86 - ENSM-SE, 2° A : axe transverse P N Fig.32 : panache enrichi en 3He Mn (Fig. 31c) dans l'océan montre clairement d'une part la coïncidence avec la ride Est pacifique (pointillé), et d'autre part l’influence des courants sur son étalement (flèches grises). Les mesures effectuées sur les isotopes de l’hélium (He) sont, elles aussi, très significatives (Fig. 32). Si l’isotope 4He est fabriqué par radioactivité (par irradiation du Be e du Li), 3He, lui, est formé par photodissociation à très haute altitude et il est alors rapidement perdu dans le cosmos car très léger, ou bien il est originel. En fait, l’Hélium est si léger que la Terre en perd toujours un peu dans le cosmos. Donc 3He de la haute atmosphère n'interfère pas avec l'hélium contenu dans la basse atmosphère ou l'océan. Or on constate que les sources qui jalonnent les rides océaniques contiennent une quantité anormalement élevée de 3He. Elles apportent la preuve que le manteau contient encore pas mal du gaz originel, et que le dégazage continue. En outre la taille importante du panache (Fig. 32, vue en coupe) montre encore l’importance de l’hydrothermalisme dans la chimie de l’océan. L'enrichissement en 3He hydrothermal est mesuré en comparant le rapport isotopique 3He / 4He de l'eau à celui de l'atmosphère. Les différences mesurées sont importantes et significatives, mais en toute rigueur, il devrait être tenu compte du fractionnement des isotopes de l'hélium au cours de l'évaporation. En s’éloignant de la ride, la plaque dérive, se refroidit, et les interactions océan-lithosphère deviennent rapidement négligeables. La croûte n’évolue plus que fort peu, elle épaissit progressivement par-dessus, avec les sédiments qui viennent la recouvrir lentement, mais elle reste peu épaisse (<10km). L’isotherme 1200°c plonge en s’éloignant de la ride et la lithosphère épaissit. Elle dépasse 16/10/12 ainsi rapidement l'épaisseur de la croûte, dont la nature détaillée n'est pas évoquée ici (cf. poly LDC), et incorpore progressivement la partie sommitale du manteau (accrétion de manteau devenu froid). Ce manteau est partiellement différent du manteau initial car si la croûte est enrichie en matériaux fusibles empruntés au manteau, la fraction du manteau qui l’a produite est en revanche rendue plus réfractaire. On est donc amené à conclure que la lithosphère (croûte + manteau) n'est pas globalement différente du manteau primaire sous-jacent, en tout cas en domaine océanique. Le refroidissement de la lithosphère avec la distance à la ride et donc avec le temps (Fig. 33) est parfaitement corroboré par le flux de chaleur mesuré (cf. carte Fig. 5 in Chp. 1.D2). La contraction qu’il implique mène inévitablement à une inversion de densité, la lithosphère devenant plus lourde que le manteau sous-jacent. C’est semble-t-il pour un âge de l'ordre de 150 à 200 Ma. que cette inversion devient patente. Elle est alors susceptible d'engendrer une branche descendante d'une cellule de convection ? En tous cas, aucun plancher océanique plus Fig. 33 : âge du plancher océanique croissant symétriquement avec la distance à la ride. 186 150 120 90 50 25 0 Ma http://www.ngdc.noaa.gov/mgg/fliers/96mgg04.html - 87 - ENSM-SE, 2° A : axe transverse P N vieux que 180 à 200Ma n’a jamais été échantillonné. b - La lithosphère plongeante provoque la fusion du manteau dans les zones de subduction et fabrique de la croûte continentale L’introduction d'eau dans le système mantellique caractérise toutes les régions qui, en surface, correspondent au plongement d’une plaque océanique, que ce soit au droit des guirlandes d'îles comme le Japon, ou au droit des “marges” continentale dites actives comme la cordillère des Andes. La tomographie sismique du manteau dans les zones de subduction (Fig. 16, § 4.C.3.b) montre qu'il existe un coin de manteau entre la croûte de l'arc et la plaque plongeante. Durant la descente, en se réchauffant et en se comprimant, la plaque libère l'eau d'hydratation qu'elle avait emmagasiné au voisinage de la dorsale, hier ou 180 millions d'années plus tôt, bien plus encore que pendant les millions d’années passées au fond de l’océan... C'est cette eau qui provoque la fusion partielle du manteau sus-jacent lorsqu'elle le traverse car, sous forte PH2O le manteau subit un abaissement important de sa courbe solidus (Fig. 12, § 4.C.2.b)). Rappelons que la morphologie du solidus humide est très incurvée vers les basses pressions (flèche 2 in fig. 12), recoupant largement les géothermes continentaux, ancien ou récent, et plus encore le géotherme océanique au niveau des dorsales. 16/10/12 Fig. 34 : Les sédiments marins de la plaque plongeante sont rapidement scalpés par la plaque sus-jacente et fortement tectonisés en grossissant le prisme d'accrétion. Une partie des sédiments restés solidaires sont sous-charriés avec la plaque plongeante sous le prisme ; ils peuvent ensuite venir s’accréter au prisme par sous placage ou au contraire être subductés avec la lithosphère dans le manteau. http://www.cnrs.fr/cw/dossiers/dosgeol/01_decouvrir/02_subduction/04_subdu ction_plaques/01_terrain/03a.htm la subduction de la plaque s'accompagne de frottements intenses qui arrachent des fragments au soubassement de la plaque supérieure. Ces fragments du soubassement seront enfouis avec la plaque dans le manteau, avec les quelques lambeaux de sédiments qui auront échappé à ce rabot et seront restés solidaires de la plaque. Ils retournent avec elle au manteau. Seule donc une infime partie des sédiments portés par la plaque ou des fragments arrachés à l'arc réussira à atteindre le manteau supérieur. Toutefois, cette petite fraction modifiera (faiblement mais significativement) sa composition chimique et celle de ses produits de fusion partielle. C'est à travers ce processus que l'on imagine la contamination de la couche D" que nous avons envisagé plus avant. L'analyse des roches volcaniques des zones de subduction ainsi que l'expérimentation montrent que les produits de la fusion mantellique hydratée sont très différents de ceux qu'engendre la fusion par décompression adiabatique du manteau quasi sec sous les dorsales. Au lieu de basaltes, qui contiennent 40 à 45% de SiO2, on obtient des andésites et des diorites, qui 3 - Le fractionnement magmatique contiennent 50 à 60% de SiO2. Deux types de diagrammes de phases suffisent à Le fractionnement des éléments lithophiles, légers illustrer clairement le fractionnement des magmas (Fig. 35), comme Si, Na, K ou lourds comme U, Th, est alors dans l’espace de la composition représentée par 2 maximum. Ces produits sont en outre de faible densité constituants A et B en fonction de la température T°. (d#2.8 au lieu de 3 pour les basaltes). Ils ne peuvent plus être recyclés dans le manteau et donnent naissance à de la a - Le processus de fractionnement (cf. croûte continentale, dont la composition chimique moyenne peut être assimilée à celle des diorites, roches intermédiaire TP Axe GP) entre les basaltes, liquides quasi indifférenciés, et les granites, qui constituent le terme le plus évolué de ce Aux hautes T° considérées, le système magmatique fractionnement. est généralement entièrement liquide (monophasé) quelque soit la concentration, et aux basses T° considérées, le La plaque subductée et déshydratée commence sa système est entièrement solide; il peut alors être polyphasé descente par le scalp de la majeure partie des sédiments qui si les constituants A et B représentent des corps purs non viennent s’ajouter au prisme d’accrétion de l’arc ou de la miscibles, ou monophasé si les corps représentés par A et B marge active (Fig. 34). Les sédiments, de densité très basse (1.8 à 2.2 environ) et de cohésion faible, qui s'étaient sont miscibles en toutes proportions (solutions solides). déposés sur la plaque au fond de l'océan quittent ici la plaque océanique qui les portait et viennent s'accréter à la plaque supérieure au niveau de la fosse. La plaque subductée continue sa descente et enfouit alors avec elle les stigmates chimiques de son contact avec l'atmosphère, mais une partie de l’eau contenant du CO2 et du CH4 est libérée. Cette eau circule au voisinage du plan de subduction pour venir alimenter une ligne de sources chaudes jalonnant le front accrétion au fond de la fosse (cf. Poly LDC). En outre Entre ces deux états, initial et final, ces diagrammes nous montrent les domaines des compositions possibles pour le liquide et pour le solide. Ces domaines sont limités chacun par une courbe, lieu des points où la composition est fixée par la température. Ces deux courbes sont : 1 - le liquidus, qui limite vers les basses températures le domaine des compositions possibles à l’état liquide; - 88 - ENSM-SE, 2° A : axe transverse P N Fig35 : Diagrammes de phases X vs. T° : a) corps purs A & B 16/10/12 b) solution solide complète A - B 2 - le solidus, qui limite vers les hautes températures le domaine des compositions possibles à l’état solide. Ces deux courbes sont toujours disjointes, sauf aux points d’abscisse A et B qui illustrent la cristallisation des corps purs représentés par A et B, et éventuellement en un point singulier de composition A/B défini, eutectique ou extremum. L’espace situé entre liquidus et solidus est donc un espace de composition impossible, tant pour le liquide que pour le solide. Imaginons un liquide L0 de composition initiale C0, à la température T0(Fig. 35). Si la température s’abaisse, le liquide L0 rencontre le liquidus à la température T1. Débute ici la cristallisation du solide, dont la composition Cs0 est définie par le solidus. La composition de l’ensemble du système étant inchangée (C0), et le solide formé ayant une composition (CsT) différente de celle du liquide initial (C0), la composition nouvelle du liquide (ClT) s’écrit : q.CsT + (1-q).ClT = Cte (ici C0 ), où q et 1-q sont respectivement les masses de solide et de liquide. La cristallisation du liquide ClT reprendra lorsque la température sera à nouveau descendue et recoupera le liquidus pour cette composition. La cristallisation d’un liquide peut donc être schématisée comme une suite d’incréments. Arrêtons-nous un instant sur la composition du solide formé à chaque incrément : 1 - Dans le cas des corps purs (A et B non miscibles, Fig. 35a), la composition du solide est fixe, soit A soit B ; La composition du liquide évolue avec la quantité de solide formé, jusqu’à avoir la composition de l’eutectique E. 2 - Dans le cas des solutions solides (Fig. 35b), la composition du solide total est à chaque instant (chaque T°) celle du solidus ; elle varie donc avec le degré de cristallisation (i.e. la température). La cristallisation à l’équilibre impose donc dans le cas des solutions solides que le solide total formé réagisse à chaque incrément avec le liquide, pour donner un nouveau solide. Le rééquilibrage de la concentration du solide magmatique est rarement complet dans les magmas, en raison des vitesses de diffusion des éléments dans le solide. La composition du dernier liquide Cf, dépassera alors largement la composition prévisible (celle qui correspond à la température Tfc L0. Les deux cas conduisent donc à une évolution de la composition de la fraction liquide magmatique au cours de la cristallisation. Dans le cas de la fusion du manteau par exemple, les minéraux les moins réfractaires (les premiers à fondre) seront différents en fonction de la profondeur (cf. Chp. 4.C.2). Mais qu’il s’agisse de spinelle ou de grenat, les deux sont riches en éléments alcalins et le liquide formé sera donc prioritairement enrichi en ces élément. Ensuite, le taux de fusion augmentant le volume de liquide formé augmente sans nouvel apport en alcalin. Il s’opère donc une dilution qui conduit vers des laves (basaltes) d’abord alcalines puis de moins en moins alcalines (tholéiites). Si pour une raison ou une autre il est opéré une séparation de tout ou partie de cette fraction liquide, on peut prélever toute une gamme de liquides de concentrations variées entre Ci et Cf , ou de mélanges liquide + solide en proportions variées. Ce processus intervient naturellement chaque fois qu’une fracture au toit de la chambre magmatique permet à une portion du magma de migrer, ou bien lorsque par accumulation du solide formé, il n’y a plus de contact entre l’essentiel du solide et le liquide restant. Cette évolution « en route » vers la surface (terme anglais), donne dans la croûte tout un ensemble de roches cogénétiques, plutoniques et/ou volcaniques b - Depuis quand le fractionnement de la croûte continentale à partir du manteau supérieur fonctionne-t-il? Si les processus terrestres sont capables d'opérer un fractionnement des isotopes des éléments très légers, les différences de masse entre les isotopes d'un même élément lourd, 87Sr et 86Sr par exemple, sont insuffisantes pour que les processus géologiques comme la fusion partielle ou la cristallisation les fractionnent. Mais une partie du 87Sr est d'origine radiogénique, elle provient de la désintégration du - 89 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Fig. 36: Evolution du rapport isotopique 87Sr / 86Sr ; a) dans la croûte continentale, b) dans le manteau a) b) Le point de départ de la droite d'évolution de la valeur moyenne terrestre, BABI (Basaltic Achondrite Best Initial) est la valeur initiale estimée de la Terre au temps T0 . La zone grisée balaye le champ possible de l'évolution, de 87Sr / 86Sr mininum à maximum. Attention aux changements d'échelle 87 Sr / 86Sr. Rb (87Rb → 87Sr β et le rapport 87Sr / 86Sr ne cesse d'augmenter avec le temps, depuis la formation du système Terre, partout où il y a du Rubidium. La première utilité d'une relation linéaire de ce type est bien sûr d'offrir un chronomètre. La radio chronologie exploite ainsi bon nombre d'autres transformations de ce type, telles que: 238 40 U→206Pb ; 235U→207Pb, 176Lu→176Hf ; K→40Ar, 40 40 138 138 138 138 K→ Ca ; La→ Ce, La→ Ba. composition comme le mélange d’un manteau déprimé avec une once de sédiment recyclé dans ce manteau par la subduction. Nous sommes là aux confins de la cuisine des géochimistes. EM II représente quant-à lui un manteau lithosphérique (i.e. un manteau mécaniquement solidaire de la croûte) très riche en éléments lithophiles (comme Rb), résultant probablement d'imprégnations par des liquides magmatiques en route vers la surface. Parmi ces paires radiogéniques certaines présentent des contrastes de propriétés chimiques entre père et fils que l'on utilisera pour tracer les processus géologiques dans le temps. Par exemple, la paire d'éléments 87Rb→87Sr (colonnes I et II du tableau périodique respectivement) est très sensible aux processus de fusion et de cristallisation; Rb a une affinité beaucoup plus forte que Sr pour le liquide ou les volatils. Si le Rubidium a une grande affinité pour les liquides magmatiques, la fusion mantellique appauvrit donc le manteau solide (Rb/Sr = 0.03 in Fig. 36a) au profit du liquide. Arrivé dans la lithosphère, ce liquide commence sa cristallisation. Celle-ci concentre encore le rubidium dans les derniers liquides, légers et à composition de granite, qui sont stockés dans la croûte continentale (Rb/Sr = 0.17 in Fig. 36a). On qualifie un tel élément d’hygromagmatophile ou de lithophile. Avec le temps, le rapport 87Sr / 86Sr de la croûte terrestre augmente donc inexorablement plus vite que celui du manteau (Fig. 36a) et de la moyenne terrestre. Inversement, celui du manteau voit sa croissance d'autant plus ralentie. Partant des valeurs mesurées aujourd'hui et dans des matériaux relativement anciens, provenant de la croûte continentale (Fig. 36a) et du manteau supérieur (Fig. 36b), on peut estimer que la construction massive de la croûte continentale et l'appauvrissement du manteau supérieur ont commencé vers 2.7 Ga. . Dans la figure 36, depleted mantle (3) reflète la valeur moyenne du manteau supérieur asthénosphérique actuel. Le manteau EM I (Enriched Mantle I) qui se situe sur la droite moyenne n’est en fait enrichi que par rapport au manteau supérieur actuel; il est donc proche d’un manteau n’ayant jamais été modifié (appauvri) par la fusion partielle responsable de la naissance de la croûte continentale (Primary Mantle issu de BABI). Mais il porte aussi quelques caractères chimiques de certains sédiments profonds qui permettent d’interpréter sa L’étude récente du Manteau Lithosphérique SubContinental (SCLM en anglais) a montré qu’en tout point de l’écorce continentale, son âge est corrélé à celui de la croûte sus-jacente (e.g.). Cette observation confirme que l’extraction de la croûte, qui se fait à partir du manteau, s’accompagne d’une accrétion du manteau sommital local. Nous avons vu que cette extraction de magma du manteau résulte de la fusion partielle de ce dernier, et qu’en fonction du taux de fusion, la minéralogie résiduelle du manteau évolue : 87 1 - A des taux faibles, les phases calciques, alcalines et alumineuses, le clinopyroxène et le grenat (ou le spinelle, cf. tableau 1) sont encore présents 2 - A taux élevé, seules restent les phases les moins fusibles, l’olivine et le orthopyroxène ; ces phases sont des solutions solides de fer et de magnésium, olivine = SiO4 (Fe-Mg)2 , Opx = Si2O6 (Fe-Mg)2 , qui comme tous les silicates ferromagnésien admettent le magnésium comme pôle de haute T° et le Fer comme pôle de basse T°. La fusion croissante, à température croissante de ces minéraux conduit donc à un solide résiduel de plus en plus magnésien. Au terme de la fusion partielle qui fabrique la croûte susjacente, il reste donc un manteau appauvri en matériel entrant dans le liquide. Suzanne O’Reylly et al 2001 ont mis en évidence que la nature du manteau lithosphérique varie considérablement avec l’âge de l’écorce, et qu’une distinction importante doit être faite entre lithosphère ancienne (archéenne) et récente. Un saut dans la composition chimique moyenne est bien marqué entre le manteau subcontinental très magnésien des régions à croûte - 90 - ENSM-SE, 2° A : axe transverse P N archéenne, et celui des régions à croûte de la période suivante (Protérozoïque), qui semble en effet beaucoup plus calcique et alumineux (Fig. 37) ; ce contraste est peut-être encore plus marqué pour les régions “jeunes”, d’âge Phanérozoïque (les âges où la vie est abondante, <600 Ma.). Les auteurs ont remarqué à travers l’étude des enclaves de manteau remontées par les laves que les péridotites les plus capables de donner des liquides magmatiques, dites « fertiles » ; sont d’autant moins abondantes que l’âge de la croûte terrestre qui supporte les volcans est ancien. Les conduits volcaniques des volcans qui éjectent de telles enclaves en faible proportion ramonent donc un manteau au caractère appauvri (« depleted »), ce qui signifie qu’il a subi une fusion partielle importante caractérisée par son déficit en Na, Ca, Al par rapport à la lherzolite type, dite fertile. Les harzburgites dans la figure 37 sont des roches très « déplétées » selon cette terminologie. L’asthénosphère commence lorsque la ductilité du manteau s’affirme, ce qui correspond à la « molt péridotite » de la figure. Certaines péridotites subcontinentales montrent en outre un enrichissement anormal en alcalins et terres rares légères (La..Sm), qui résulte de la percolation de magmas et/ou de fluides venus du manteau asthénosphérique, en route vers la surface. Ce processus d’échange avec la roche environnante, qui tend à équilibrer chimiquement le liquide ou le fluide avec le solide qu’il traverse, s’appelle métasomatisme. La production de fluides ou de magmas dans l’asthénosphère étant liée à la convection, il s’agit là d’un phénomène pérenne qui a d’autant plus de chances d’avoir marqué la lithosphère de son empreinte que celle-ci est ancienne. Sur ce point, La figure 37 oppose clairement le manteau subcontinental phanérozoïque aux manteaux lithosphériques plus anciens. Nous avions noté plus avant qu’aux temps archéens le manteau supérieur fertile (Lherzolite composée d’olivine, 16/10/12 orthopyroxène clinopyroxène plus une phase alumineuse, cf. § C1 Minéralogie du manteau p 57-58) subissait une fusion partielle beaucoup plus intense que celle qu’il subit de nos jours en raison de la grande énergie thermique disponible, et que ce taux élevé s’exprime dans un volcanisme komatiitique (à la fois très chaud et magnésien) très différent du volcanisme basaltique moderne. Pour produire les basaltes modernes, les fractions fondues d’olivine et d’orthopyroxène sont faibles par rapport à celles qui sont engagées dans le processus de fusion partielle qui conduit aux komatiites. Il en résulte donc un liquide proportionnellement plus calcique, plus alcalin, plus siliceux (voir les compositions des deux minéraux prépondérants qui fondent en premier, le clinopyroxènes et la phase alumineuse, au § C1) et par soustraction moins magnésien. A l’opposé, puisque le manteau qui a donné naissance au komatiites fondait beaucoup, il conduisait vers un résidu solide très appauvri (harzburgites et dunite). En outre le résidu solide des komatiites présente un rapport Mg/Fe fort, car en équilibre avec le liquide à une température très élevée, qui favorise le solide magnésien et le passage du fer dans le liquide. Un tel manteau lithosphérique possède donc un poids volumique remarquablement faible par rapport au manteau normal (plus riche en éléments lourds Fe et Ca), et il reste de ce fait très solidement arrimé à la croûte sus-jacente, et vieillit avec elle. Inversement, le manteau subcontinental des régions les plus jeunes est rapidement plus dense que le manteau asthénosphérique, et très facilement entraîné par le manteau convectif, en particulier dans les régions de rift ; un tel manteau « délaminé » rejoint alors le manteau convectif et laisse place à du manteau plus jeune, peu déplété et peu ou pas métasomatisé. On parle de délamination, à l’image des composites vieillissants comme les plastiques des coques de bateaux Fig.37 : Logs géochimiques vertical (en km) dans le manteau lithosphérique subcontinental, datant de de l’archéen (Sibérie et Canada), du protérozoïque et du phanérozoïque ; On appelle lherzolite fertile des péridodites riches en Orthopyroxène et phase alumineuse (grenat), donc les moins réfractaires, par conséquent capables de donner naissance à des liquides magmatiques par fusion partielle. Le reliquat de cette fusion, dépourvu de phase alumineuse est appelé harzburgite, plus ou moins appauvrie en clino puis en orthopyroxène, elle est appelée dunite lorsqu’elle n’est plus composée que d’Olivine. Les fractions métasomatisées figurées en rouge représentent la fraction du manteau lithosphérique (rigide, tectoniquement associé à la croûte continentale sus-jacente) qui a subi des modifications de composition par réaction avec les liquides magmatique issus de la fusion partielle du manteau (y compris d’origine asthénosphérique venant du manteau sous-jacent. - 91 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Sites WEB consultés http://www-lgit.obs.ujf-grenoble.fr/users/hcnataf/Cours_MMGE/G9.html http://www.tcd.ie/Geology/Courses/ewf/ http://www.ggl.ulaval.ca/personnel/bourque/intro.pt/planete_terre.html http://quake.mit.edu/~castle/FallAGU98/abs.html http://www.geo.uu.nl/~bijwaard/movie/movie.htm http://visearth.ucsd.edu/VisE_Int/platetectonics/frontpagegeol.html http://www.seismo.unr.edu/ftp/pub/louie/ http://volcano.und.nodak.edu/ http://volcano.und.nodak.edu/vwdocs/vwlessons/hot_spots/introduction.html http://www.seismo.berkeley.edu/seismo/Homepage.html http://geollab.jmu.edu/fichter/Wilson/PTRC.html http://www.ruf.rice.edu/~leeman/ http://vulcan.wr.usgs.gov/Volcanoes/MSH/NatMonument/framework.html http://www.pgc.nrcan.gc.ca/geodyn/cascadia.htm http://www.ig.utexas.edu/research/projects/nankai/news/news.html http://explorezone.com/archives/99_08/04_earth http://www.geo.lsa.umich.edu/~crlb/ http://www.ldeo.columbia.edu/margins/Home.html http://geo.lsa.umich.edu/~crlb/COURSES/270/Lec13/Lec13.htmlquake_subduction.htm http://greenwood.cr.usgs.gov/pub/open-file-reports/ofr-99-0132/ http://publish.uwo.ca/~wrchurch/ http://www.astrosurf.com/lombry/sysol-soleil-magnetique.htm http://www.psrd.hawaii.edu/May03/SolarSystemTrigger.html http://volcano.und.nodak.edu/vwdocs/glossary.html http://walrus.wr.usgs.gov/tsunami/cascadia.html http://pubs.usgs.gov/publications/text/dynamic.html http://ees5-www.lanl.gov/IGPP/PlanetInt.html http://www-istp.gsfc.nasa.gov/earthmag/ http://www.seismo.unr.edu/ftp/pub/louie/class/100/interior.html http://www.seismo.unr.edu/ftp/pub/louie/class/100/plate-tectonics.html http://www.seismology.harvard.edu/projects/3D/ http://ees5-www.lanl.gov/IGPP/g6172icb1.html http://perso.ens-lyon.fr/gregoire.deback/projetst/modelisation.html http://www.es.ucsc.edu/~glatz/geodynamo.html http://www.geo.ucalgary.ca/~wu/SeisTomogSAW12D.html http://www.ac-nice.fr/svt/aster/sismo/tomosism/tomograf.htm http://www.le.ac.uk/geology/art/gl209/lecture1-12.html http://www.gps.caltech.edu/~gurnis/Movies/movies-more.html http://www.es.mq.edu.au/GEMOC/oreilly/4Dlithmap.html http://mahi.ucsd.edu/Gabi/3dmodels.html http://www.ggl.ulaval.ca/personnel/bourque/intro.pt/planete_terre.html http://baudolino.free.fr/Noyau/ http://www.oca.eu/morby/ http://seis.karlov.mff.cuni.cz/ http://faculty.weber.edu/bdattilo/parks/plume_cont.jpg http://www.cnrs.fr/cw/dossiers/dosgeol/01_decouvrir/02_subduction/04_subduction_plaques/01_terrain/03a.htm http://www.ngdc.noaa.gov/mgg/fliers/96mgg04.html http://www.whoi.edu/oceanus/viewArticle.do?id=2400 http://earthsci.org/mineral/energy/geomin/geomin.htm http://www.divediscover.whoi.edu/vents/ - 92 - ENSM-SE, 2° A : axe transverse P N quelques idées fortes 16/10/12 Quelques idées fortes : Noyau Graine solide, reconnue seulement depuis 1936, axisymétrique : orientation des cristaux de fer par convection axisymétrique ? ou par dépôt orienté par le champ magnétique du noyau ? 30 à 100 m3 de graine cristallisée/jour = chaleur latente qui permet la convection dans le noyau liquide. Le noyau liquide sismiquement transparent pour les ondes S : limite entre le noyau et le manteau : P= 130 G.P ; T°= 3800°K ; limite entre le noyau et la graine : P= 320 G.P ; T°= 5000°K ; Centre de la Terre : P= 400 Gpa ; T°= 6000°K. Noyau fonctionne comme une magnétohydrodynamique, Les inversions du champ terrestre : La durée moyenne de stabilité entre 2 inversions est de l'ordre de quelques x100 000 ans, elle peut être beaucoup plus courte elle peut être beaucoup plus longue, plusieurs x10 Ma ; avant la limite Permien-Trias et avant la limite Crétacé-Tertiaire. la couche D" Produit de l'interaction chimique entre le fer liquide du noyau et le manteau silicaté. Solide mais à vitesse lente, à forte densité, et elle donne des rais sismiques spécifiques qui émergent dans la zone d'ombre ; Topographie tourmentée : épaisseur très variable, de quelques x10 km à 200-300 km. Couche limite entre la convection mantellique et la convection du noyau, Zones épaisses =accumulateur de chaleur à la base du manteau ; Déclanche des panaches mantelliques si longue accumulation = volcanisme de point chaud trapps de Sibérie, à la fin du Permien, trapps du Deccan en Indes, à la limite Crétacé-Tertiaire Manteau inférieur Composition chimique proche de celle des chondrites = indifférencié, et minéralogie très compacte. Pas de fractionnement important car ne donne que les basaltes des points chauds. échanges intermittents avec le manteau supérieur : Subduction d’une plaque dans le manteau inférieur vers la couche D" ; Traversée de la discontinuité 670 Km par des panaches chauds en route vers la surface Manteau supérieur Compostion chimique et minéralogie et de péridote = fortement différencié : Péridotites à plagioclase dans les 30 premiers Km; Péridotites à spinelle entre 30 et 60 Km; Péridotites à grenat au-delà de 60 Km. Autres phases minérales plus compactes en profondeur Fractionnement important : Tous les volcanismes autres que les points chauds ; T toute l’extraction de la croûte continentale (SiAl) Domaine de convection ordinaire des plaques lithosphériques = volcanisme de 3 types Décompression adiabatique peu profonde (<80-100 km), fusion partielle « à sec, HT° » dans les rides océaniques (ou rifts) Décompression adiabatique profonde(>80-100 km), fusion partielle HT° « à sec, HT° » dans les points chauds Fusion partielle « hydratée, BT° » à profondeur croissante dans les zones de subduction Croûte Croûte océanique : Fusion dans les rides océaniques, transport et hydratation du plancher océanique, disparition dans les fosses ; Durée de vie maximum d’un fond océanique = 200 Ma (mémoire courte) Croûte continentale : Fusion dans les zones de subduction, matériaux légers et hydratés peu recyclables ; Durée de vie très variable : jusqu’à 4 Ga (cratons) Mémoire effaçable par érosion ou par métamorphisme (ceinture orogénique de collision ou de marge continentale active) Histoire de la Terre L’Adéen, une naissance tourmentée datée de 4.55 Ga. Planètes formées en moins de 10 Ma ? ou quelques x10 Ma ? Le couple Terre-Lune fabriqué par capture violente d’un météore déjà différencié de la taille de Mars ? Archéen, (3.5 Ga. A 1.7 Ga. ) une convection mantellique rapide et un géotherme élevé l’extraction très active par fusion partielle et flottation = embryons de croûte continentale Le début des temps modernes vers 2 Ga Fonctionnement de la tectonique des plaques prend un rythme comparable à celui que nous observons - 93 - ENSM-SE, 2° A : axe transverse P N - 94 - 16/10/12 ENSM-SE, 2° A : axe transverse P N 16/10/12 CHAPITRE 5 L’enveloppe gazeuse de la Terre le couple atmosphère - hydrosphère Josephine Wall « Sadness of Gaïa » Nous tenterons ici une description sommaire de la sphère des vapeurs, condensées ou non, le couple hydrosphère-atmosphère. Cependant, avant de décrire l’atmosphère de notre planète et d’envisager son histoire, nous devons nous interroger sur les conditions mêmes de l'existence d'une atmosphère sur les planètes telluriques: 1 - la première condition est bien évidemment qu’elle fut créée un jour, soit lors de l'effondrement de la nébuleuse solaire, soit par dégazage des enveloppes rocheuses, soit encore par bombardement cométaire; 2 - la seconde condition est que la planète concernée ait eu une pesanteur (et donc une masse) suffisante pour retenir une atmosphère. A ces 2 conditions essentielles de l’existence d’une atmosphère viennent s’ajouter d’autres considérations, relatives à l’état de l’atmosphère, P, T° en particulier. Parmi les principaux paramètres qui régissent l’état d’une atmosphère, citons: 1 - la distance au soleil; 2 - l’extraction continue de volatils par le biais d’une tectonique encore active susceptible de limiter ou d’annuler les pertes vers le cosmos; 3 - la vitesse de rotation de la planète (ou de son atmosphère en cas de super-rotation comme pour Vénus 60x plus rapide que la planète elle-même) qui limite les écarts de température jour - nuit; 4 - l’orientation de l’axe de rotation sur le plan de l’écliptique (susceptible de variations importantes) qui peut engendrer une durée du jour égale à la durée de la révolution... A - Composition de L’atmosphère Terrestre actuelle La connaissance du champ de pression de l’atmosphère terrestre est récente. Après le décès de Galilée, en reprenant ses expériences non achevées sur des colonnes d’eau, E. Torricelli mit en évidence en 1644 que le poids de l’air maintient à niveau le mercure d’une colonne. B. Pascal en déduisit que la pression de l’air devait décroître avec l’altitude, ce qu’il fit mesurer en 1648 entre ClermontFerrand et le sommet du Puy de Dôme. masse se répartit comme suit : 50% contenus dans les 5.5 premiers Km; 75% « « les 10 « « ; 90% « « les 16 « « ; 99% « « les 31 « « . A 200 Km de la surface terrestre, la pression n’est plus que de 10-7mbar, et l’on peut considérer que vers 500 à 1000 Km, la densité de l’atmosphère est suffisamment faible pour que des molécules gazeuses puissent partir vers le cosmos sans qu’un choc avec d’autres molécules les renvoient vers l’atmosphère. On entre là dans l’exosphère, domaine où la physique des gaz ne s'applique plus, et où chaque molécule se comporte comme une particule balistique. L’air est un mélange de gaz. Cette intuition de Descartes fut rapidement confirmée. Auparavant, l’air était considéré comme une substance homogène, ce qui rendait complexe l’explication de la pluie, souvent considérée par les anciens comme un des états possibles de l’air. Le tableau 1 montre que les constituants gazeux essentiels de l’atmosphère sèche, exprimés en volume, sont le dioxyde d’azote (78%) et le dioxygène (21%). L’argon (0.9%) et le dioxyde de carbone (0.035%), pourtant 3° et 4° constituants respectivement, sont déjà très minoritaires. Par comparaison avec la composition de l’atmosphère des autres planètes telluriques (cf. planche hors texte, planétologie comparée en fin d’introduction), celle de notre hôte apparaît à la fois ordinaire par la nature des constituants (N2, O2, Ar, CO2), et singulière par les teneurs de ces constituants. Ces similitudes et ces différences reflètent l’évolution particulière de notre globe (cf. § Histoire de l’atmosphère terrestre). La comparaison avec l'atmosphère des géantes gazeuses montre des différences encore plus radicales. Celles-ci apparaissent Partant du champ de pression on estime la masse de l’atmosphère (à l’équilibre hydrostatique) à 5.13 1018 kg, ce qui est de l’ordre de 1.10-6 de la masse Terrestre. Si la masse volumique de l'air était constante, et si sa répartition autour du globe était homogène, alors l’atmosphère serait une enveloppe épaisse de 8Km environ. Mais en fait, la masse volumique de l’air varie avec l’altitude, et notre atmosphère n’a donc pas de limite. Sa - 95 - Tableau 1, composition de l’atmosphère terrestre % volumiques Gaz N2 78.09 azote O2 20.95 oxygène Ar 0.93 Argon 0.038 Dioxyde de carbone CO2 Ne 1.8 10-3 néon He 5.2 10-4 Helium Kr 1.0 10-4 Krypton H2 5.0 10-5 Hydrogène Xe 8.0 10-6 Xénon O3 1.0 10-6 Ozone ENSM-SE, 2° A : axe transverse P N en effet beaucoup plus proche de la composition de Soleil, et donc de la nébuleuse initiale. La composition de l'air terrestre (sec) est suffisamment constante (malgré les variations de teneur en CO2 en particulier) pour que l’on puisse lui attribuer une masse molaire internationalement reconnue (M = 28.966). La présence de produits instables (ozone au-delà de 25 Km par exemple, ou produits azotés, NO, NO2, NO3) n’engendre pas non plus de modifications significatives de la masse molaire de l’air. Toutefois, on considère que la production de l’oxygène atomique par photodissociation pourrait provoquer un changement de composition significatif au-delà de 80 à 100 Km. L’absence de brassage vers les très hautes altitudes, renforcerait ce changement de composition en provoquant une stratification de la composition, les gaz les plus légers tendant à s'élever au-dessus des plus lourds. La vapeur d’eau est présente en quantité très variable dans l’atmosphère terrestre, si bien que la valeur de sa concentration moyenne, 5400 ppm volume n’a pas grande signification. La fourchette de teneur s’étend dans les basses couches de l’atmosphère entre 0.1% environ dans les régions continentales et 5% environ dans les régions océaniques intertropicales. On évalue à 2.5Cm seulement la hauteur d’eau (condensée) contenue dans l’atmosphère, ce qui revient à dire que l’essentiel de l’eau non géosphérique (i.e. contenue dans les minéraux) est stocké dans les océans. Le réservoir atmosphérique peut apparaître insignifiant. Pourtant il n’en est rien, car le temps de résidence de l’eau dans le réservoir atmosphérique est extrêmement court (quelques heures à quelques mois) par rapport à son temps de résidence dans le réservoir océanique (102 à 104 ans), ou a fortiori géosphérique, et les flux entre le réservoir atmosphérique (continental + océanique) et l‘hydrosphère sont au contraire considérables. La figure 1 présente des estimations des réservoirs d’eau dans le cycle de l’eau selon M.T. Chahine. On notera que l'atmosphère assure un transfert d'eau vers le continent de 36.1015kg/an, qui est compensé par le débit des fleuves vers l'océan. L’imprécision sur les composants de ce cycle est certes importante, mais cette estimation des ordres de grandeur des réservoirs et des flux permet de confirmer les estimations précédentes des temps de résidence de l'eau très différents dans les divers réservoirs, de l'ordre de quelques jours dans l'atmosphère (11/434; 4.5/71); de 1000 à 10000 ans dans l'océan (1400000/398); et 500 ans environ dans le réservoir continental (59000/107). La figure 1 résume les ordres de grandeur des volumes des réservoirs d’eau, y compris géosphériques (croûte et manteau) et les temps de résidence moyens dans les réservoirs superficiels. L’eau océanique représente l’essentiel de la masse de l’eau sur Terre avec 1.39 × 1021 kg, soit 0,023 % de la masse totale de la Terre. La Terre est la seule planète de notre système où l’eau est présente sous les 3 états, solide, liquide et gaz. Le rôle solvant de l’eau (non solide), vis à vis du CO2 par exemple, les grandes vitesses de diffusion en milieu non solide, et la protection efficace qu’elle procure (à l’état liquide en particulier) vis à vis des UV entre autres, font de l’eau atmosphérique et hydrosphérique un des paramètres essentiels de l’apparition de la vie sur la Terre, mais aussi de sa pérennité L’air contient de nombreux aérosols et grains solides provenant de la surface terrestre, tels que des poussières arrachées ou cendres volcaniques injectées dans la haute atmosphère, ou des cristaux de sel(s). Les rôles essentiels de cette fraction solide sont d’une part d’introduire des variations dans les conditions d’ensoleillement, et d’autre part (et surtout) d’aider à la condensation et/ou à la congélation de la vapeur d’eau. B - Structure thermique et chimique verticale de l'atmosphère Les pionniers de la recherche dans le domaine atmosphérique, à l’articulation du XIX° et du XX° siècle furent tout d’abord les aérostiers, dont certains, victimes de leur curiosité, décédèrent en raison du froid et de la raréfaction de l’air au-delà de 7500m. L’histoire retient aussi L. Teisserenc de Bort et les “ emmêlés ” de ses cerfs-volants avec l’administration du télégraphe, et G. Hermite, qui mit au point les premiers ballons sondes. Avec eux, l’ère de la mesure des paramètres atmosphériques devenait journalière. Fig. 1, estimation des réservoirs et des flux dans le cycle de l’eau de la surface terrestre selon M. T. Chahine Marine atmosphere 11.0 Rain 398 A d v e c ti o n 36 Ocean Mixed layer 50 000 Thermocline 460 000 Abyssal 890 000 1 400 000 Terrestrial atmosphere 4.5 Evaporation & Transpiration 71 Evaporation 434 R iv e r s 36 land Ice & Snow Surface water Underground w Biota 16/10/12 Rain 107 43 400 360 15 300 2 59 000 Reservoirs in 10 15 kg ; Fluxes in 10 15 kg yr-1 - 96 - Fig. 2, Structure verticale de l’atmosphère terrestre ENSM-SE, 2° A : axe transverse P N 16/10/12 Fig. 3 : a) Spectre solaire comparé à l’émission d’un corps noir à 5770°K (en jaune), T° de la chromosphère b) Spectre du corps noir à 256°K, T° d’émission de la Terre Le spectre réel (courbe noire) montre des creux profonds, Liés aux absorptions élémentaires de son atmosphère A 5770°K, Il émet principalement dans le visible 0.4 à 0.7 µm et l’IR▼ Les longueurs d’onde du visible sont hors du champ d’émission de la Terre qui, à 256°K n’émet que des IR dans la gamme 3 à 20 µm ▼ La courbe de la température en fonction de l’altitude (Fig. 2) permet de distinguer : 1 - La troposphère 2 - La Stratosphère 3 - La mésosphère 4 - La thermosphère de décroître (tropopause) et se stabilise autour de -50 à 80°C. Le gradient moyen de température est de l’ordre de -6°.Km-1. La tropopause peut être mise en évidence lors du développement de très gros nuages d’orages dont l’ascension vient “ buter ” sur cette couche limite; ces nuages constituent alors une magnifique enclume. b - Troposphère, siège de l’effet de serre 1 - La Troposphère a - Troposphère et phénomènes climatiques Son épaisseur varie de 8 Km au pôle en hiver (air froid et dense) à 16 km à l’équateur (air chaud et léger); elle contient 75% de la masse de l’atmosphère et quasi 100% de la vapeur d’eau. Tropos veut dire changement; la troposphère est le siège des phénomènes météorologiques. Elle constitue la zone convective de l'atmosphère. La température au sol est en moyenne de +13°C. En un point donné, elle est liée à l’ensoleillement et à la quantité d'IR réémis par la Terre. Anaxagore, au ~V° siècle, reprenant les écrits de Thalès de Milet (~VII°), remarquait déjà que l’air chaud s’élève, que les nuages se forment lorsque l’air refroidit. Il admettait ainsi que la température s’abaisse avec l’altitude. L’air chaud s’élève en premier lieu par décompression adiabatique. La convection continue aussi longtemps que les particules montantes sont plus chaudes que l’air environnant. Lorsque la température a suffisamment baissé, la condensation de la vapeur d’eau commence, et la chaleur latente libérée relance la machine, accélérant ainsi l’ascension de l’air. Le terme “ serre ” n’a pas été judicieusement choisi, car dans une serre, la paroi de verre joue un rôle primordial en interdisant le transfert de chaleur vers l’extérieur (les IR), mais pas le passage des longueurs d’ondes visibles. La chaleur accumulée dans la serre résulte donc essentiellement du fait que les IR émis par le sol ou les plantes sont réfléchis par le verre, alors que l’insolation directe traverse normalement les parois de la serre. L’atmosphère terrestre, elle, n’a pas de couvercle, et le mécanisme de l’effet de serre est un peu différent. Le bilan énergétique de l’atmosphère repose sur deux paramètres fondamentaux, sa composition (nous y reviendrons) et la distance du soleil. En effet, les planètes du système solaire étant en équilibre thermodynamique (leur température moyenne annuelle est “ constante ”), les lois du rayonnement du corps noir, établies à la fin du XIX°, leur sont applicables, comme elles le sont au soleil : Au sommet de la stratosphère la température cesse - 97 - 1 - la loi de Planck : elle exprime le fait que l’intensité du rayonnement émis par le corps en équilibre en fonction de sa longueur d’onde passe par un maximum (fig. 3a cas du Soleil, 3b cas de la Terre); ENSM-SE, 2° A : axe transverse P N 2 - la loi de Wien : elle exprime le fait que la longueur d’onde maximale émise par le corps noir est inversement proportionnelle à sa température d’émission; λmoy = 2900/T, λ exprimé en microns et T exprimé en °K. Autrement dit, plus un corps est chaud plus la fréquence de sa couleur démission est élevée (Fig. 3a-b, Soleil et Terre ; Fig. 4, principaux objets cosmiques). En effet, plus la fréquence d’une radiation est élevée, plus son énergie est importante. 3 - La loi de Stephan-Boltzman nous dit que pour un corps noir de rayon R, la luminosité L (voir définition Chp. 1A), à la température T est égale à L = 4π πR2 . σ T4 avec la cte de Stephan σ = 5.67 10-8 SI (erg.s-1.cm-2/K-4). Pour le Soleil, R = 700 000 Km, T°surface= 5770°K, la luminosité Ls = 3.8 1026 w m-2. On appelle “ Constante solaire ” le flux solaire Cs reçu par une surface plane située à la distance d du Soleil, Cs = Ls/(4π πd2). Cette constante solaire n’est d'ailleurs pas strictement constante. Les mesures montrent des variations de l’ordre de 0.1% en relation avec la surface cumulée des taches solaires. Pour la Terre, située 150 106 Km, Le flux solaire calculé est de 1360 w m-2. Puisque l’on considère les planètes comme des corps noirs sphériques à l’équilibre, l’énergie qu’elles émettent est égale à celle qu’elles reçoivent : pour une planète de rayon Rp, située à la distance d du soleil, la température d’équilibre sera Tp et le bilan s’écrit : Cs* πR πRp2 σ Tp4 π p2 = 4π (NB. Surface réceptrice = jour = πRp2 ; surface rayonnante = 4πRp2). Le flux solaire reçu par la Terre (par unité de surface) est donc égal à Cs/4 — soit 340 w m-2 en moyenne Cela représente environ 10 000 fois la chaleur dissipée par les enveloppes rocheuses par unité de surface! — et le flux rayonné par la Terre à la température TT , appelé émittance (voir définition Chp. 1A), est de la forme Fig 4 : Relation couleur-température du corps noir, d’après J.Y. Daniel 1991; Rayonnement à 2°K, fossile du Big Bang. Etoiles : Betelgeuse, rouge ; Soleil, Jaune. Cyg X1 Rayonnement X de la constellation du Cygne, trou noir potentiel. 16/10/12 σ TT4 L’atmosphère et la surface terrestre réfléchissent vers l’espace respectivement 87 W.m-2 et 21 W.m-2 =108 W.m-2 soit 31% de l’énergie reçue (Fig. 6). Cette fraction de l’énergie renvoyée vers l’extérieur définit l’albédo α de la planète (=0.3) 35,. Les meilleurs réflecteurs sont les corps blancs ou clairs, les nuages, la neige et la plupart des sols dépourvus de végétation. On perçoit ici l’effet rétroactif d’un changement climatique éventuel (variation de la surface réfléchissante des calottes glaciaires) ou de la déforestation. Connaissant l’albédo de la Terre (α α), on peut en déduire que la valeur du flux qu’elle reçoit réellement vaut Cs/4 (1 – α) = 340 *0.7 = 238 w m-2 et le bilan radiatif de la Terre s’écrit schématiquement : Flux reçu Cs/4 (1 – α) = σ.T4 Flux émis TT= [(238/ σ]-4= [(238/ 5.67 ]-4 102 =254.7°K soit -18.3°C. A cette T° d’équilibre, la Terre émet essentiellement dans le domaine des IR, en 5 et 50 µm (Fig. 3b) La différence entre sa température d’équilibre théorique (-18°c) et sa température moyenne (+13°c) impose que la Terre tire de l'énergie d’une autre source. L’énergie interne dissipée par la Terre (Chp. 1) est très insuffisante pour justifier une telle différence, la source d’énergie réside donc nécessairement dans son atmosphère. Il convient toutefois de rester prudent, pour plusieurs raisons : Le calcul de la température d’équilibre présenté ici est un modèle largement utilisé, quoique très simplifié. Nous avons raisonné à partir d’un flux que recevrait un disque perpendiculaire au flux, et non une demi-sphère exposée au flux. La quantité totale reçue calculée est donc bien satisfaisante, mais ensuite nous calculons une température moyenne comme la racine (quatrième !) de ce flux moyen, alors qu’il serait plus rigoureux de sommer les températures calculées en chaque point de la demisphère exposée, en fonction du flux réel reçu par chaque surface unitaire non perpendiculaire au flux sauf sur le plan de l’écliptique. Par ailleurs, il n’est pas tenu compte de la rotation terrestre, ni de l’inclinaison de son axe et de l’excentricité de la révolution terrestre. En résumé, notons que cette valeur de -18°C n’est pas exacte mais qu’elle 35 Dans le détail, le problème est plus complexe car l’albédo de l’atmosphère αa et celui de la géosphère αg sont différents : l’atmosphère laisse passer le visible ou le réfléchit vers le cosmos, et absorbe la moitié des infra rouges (IR) qu’elle renvoie ensuite vers le cosmos ; le sol réfléchit ou absorbe le visible, et il absorbe tous les IR qui lui sont transmis par l’atmosphère. Si on appelle Irabs le coefficient d’absorption des IR par l’atmosphère, la fraction de flux IR absorbée par la Terre (qui participe au flux émis par la Terre) est de la forme Irabs/2 α Tt4. L’énergie totale réellement reçue par la Terre serait donc de la forme C* πRp2 (1 – αa) (1 – αg) + Irabs/2 α Tt4. - 98 - ENSM-SE, 2° A : axe transverse P N suffit à notre propos. Nous avons vu qu’une partie du rayonnement est directement réfléchie par le globe terrestre (albédo) et que ce phénomène est compliqué par des absorptions dans l’atmosphère (note infrapaginale page précédente). Les absorptions de rayonnement sont principalement le fait des molécules qui constituent l’atmosphère. L'absorption du rayonnement provoque la transition d'un atome ou d'une molécule d'un état d'énergie stable vers un état d'énergie plus élevé (excité) sous l'action d'un photon incident d'énergie hν. Pour que l'absorption ait lieu il faut donc que le quantum d'énergie hν corresponde à la différence entre deux niveaux permis par les règles de la mécanique quantique: c'est ce que l'on appelle une raie d'absorption (Fig. 5). En revenant à son niveau d'énergie initial, soit directement, soit par étapes, la matière émettra à son tour un rayonnement de même énergie. Les principaux absorbants qui jouent un rôle dans l'énergétique de l'atmosphère sont des molécules gazeuses triatomiques: vapeur d'eau (H2O), dioxyde de carbone (CO2), ozone (O3).Ces molécules ont un spectre énergétique beaucoup plus riche que celui des molécules diatomiques (O2, N2, H2) qui absorbent peu le rayonnement solaire ou terrestre. En outre, les molécules poly atomiques (CH4, CFC) ont un pouvoir absorbant très élevé : on appelle « gaz à effet de serre » (GES) les gaz fortement absorbants. 16/10/12 Fig. 5: Spectre des raies d'absorption des gaz atmosphériques En rouge : le domaine des λ courtes reçues du Soleil En bleu : le domaine des λ longues émises par la terre Le spectre du rayonnement solaire est caractérisé par des longueurs d’ondes courtes, dans la gamme 0.1 à 5 µm couvrant le domaine des UV, du visible et un peu les IR ; l’essentiel du rayonnement est compris en 0.3 et 1.5µm (Fig. 3a, et 5). Dans ce domaine de longueurs d’onde, il n’y a pas d’autres raies d’absorption de gaz atmosphériques autres que celles de l’eau, tant dans la basse atmosphère (troposphère) qu’en altitude (fig. 5). Il s’ensuit donc une absorption minimale du flux solaire, et ces absorptions ne sont pas totales. Dans le domaine 1.5-5µm, le CO2et le méthane sont présents, mais dans un domaine de très faible intensité du flux solaire. Par contre, dans la bande spectrale de l’émission du corps noir terrestre, 5-50µm, le nombre des raies des gaz atmosphériques est beaucoup plus important, et leur capacité d’absorption devient très importante, en particulier dans les couches basses et denses de l’atmosphère (Fig. 5) où seules trois bandes d’énergies ne sont pas totalement absorbées, ouvrant autant de fenêtres ouvertes vers le cosmos : 1 - 8-9 µm; 2 - 10-14 µm; 3 - 18-30 µm. Plusieurs faits importants sont à noter: bleu pâle, les domaines d’absorption totale pour H2O mauve, les domaines d’absorption totale pour CO2 vert, les domaines d’absorption pour CH4 brun, les domaines d’absorption pour O2 et O3 1 - L’absorption d’une longueur d’onde λ donnée par un GES donné est fonction de la concentration en ce GES dans l’atmosphère, jusqu’à une concentration limite correspondant à l’absorption totale de cette λ ; au-delà, la largeur de la bande d’absorption s’élargit légèrement mais une augmentation de la concentration n’aura qu’un effet mineur, l’ensemble des photons de cette λ étant déjà absorbés par l’atmosphère. 2 - Dans le domaine de l'émission terrestre (5-50 µm; Fig. 3b et 5), les fréquences absorbées par H2O (en - 99 - bleu pâle) le sont à 100%; une augmentation de la teneur en eau de l'atmosphère serait donc sans répercutions sur l'effet de serre pour ces λ. En outre l'atmosphère terrestre est globalement proche de la saturation en H2O. Il n’y a pas grand chose à redouter d’une augmentation de la teneur en eau. 3 - Le CO2 (en violet) peut par contre absorber encore une part importante du rayonnement IR dans la fenêtre 12-16 µm, dans la troposphère en particulier. Une augmentation de sa teneur dans l'atmosphère se traduit donc automatiquement par un accroissement de l'effet de serre. La concentration en CO2 étant naturellement très basse, l’activité humaine (CO2 d’origine industrielle, de chauffage, transport) modifie significativement sa teneur et provoque ENSM-SE, 2° A : axe transverse P N 16/10/12 nécessairement un accroissement de l’effet de serre. Pour l’essentiel de la communauté scientifique, les effets du CO2 anthropique sont maintenant considérés comme indiscutables, même s’il existe encore ici ou là quelques chercheurs arcboutés sur leurs observations, rebelles face à ce consensus, nous y reviendrons. la photodissociation de l’oxygène dans le processus de fabrication de l’ozone ; cette chaleur est restituée à terme par l’atmosphère, dans toutes les directions. De la sorte, on peut admettre qu’une ½ est renvoyée vers le cosmos et l’autre ½ est transmise à la surface du globe (Fig. 6b) ; 4 - Le CH4 (en vert) peut lui aussi absorber une part importante du rayonnement IR dans la fenêtre 8-10 µm. Le méthane est un produit qui provient naturellement de la décomposition de matières organiques dans des conditions réductrices (c'est le gaz des marais et des terrains humides 1.5 à 3 G.Tonnes/an). Il voit sa concentration augmenter fortement avec l'accroissement des surfaces consacrées à la riziculture (actuellement 2 à 3.5 G.T/an), et aussi (même si ceci peut apparaître plus anecdotique) avec l'augmentation du cheptel ruminant, dont la fermentation entérique est un producteur important de CH4 (1G.T/an!). Son effet ne peut donc que se surajouter à celui du CO2, nous aurons donc à y revenir. 2 - Une partie est réfléchie, 108 W.m-2 (albédo #30%), par l’atmosphère ou par la surface du globe, sans absorption par l’atmosphère transparent pour ces longueurs d’ondes, comme suit: 5 - L’O3 troposphérique (en jaune brun dans la figure 5, le pic à basse altitude est légèrement décalé vers la droite et n’est pas superposé au tireté brun, …imprécision de la figure origine) pose un problème comparable à celui de l’eau, la bande 10-12µm étant d’ores et déjà presque totalement absorbée. D'origine anthropique elle aussi, l’ozone troposphérique reste limitée aux bassins industriels et aux mégalopoles. Il en résulte une augmentation locale de la température, mais qui restera faible. Son inconvénient majeur n’est donc pas un accroissement important de l’effet de serre il mais réside dans son impact sur la santé humaine, en raison de l’irritation des voies respiratoires qu’elle provoque. En conclusion, c’est donc une fraction importante de l’énergie émise par le corps noir terrestre qui est ainsi absorbée par l’atmosphère. Cette énergie ne peut être rétrocédée qu’avec retard au cosmos. Il s’ensuit l’instauration d’un équilibre dynamique conduisant à une élévation de la température de –18°C à +13°C : c'est cela que l'on nomme «effet de serre». a) 87 W.m-2 sont renvoyés par l’atmosphère et les nuages ; b) 21 W.m-2 sont renvoyés par le sol terrestre. La valeur mesurée du rayonnement émis par la surface terrestre est de 390 W.m-2 (en rouge dans la figure 6a) ; à la température de -18°C ce rayonnement se situe exclusivement dans les IR. D’après ces valeurs tirées de Ramanathan et al., la surface du globe dégage donc un excédent de chaleur par rapport à ce qu’elle reçoit directement du Soleil et indirectement de l’atmosphère, excès que l’on peut estimer à 390 -169 -(68/2) = 187 W.m-2. D’où provient-il ? Considérons que les 169 W.m-2 transmis par le Soleil à la surface du globe y sont totalement convertis en IR, réémis vers notre atmosphère. Selon Ramanathan et al., 20 W.m-2 sont perdus directement dans le cosmos et le reste, 149 W.m-2, est absorbé par l’atmosphère. En effet, si celui-ci est largement transparent aux UV et au visible incidents, il ne l’est que faiblement aux IR36. Comme dans le cas des 68 W.m-2 cédés par le rayonnement Solaire incident, cet excédent de 149 W m-2 rétrocédé à l’atmosphère sera perdu à terme par celle-ci, Fig. 6b: L’effet de serre, représentation simplifiée Reprenons en détail le schéma de bilan énergétique terrestre de Ramanathan et al. (Fig. 6a). Sur les 345 W.m-2 reçus par la Terre dans les UV, le visible et le proche IR, ce sont finalement 169 W.m-2 seulement qui sont absorbés par la surface du sol : -2 1 - Une partie de l’irradiation directe, 68 W.m , est absorbée par l’atmosphère dans les nuages et lors de Fig. 6: L’effet de serre d’après Ramanathan et al pour ½ vers le cosmos, et pour ½ renvoyé vers la surface ; cette dernière fraction sera à son tour réinjectée vers l’atmosphère où elle subira le même sort, rendant ¼ au cosmos et ¼ au globe, puis ⅛, etc. (voir représentation simplifiée Fig. 6b) ; l’ensemble tend vers un excédent total à l’équilibre de 149 W.m-2 venant de la surface terrestre, plus 34 W.m-2 issus de la fraction incidente cédée à l’atmosphère, soit 183 W.m-2 , un total voisin de l’excès de 187 W.m-2 que nous avons estimé à partir de Ramanathan et al. Un simple bilan entre la chaleur incidente entrant dans le système Terre + atmosphère (= 345 -108 = 237 W.m-2) et la chaleur émise vers le cosmos par le même 36 Sur le total de 390 W m-2 émis par la surface du globe (dans les IR) 20 sont transmis au cosmos ; l’opacité de l’atmosphère aux IR est donc de 370/390*100 = 95%. - 100 - ENSM-SE, 2° A : axe transverse P N 16/10/12 système ( = 149 +68 +20 = 237 nous montre que ce schéma Tableau 2 : Potentiel de réchauffement planétaire (PRP) et de fonctionnement très approximatif est néanmoins suffisant. durée de vie dans l'atmosphère des gaz à effet de serre (GES) http://www.ec.gc.ca/pdb/ghg/inventory_report/2003_report/c1_f.cfm L’excédent permanent de 187 W m-2 à l’équilibre http://www.riaed.net/spip.php?article448 Formule que nous explicitons ainsi ne correspond qu’à la fraction GES rayonnement intervenant dans le bilan terrestre. Selon CO2 Dioxyde de carbone Ramanathan et al., il faut ajouter à cette fraction les Vapeur d’eau H2O contributions liées aux transferts de chaleur latente et de Méthane CH4 N2O chaleur sensible traversant l’interface entre le globe Oxyde nitreux (continents-océans) et l’atmosphère : Hydro fluorocarbures (HFC) 1 - 90 W m-2 de flux de chaleur latente ; pour les auteurs, les changements d’état de l’eau dans le champ de gravité jouent un rôle prépondérant dans le transfert de chaleur entre la surface terrestre et l’atmosphère ; L’évaporation de l’eau contenue dans le sol permet de transférer un excédent de chaleur de la surface terrestre (géosphère ou hydrosphère) vers l’atmosphère, et inversement, la condensation ou la congélation (plus la gravité ici aussi), sont le moteur du transfert de chaleur de l’atmosphère vers la surface. Les flux de chaleur latente sont particulièrement forts au-dessus des courants marins chauds comme le Gulf Stream et au-dessus des forêts tropicales humides, couplant les cycles d’énergie et d’eau. 2 - 16 W m-2 de chaleur sensible ; pour les auteurs, les échanges de chaleur sans changement de phase entre la surface du globe et l’atmosphère au sein du système Terre est donc significatif ; les flux de chaleur sensible sont importants au-dessus de terres arides, où l’eau (exclusivement vapeur) transfère en convectant de la chaleur à travers l’interface, aidant ainsi à réguler la température des deux réservoirs. On peut donc évaluer à 187 +90 +16 = 293 W m-2 la chaleur qui est cédée temporairement à l'atmosphère. L’équilibre dynamique ainsi obtenu correspond à ce que nous nommons effet de serre. c – Réchauffement climatique ou « global warming ». Toutes les fenêtres d’énergie ouvertes vers le cosmos n’étant pas entièrement saturées par les GES, on comprend que les climatologues recherchent parmi ceux-là les responsables du changement climatique observé de nos jours, en corrélation avec les variations de leurs concentrations mesurées dans l’atmosphère. La démarche écologique apparue au sein des pays industrialisés durant les dernières décennies et l’ouverture au monde de l’ensemble des populations, en particulier grâce au racourcissement des tremps de transport, sont concomitantes. En effet les antipodes longtemps distants de plusieurs mois de navigation sont maintenant à peine éloignés de 24h de vol. Ce lointain inaccessible, juqu’alors présent seulement dans nos livres, est devenu en quelques années une partie de notre réalité quotidienne. Parallèlement, l’immensité du monde est devenue jardin et le cultivateur cueilleur chasseur pêcheur que nous sommes encore a réalisé que la ressource n’est pas inépuisable. L’impact longtemps ignoré de l’industrialisation de nos activités, source de notre bien-être, nous est devenu évident, questionnant en retour l’immense bond HFC-23 HFC-32 HFC-41 HFC-43-10mee HFC-125 HFC-134 HFC-134a HFC-143 HFC-143a HFC-152a HFC-227ea HFC-236fa HFC-245ca CHF3 CH2F2 CH3F C5H2F10 C2HF5 C2H2F4 C2H2F4 C2H3F3 C2H3F3 C2H4F2 C3HF7 C3H2F6 C3H3F5 Hydrocarbures perfluorés (HPF) Perfluorométhane CF4 Perfluoroéthane C2F6 Perfluoropropane C3F8 Perfluorobutane C4F10 Perfluorocyclobutane c-C4F8 Perfluoropentane C5F12 Perfluorohexane C6F14 PRP 1 8 21 310 Durée de vie dans l'atmosphère Variable 50-200 1 semaine 12 ± 3 120 11 700 650 150 1 300 2 800 1 000 1 300 300 3 800 140 2 900 6 300 560 264 6 4 17 33 11 15 2 4 48 37 209 7 6 500 9 200 7 000 7 000 8 700 7 500 7 400 50 000 10 000 2 600 2 600 3 200 4 100 3 200 technologique et scientifique opéré durant les XIX° et XX° siècle. Ainsi donc Science et Technique qui mettaient notre planète au creux de notre main étaient en quelque sorte irrespectueuses de notre devenir ? A refuser de nous considérer comme partie intégrante de la nature, nous n’avons pas voulu voir l’effet, si positif pour nous, du développement de notre mode de vie sur notre planète. Et puisqu’il fut « visiblement positif » pour les pays industrialisés, comment ne servirait-il pas de modèle à tous ceux qui n’ont bénéficié à ce jour que du loisir de nous observer ? La mondialisation des échanges et des matières, le déplacement des usines du monde depuis quelques décennies (2, 3 ?), sont en train de nous montrer la nécessité d’une gestion coordonnée des besoins, des ressources, des produits et des déchets. L’eau en est l’exemple type qui, parce que vitale, nécessitera la mise en œuvre d’un droit d’accès pour tous, parce qu’universelle (climatologie à l’échelle des continents, bassins versants transfrontières etc.) exigera une gestion commune et une protection partagée. La prise de conscience de la finitude de notre planète et de ses ressources est douloureuse, nos habitudes de fragmenter l’information pour aborder les problèmes par spécialités sont très ancrées, notre propention à dénoncer le bouc émissaire est intacte, au point que même si l’analyse systémique des milieux permet d’entrevoir différents modèles prometteurs de « développement soutenable », l’évidente causalité humaine des dégats engendrés sur les espaces dits « naturels » peut engendrer des peurs irrationnelles que nous chercherons ici à éviter. Ainsi, sur la très médiatique question du changement climatique, la causalité humaine est maintenant très généralement considérée comme entendue. Malgré la complexité des processus mis en œuvre et une méconaissance encore très importante de notre atmosphère, le coupable est, pour un grand nombre - 101 - ENSM-SE, 2° A : axe transverse P N de climatologues, le relargage inconsidéré des GES. Mais la géologie, qui nous renseigne sur le passé de la Terre, nous informe que le climat terrestre à toujours varié et donc qu’il faut se garder de penser qu’il aurait existé un point climatique d’équilibre dont nous serions en train de nous éloigner ! Elle nous renseigne sur les variations majeures subies par notre planète (Chp 5.F) et enregistre bien les phénomènes périodiques jusqu’à une périodicité pluricentenale. Pour les oscillations plus courtes, la géologie devient déficiente, sauf exception telles que l’enregistrement annuel des variations sédimentaires dans les varves37. Fig. 7 : évolution de la teneur en CO2 et de la Température de l'air depuis 400 000 ans; les mesures ont été effectuées dans une carotte de glace de l'antarctique (Vostok) La climatologie prend alors le relai, mais n’oublions pas qu’avant les observations satellitaires (environ 20 ans en matière de climatologie) notre méconnaissance des espaces océaniques était quasitotale. N’oublions pas non plus que nombre de phénomènes océano-atmosphériques présentent des périodes longues, souvent pluridécénales, voire pluricentenales. La mesure rigoureuse des nombreux paramètres mis en œuvre, à l’échelle des processus mis en jeu (celle de la planète, via les satellites), couvre donc seulement quelques périodes des cycles les plus rapides, et pour beaucoup seulement une petite partie des cycles pluridécennaux. En outre, nombre de phénomènes encore mal compris ne sont probablement pas pris en compte comme il conviendrait. Il en est ainsi de la formation des nuages et du rôle joué par le rayonnement cosmique dans la condensation, nous y reviendrons. Certes, nos computeurs de plus en plus efficaces sont capables de reconstruire le passé récent que nous avons échantillonné. C’est bien le moins que l’on peut attendre de modèles créés à partir de ce dernier. Mais qu’en est-il de leur valeur prédictive, puisque leur validation ne devrait être effective en principe qu’au-delà de plusieurs cycles observés et correctement modélisés ? Dès lors faut-il sans doute rester prudent et considérer que même si toute une communauté scientifique établit à partir des mêmes données des modèles cohérents entre eux, il peut être prématuré de parler de consensus scientifique ? Un seul fait, observé en un seul lieu par un seul scientifique, peut suffire à mettre à bas une théorie, s’il s’avère être incontournable, correctement observé et interprété. Force est donc de reposer ici cette question. Comment le climat a-t-il évolué ? Cette évolution est-elle synchrone de l’industrialisation (depuis1850) ? L’évolution des marqueurs du climat est-elle conforme à celle des GES, le CO2 en particulier, mais aussi les autres gaz dont l’eau (de loin la plus abondante) et ceux, beaucoup moins abondants mais dont le rôle peut aussi être primordial en raison de leur fort pouvoir de réchauffement (tableau 2). Rappelons la concentration en vapeur d’eau, même si cette valeur moyenne n’a pas grande signification car, nous l’avons souligné, cette concentration varie beaucoup d’un point à un autre ; elle est de 5400 ppmV. Celle du CO2 atteint maintenant 380 ppmv. En termes de potentiel de réchauffement planétaire (tableau 2) le CO2 représente donc environ 1% de celui de la vapeur d’eau. Celui du CH4, 37 16/10/12 Les varves sont des dépôts sédimentaires laminaires très fins, où chaque lamine correspond à une alternance de deux termes, un dépôt d’été et un dépôt d’hiver présent en moyenne à 1.8 ppmv dans notre atmosphère en représente environ 0.1%, et celui de N2O (0.32 ppmv) environ 0.2%. L’effet de serre responsable de la température moyenne terrestre de 13°C calculée précédemment (Chp 5.B.1.b) trouve donc bien son origine, très majoritairement, dans la vapeur d’eau atmosphérique. Le fait que la covariation de la température moyenne avec la concentration en CO2 soit globalement évidente est considéré de nos jours comme la preuve que le CO2 anthropique est la cause principale de l’augmentation de la température terrestre. Les paléoclimatologues ont montré depuis environ 15 ans que des évolutions climatiques majeures se sont produites bien avant l'ère industrielle ; les courbes d’évolution (e.g. J.R. Petit et al. 1999, Fig. 7) sont caractéristiques. Le climat terrestre, enregistré par la composition des glaces de l’inlandsis (rapport 18O/16O retranscrit en évolution des températures) et celle des bulles d’air piégées (concentration en CO2), apparaît cyclique à l’échelle de la centaine de milliers d’années (cf. § F4b, ce chapitre). On observera aisément dans la figure 7 la covariation de la température et le CO2, elle est remarquable à cette échelle, comme le montre la superposition de la courbe du CO2 (tireté rouge) sur celle des températures (en bleu). Lorsque l’on entre dans un interglaciaire, la remontée de la température et l’augmentation du CO2 atmosphérique sont très clairement corrélées. Par contre les chutes de la température du début des périodes froides sont beaucoup plus rapides que les diminutions de la concentration en CO2. Le retard à la baisse du CO2, qui apparaît être d’au moins 10000 à 20000 ans, contraste avec la quasi simultanéité des deux phénomènes lors des réchauffements. Toutefois, et ce point est essentiel, ces covariations lors du réchauffement sont elles aussi non synchrones. L’augmentation de la température précède l’augmentation de teneur en CO2 ; le décalage est à peu près constant, de quelques centaines d’années (moins de 1000 ans ; Nicolas Caillon et al 2003). Ce phénomène n’est pas observable à l’échelle de la figure 7). Lors de ces paléovariations, la teneur en CO2 de l’atmosphère a donc été le corollaire et non la cause de l’augmentation de la température ; mais cela ne signifie pas que l’inverse soit impossible, ce qui se passerait - 102 - ENSM-SE, 2° A : axe transverse P N Fig. 8a : variation de la teneur en CO2 pour les 20 000 ans BP, 1) d’après le rapport du GIEC 2007, données Antarctic (violet) et actuelles (vert puis rouge) ; report des limites ci-dessous (vert) 2) Données NOAA GISP2 Groenland (vert) et Antarctic (rouge). actuellement38. Le même diachronisme températureteneur existe aussi pour le méthane (CH4) dans les glaces. L’augmentation en CH4 de l’atmosphère avec le réchauffement à la fin des périodes froides est attribuée à la fonte du permafrost. Lors des épisodes de refroidissement et de gel du sous-sol, le stockage cryosphérique du dioxyde de carbone et du méthane serait un processus beaucoup plus progressif. sols de la planète. Par conséquent, la fonte du pergélisol (autre nom du permafrost) par augmentation de l’effet de serre pourrait être suivie d’émissions à grande échelle de méthane ou de dioxyde de carbone, provoquant un feedback positif sur les températures. Dans les scénarios plus ou moins catastrophiques que l’on nous promet, de telles émissions pourraient être supérieures à celles produites par les carburants fossiles. Les différences essentielles qui accompagnent l’évolution de l’atmosphère actuelle par rapport à celle de l’atmosphère ancienne résident donc d’abord i) dans le fait que l’augmentation actuelle de la température est considérée comme induite par celle de la concentration en GES et ii) dans le fait que les deux phénomènes sont quasi synchrones à l’échelle de l’activité humaine. Elles résident ensuite dans l’amplitude des variations ; d’après les mesures effectuées dans les glaces de l’Antarctique et du Groenland, on dit souvent que les valeurs maximales « naturelles » de CO2 n’avaient jamais dépassé 300-320 ppmv (Fig. 7 et 8a-2), valeur que nous avons atteinte en 1900 sur la courbe de la figure 12 (p. 96) et que nous avons largement dépassées depuis. Aussi, la concentration actuelle en CO2 dans l’atmosphère de 370-380 ppmv a-t-elle été souvent considérée comme le témoin irréfutable de l’impact de l’activité humaine. La concomitance de cette ultime et brutale variation avec l’ère industrielle (environ 200 ppm) est indubitable (Fig. 8a-1) Dire que cette valeur n’a jamais été dépassée mérite néanmoins d’être nuancé : 1 - Concernant la période industrielle, nombre de voix discordantes se font entendre ; prenons pour exemple E.G. Beck, 2007 (cf. fig. 12), qui considère que les courbes d’évolution du CO2 atmosphérique sont insuffisamment renseignées par l’étude des glaces (e.g. Fig. 8a1), et qu’il faut prendre en compte l’ensemble des données historiques fiables. Ainsi, les données sur les glaces du Groenland (GISP2) sont certes moins complètes que celle tirées des glaces de l’Antarctique (Vostok) mais elles montrent que dans la période 10000 à 12000 ans BP, la teneur en CO2 de l’atmosphère a atteint plusieurs fois 320325 ppm, ce qui correspond dans l’augmentation moderne du CO2 à la teneur atteinte aux environs de 1970 dans la figure 12, et à quasiment 1W. m-2 en terme de contribution de chaleur (« radiative forcing » dans la figure 8a-1) par rapport à l’état pré-industriel, c'est-à-dire environ ⅔ du réchauffement climatique attribué à notre espèce. Actuellement, le sol gelé des hautes latitudes de Sibérie et d’Alaska contiendrait encore 30% (ou plus, sous forme d’hydrates de gaz) de tout le carbone stocké dans les 38 Revenant à la figure 7, qui analyse les fluctuations préhumaines du CO2 et de la température. On note qu’à une amplitude de variation thermique de 10°C correspond une variation de la concentration en CO2 de 100 ppmv. Cette amplitude de la variation de température en fonction de celle du CO2 est dont très au-delà de l’actuelle, dont le rapport du GIEC38 estime que pour le XX° siècle elle est de +0.6°C pour un accroissement en CO2 du même ordre de grandeur, 100 ppmv. Force est donc de constater que la réponse du climat actuel à notre injection massive de GES durant le XX° siècle est considérablement plus faible que ce que les archives des glaces polaires ont enregistré. La cause ne peut en être le temps d’homogénéisation de l’atmosphère puisqu’il y aurait plus d’un ½ siècle entre le début de l’injection massive de CO2 et la réponse de l’atmosphère. L’écart à la linéarité entre ces 2 paramètres est-il si important qu’il signifie que l’on va vers une asymptote de température? Pour quelle raison? La figure 5 suggère que, dans la gamme des longueurs d’ondes émises par la Terre, les raies d’absorption du CO2 ne sont pas complètement « bouchées » mais que l’on s’en approche… Est-ce suffisant ? 16/10/12 Fig.8b : RCO2 = Rapport des teneurs de CO2 avec le niveau de concentration de1900 - 103 - ENSM-SE, 2° A : axe transverse P N 16/10/12 2 - Concernant toute l’histoire de la Terre Fig. 9 : Température de l’Océan et Concentration en CO2 dans l’atmosphère (Fig. 8b), depuis l’explosion de la vie depuis 65 Ma, in IPCC AR4 Chp 6, Fig. 6.1 (600 Ma., début du Primaire) jusqu’à la deuxième partie du tertiaire, les paléoclimatologues ont montré que l’atmosphère terrestre a connu des teneurs en CO2 beaucoup plus élevées que de nos jours (Fig. 8b) qui apparaissent difficilement corrélables aux températures et aux niveaux des océans. En effet, au début du Primaire, lors de l’explosion de la vie Cambrienne et de sa diversification, la teneur en CO2 de l’atmosphère était 20 fois supérieure à la concentration actuelle. Elle l’était 5 fois seulement au Crétacé, pour des températures de 910°C de plus qu’aujourd’hui (Scortese et Mc Kerrow, ou S. Manoliu et M. Rotaru Fig.75). Arrêtons nous sur les derniers 100 Ma. Le climat terrestre a considérablement changé durant cette période. On se situe jusqu’à la fin du Paléocène dans une période de température décroissante mais encore chaude, sans incidence notable de l’accident à 65Ma de la météorite de Chixculub, responsable de la crise du vivant entre crétacé et Tertiaire. Durant cette période, le continent indien s’est détaché et remonte vers le Nord, créant l’océan indien, et progressivement le bloc Antarctique-Australie prend une position quasi polaire. Avec l’Oligocène, on entre dans la période froide, marquée par l’existence de calottes polaires. Dans la figure 9, issue de IPCC 2010, sont représentées ii) 330à 270, la plus longue, et iii) les 30 derniers la teneur en CO2 et l’étendue des glaciations d’après Ma. Concernant cette dernière période, Y. Crowley 1998 (exprimée en latitude, en bleu) pour les Lagabrielle et al. 2009 ont mis en évidence le rôle derniers 400 Ma. La teneur en CO2 est représentée de l’isolement progressif du continent Antarctique pour différents proxies compilés par Royer 2006, et et sa migration vers le pôle (ouverture du passage l’on y retrouve (en vert) le domaine plausible (en rose de Drake entre 43 et 10 Ma, §E5, Fig. 53a) dans la dans la figure 8b) tiré du modèle GEOCARB III39 de dernière entrée en glaciation de la Terre (Fig. 53b). Berner et Kothavala (2001). La chute de la température, d’abord douce durant l’Oligocène, Dans les figures 7 et 9, la température n’est pas devient abrupte à 33.7 Ma. Cette transition est appelée mesurée directement mais monitorée par des proxies, mot « Eocène-Oligocène Boundary » (EOB). Elle est anglais utilisé pour qualifier des variables capables de accompagnée d’une diminution très importante de la donner l’image d’une autre variable dont la mesure directe concentration atmosphérique en CO2. Une fois encore, est impossible. Par exemple, on utilise le rapport 18O/16O un diachronisme léger apparaît entre la cassure (Fig. 18 9, tireté violet) de la courbe de la température et celle (δ O) de la glace, parce qu’il est largement dépendant de de la courbe du CO2 la plus précise, celle du la température qui règne au moment de la formation de la phytoplancton (Fig. 9, tireté bleu). Notez aussi que la glace. Le fonctionnement de ce proxi est le suivant (Fig. 10a). Nous avons vu (Chp. 2.C.2) que le rapport présence de calottes glaciaires, banquises ou inlandsis, 18 O/16O est fractionné significativement lors de n’est pas une constante de l’histoire de la Terre. Au contraire, les périodes sans glaces polaires ont été l'évaporation et de la précipitation; l’isotope léger étant nettement plus longues que les 3 périodes présentant favorisé dans l’état gazeux. L'eau du réservoir se trouve ainsi déprimée en isotopes lourds des pôles englacés, i) quelques Ma autour de 350 Ma, atmosphérique 18 18 O et D (δ O et δD <0, Fig. 10a) par rapport à l'eau du réservoir océanique, et l'eau de pluie (ou la neige) est enrichie en isotopes lourds par rapport à l'eau 39 Notez que la représentation IPCC de GEOCARB III, atmosphérique. Avec le transport de l'air à travers les limitée à 400 Ma, ampute celle-là de valeurs plausibles des cellules convectives (Hadley, Ferrel, et cellule polaire, cf. concentrations en CO2 les plus hautes jamais atteintes sur § 5.D) et les précipitations successives qu'il peut subir terre. - 104 - ENSM-SE, 2° A : axe transverse P N Fig. 10a : Effet des precipitation sur les valeurs de δ H et δ18O (based on Hoefs 1997 and Coplen et al. 2000) 16/10/12 2 http://www.sahra.arizona.edu/programs/isotopes/oxygen.html pendant son transport, l’air évaporé sous les basses latitudes voit ainsi son rapport 18O/16O décroître en remontant vers le nord (Fig. 10b). Vient s’ajouter l’effet de la température de l’atmosphère, qui exerce un contrôle très fort sur la composition isotopique de l’eau de pluie. Avec l’augmentation de la température, les précipitations s’enrichissent linéairement (0.5‰ par C° pour d18O) en isotopes lourds 18O et 2H (D) par rapport aux léger 16O et 1H (Fig. 10c). Lorsqu’il atteint une latitude suffisamment haute, cet air précipite finalement en neige et constitue un réservoir solide (apparenté à la géosphère) aux propriétés isotopiques très différentes de celles de l'océan au dessus duquel il s’était évaporé. Durant les périodes glaciaires, le stockage d'un énorme volume de glace provoque en corollaire un enrichissement de l'eau océanique en 18O par rapport à 16O. Inversement pendant les périodes chaudes, un déstockage de 16 O a lieu. Dans le cas de mesures faites à partir de sédiments, le proxi δ18O utilisé est celui de la mesure sur des coquilles fossilisées. Les organismes tirant leur coquille du réservoir océanique, on considère qu’il s’agit d’un processus de fractionnement d’équilibre chimique (cf. Chp. 2.C.2.a). La valeur recherchée étant celle de la température de surface de la mer à l’époque de la construction de ces coquilles, on utilise surtout les espèces planctoniques pélagiques (vivant à la surface loin des côtes) et on élimine les espèces benthiques (vivant sur le fond) qui donneraient la température du fond de l’océan au moment considéré. Hiatus entre i) les modèles climatiques actuels qui nous promettent une augmentation de 6°C pour seulement un doublement de la teneur actuelle en CO2 et ii) la paléoclimatologie qui nous informe de variations bien moindres ? Hiatus entre i) le discours qui affirme que les températures actuelles sont responsables de la disparition Fig. 10b : carte des δD et δ18O pour les précipitations en Amérique du Nord ; observer la distillation isotopique SE NW depuis le golfe du Mexique, précipitations qui couvrent l’essentiel du territoire contrairement aux pluies du Pacifique irréversible d’une banquise garante de la circulation océanique et ii) la paléogéographie qui nous renseigne sur le rôle à long terme de la distribution des masses continentales ? Hiatus entre i) l’affirmation que les teneurs actuelles en CO2 de notre atmosphère sont sans précédent, qu’elles nous entraînent vers des augmentations de température irréversibles préjudiciables à la vie et ii) l’histoire de la vie sur la Terre? Hiatus ? Peu importe, le fait est réel, le climat terrestre change, il a toujours changé. Il convient d’essayer d’évaluer la part humaine dans ce « dérèglement ». Nous comparerons donc les courbes de l’évolution récente de la température de notre atmosphère avec celle de trois paramètres essentiels (Fig. 12) : 1 - la concentration de l’atmosphère en GES, CH4, CO2, SO2 et N2O ; 2 - l’émission du CO2 liée la consommation des énergies fossiles, ou bien (très similaire) la production des combustibles fossiles, depuis le début du XVIII°. 3 - l’activité de notre étoile, dont nous savons qu’elle procure l’essentiel de l’énergie disponible dans notre atmosphère ; si les conditions de distance au Soleil et de luminance de celui-ci sont les facteurs clef qui ont permis l’apparition de la vie sur Terre on peut supposer que des fluctuations, mêmes mineures, de ces paramètres peuvent influer sur le climat. 1) Le Dioxyde de Carbone Considérons tout d’abord le GES principal, le CO2. Il a atteint 392.41 ppmv en Août 1992 dans l’atmosphère Fig. 10c : (Clark and Fritz 1997, p. 37, as compiled in Rozanski et al. 1993, modified by permission of American Geophysical Union). Variation du δ18O d’une pluie subissant une distillation de Rayleigh. Conditions initiales : eau vapeur est δ18Ovapor = -11‰, T° = 25°C. Température finale -30°C. à 0°C, le fractionement neige- eau vapeur remplace le fractionnement liquide-vapeur. Les lignes pointillées relient δ18O de précipitation et température de condensation. http://www.sahra.arizona.edu/programs/isotopes/oxygen.html in Géologie isotopique 2005 - 105 - ENSM-SE, 2° A : axe transverse P N du Mona Loa (http://www.esrl.noaa.gov/gmd/ccgg/trends), soit 1.34 pmm de plus qu’il y a un an en Août, ne traduisant aucune inflexion dans l’augmentation du CO2 atmosphérique depuis 1995 (Fig. 11a, régression linéaire R2 = 0.9983). Cette apparente linéarité n’est en fait due qu’au laps de temps des observations choisi. Si l’on prend l’ensemble des mesures acquise par la NOAA sur le Mona Loa, qui débutent en 1959 (Fig. 11b), on observe qu’une augmentation quasi constante (régression du 2° degré, R2 = 0.9992, point de rebroussement 1928 ; 306.4 ppmv) « fit » remarquablement le trend du CO2 atmosphérique pour toute la période 1959 à nos jours. En retour sur le figure 11a, notez qu’une régression du 2° degré sur ce petit segment de données apporte un léger bénéfice par rapport à la régression linéaire, R2 = 0.9988, confirmant que l’accélération constante du taux de CO2 dans l’atmosphère reste de règle, malgré les différents accords pris à grand renfort de médiatisation. • • Il n’est peut-être pas inutile de rappeler ici l’ensemble des efforts consentis depuis plus de 30 ans. Les informations qui suivent sont tirées de la librairie du citoyen, documentation française http://www.ladocumentationfrancaise.fr : • • • 1979, Genève, 1° conférence mondiale sur le changement climatique. Lancement d’un Programme de recherche climatologique mondial. • 1987, Montréal, décision d’interdire la production et l’utilisation des CFC ; • 1988, création du GIEC = IPCC (en anglais), chargé du suivi scientifique des processus de réchauffement climatique ; • 1990, La Haye, les états européens s’engagent à • Fig. 11 a-b : CO2 de l’air, données NOAA, la mesure du CO2 sur la Mona Loa (4170m), Hawaï, a débuté en 1959. Les valeurs utilisées sont les moyennes annuelles de ce site. • • • a) Evolution de la concentraion en CO2 depuis 1995 • • • • 16/10/12 stabiliser leurs émissions de CO2 au niveau de 1990 d’ici à 2000 ; 1° rapport du GIEC : bilan des connaissances scientifiques. 1992, Rio, 1° sommet de la terre, 131 chefs d’Etat adoptent l’Agenda 2140, l’objectif de la convention Climat, ratifiée par 50 Etats, est de stabiliser les concentrations atmosphériques des GES à un niveau « qui empêche toute perturbation humaine dangereuse du système climatique ». 1995, Berlin : 1ère Conférence des Parties à la Convention Climat (COP 1) ; adoption du principe des quotas d'émissions de GES. 2° rapport du GIEC : confirmation du rôle des activités humaines sur les changements climatiques. Prévisions d’ici à 2100 : réchauffement moyen de 1 à 3, 5°C; montée du niveau de la mer de 15 à 95 cm. 1996, Genève, 2° conférence mondiale sur le changement climatique, COP2. 1997, New-York, dit Rio+5, 2ème sommet de la terre, désaccord entre l’Union européenne et les Etats-Unis sur la réduction des GES. Kyoto, 3° conférence mondiale sur le changement climatique, COP3. Adoption du dit « protocole de Kyoto » qui engage les 38 pays industrialisés (Etats-Unis, Canada, Japon, pays de l'UE, ancien bloc communiste) à réduire les émissions de GES de 5.2% en moyenne d’ici 2012, par rapport au niveau de 1990. 1998, Buenos Aires, 4° conférence mondiale sur le changement climatique, COP4. les pays industrialisés, seuls concernés dans un premier temps par le Protocole de Kyoto, adoptent un plan d’action destiné à relancer les mesures décidées à Kyoto. Les Etats-Unis signent le Protocole de Kyoto. 1999, Bonn, 5° conférence mondiale sur le changement climatique, CPO5. 2000, La Haye, 6° conférence mondiale sur le changement climatique, COP6. Echec à trouver un accord sur la mise en œuvre des mesures adoptées à Kyoto. 2001, 3° rapport du GIEC.G.W. Bush s’oppose au Protocole de Kyoto et refuse la réglementation des émissions de GES.Marrakech, 7° Conférence des Nations unies sur les changements climatiques, COP7. Des moyens techniques et financiers sont débloqués en faveur des pays en développement. 2002, New Delhi, 8° Conférence des Nations unies sur les changements climatiques, COP8. L'Union européenne, puis le Japon ratifient le protocole de Kyoto. 2003, Milan, 9° Conférence des Nations unies sur les changements climatiques, COP 9. 2004, Buenos Aires, 10° Conférence des Nations unies sur les changements climatiques, COP 10. La Russie ratifie le protocole de Kyoto. 2005, Montréal, 11° Conférence des Nations unies b) Evolution de la concentration en CO2 depuis 1959 40 - 106 - 2500 recommandations d’action pour le XXI° siècle. ENSM-SE, 2° A : axe transverse P N • • • • sur les changements climatiques, COP 11. Entrée en vigueur du protocole de Kyoto signé en 1997. Il a donc été ratifié par 141 pays dont 36 pays industrialisés, à l'exception des Etats-Unis et de l'Australie (soit 1/3 des émissions de GES). Ils sont néanmoins tenus de réduire de 5.2% leurs émissions de CO2 et de cinq autres GES. 2006, Sydney, 1° réunion du Partenariat AsiePacifique sur le développement propre et le climat : Ce Partenariat, formé en juillet 2005, regroupe les Etats-Unis, l'Australie et quatre pays d'Asie : Chine, Japon, Inde et Corée du Sud, soit ½ des émissions de GES dans le monde. Objectif de ce Partenariat « que la lutte contre le réchauffement climatique ne freine pas la croissance économique ». Nairobi, 12° Conférence des Nations unies sur les changements climatiques, COP 12. La révision du protocole de Kyoto (fondée sur le 4° rapport du GIEC, à paraître en 2007) commencera en 2008, pour définir les implications du protocole au-delà de 2012. 2007, 4° rapport du GIEC. Il établit la responsabilité humaine dans le réchauffement climatique. Perspectives pour la fin du XXI° siècle : augmentation moyenne de 1.8°C à 4°C, pouvant aller j’à 6.4°C ; hausse du niveau des océans de près de 60 cm ; généralisation de vagues de chaleur et d'épisodes de fortes précipitations. Il met en garde contre les conséquences « soudaines », voire « irréversibles » du réchauffement en cours. Bali, 13° Conférence des Nations unies sur les changements climatiques, COP 13. Elle met en place une « feuille de route » devant aboutir en 2009, à Copenhague, à un nouveau traité, qui prendra la suite du Protocole de Kyoto, qui vient à échéance en 2012. Les parties reconnaissent que « des réductions sévères des émissions mondiales devront être conduites ». 2008, Bangkok, 161 pays ouvrent un nouveau cycle de négociations pour répondre aux objectifs fixés par la feuille de route du traité de Copenhague. Poznam, 14° Conférence des Nations unies sur les changements climatiques, COP 14. Création d'un Fonds d'aide aux pays pauvres menacés par les conséquences du réchauffement, 80 millions de dollars. Bruxelles, l’UE adopte un « paquet énergie climat », plan de lutte pour la période 2013-2020, objectifs : diminution de 20% des émissions de GES, augmentation à 20% de la part des énergies renouvelables et amélioration de 20% de l’efficacité énergétique de l’Union européenne. 2009, Bonn, 2° réunion, 183 pays participent à la feuille de route pour le traité de Copenhague. Le Brésil, la Chine, l’Inde et l’Afrique du Sud ne souscriront pas au futur traité et refuseront des objectifs domestiques de baisses de leurs propres émissions, tant que les pays industrialisés n’auront pas adopté les réductions préconisées par le GIEC, soit moins 40% en 2020 par rapport à 1990. Copenhague, 15° Conférence des Nations unies sur les changements climatiques, COP 15. 193 pays réunis adoptent un texte juridiquement non contraignant, mis au point par les Etats-Unis et 4 pays émergents, la Chine, le Brésil, l'Inde et 16/10/12 l'Afrique du Sud. Ce texte affirme la nécessité de limiter le réchauffement planétaire à 2°C par rapport à l’ère pré-industrielle mais ne comporte aucun engagement chiffré de réduction des émissions de gaz à effet de serre. • 2010. Cancun, 16° Conférence des Nations unies sur les changements climatiques, COP 16. 192 pays mettent en place à la quasi unanimité (sauf la Bolivie), une série de mécanismes financiers pour lutter contre le réchauffement climatique et promouvoir l'adaptation à ses effets. On voit ici apparaître la notion de mitigation. un « Fonds vert » est créé pour soutenir les projets, programmes et politiques d'adaptation des pays en développement. La mise en place du mécanisme REDD (Ressources pour le développement durable) qui consiste à rémunérer financièrement les populations locales impliquées dans la gestion des forêts. Rien pour prolonger le protocole de Kyoto au delà de 2012. • 2011, Durban, 17° Conférence des Nations unies sur les changements climatiques COP 17. Elle se conclut sur la mise en œuvre d’une nouvelle feuille de route, en vue d’un accord prévoyant d’établir d’ici à 2015 un pacte global de réduction des émissions des GES, avec une entrée en vigueur prévue à l'horizon 2020. D’ici là, la feuille de route prévoit la prolongation du protocole de Kyoto. Le texte englobe pour la première fois tous les pays dans la lutte contre le réchauffement climatique, y compris les plus gros pollueurs, la Chine, l'Inde et les Etats-Unis... Ni contrainte juridique, ni hausse du niveau des mesures pour réduire les émissions de GES ne sont prévues… gaz à effet de serre, afin de limiter le réchauffement sous le seuil de 2°C. le « Fonds Vert » est officiellement créé. • 2012, Doha, 18° Conférence des Nations unies sur les changements climatiques, COP18, dit aussi Sommet de la terre « Rio + 20 ». Le rapport « Geo-5 » montre que, sur 90 objectifs prioritaires définis en 1992, seulement 4 ont connu des progrès significatifs, dont celui relatif à la couche d’ozone. Geo-5 confirme que l'objectif de réduction des émissions de GES n'a pas connu de progrès et que ceux-ci devraient doubler d’ici 2050. En résumé, concernant le CO2 — cible principale du GIEC et des Etats participants à la lutte contre l’augmentation des GES, responsables du changement climatique — la totalité des résultats obtenus par l’ensemble des conférences, conventions ou accords conduits depuis plus de 30 ans est résumée par la figure 11b. Nous avons vu que les mesures de concentration en CO2 dans l’air du Mona Loa permettent d’accéder à une valeur moyenne de l’atmosphère pour les 60 et quelques dernières années. Pour les années qui précèdent, on recourt le plus souvent aux mesures de concentration des gaz des bulles de la glace. Pourtant, des mesures de teneur de CO2 dans l’air étaient effectuées dans les laboratoires de chimie des pays développés. Ces mesures opérées au XIX° par des chimistes n’ont pas été utilisées dans les études sur le changement climatique. Les méthodes employées à l’époque sont encore considérées comme précises (± 6 - 107 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Fig. 11e : distribution spatiale et temporelle du CO2 dans l’atmosphère, pour les années 1999 à 2006,.NOAA. Fig. 11c : CO2 de l’air, E.G. Beck, 2007 ppmv en 1857) et elles nous offrent une image avec un pas de temps (Fig. 11c, courbe bleue) que les glaces ou les sédiments ne peuvent atteindre (petites + dans la figure). Mais elles ne couvrent que les régions économiquement développées à l’époque. D’une part elles ne peuvent être considérées comme des moyennes planétaires et d’autre part les régions couvertes étaient potentiellement polluées. Détaillons la courbe de concentration en CO2 atmosphérique, depuis les premières valeurs reconnues comme acceptables (1812) à nos jours. L’utilisation des données des glaces de l’Antarctique permettent une reconstruction assez fine de l’évolution de la concentration. Avant 1850, la courbe du CO2 montre une augmentation très lente (Fig. 11c et Fig. 17, p. 108), probablement liée à l’accroissement régulier de la biomasse cultivée. De 1850 à 1950, (Fig. 11d et Fig. 17, données GIEC) l’augmentation du CO2 est encore presque linéaire mais elle est un peu plus forte que précédemment. Cela suggère que la teneur en CO2 dans l’atmosphère augmente peu après avec le décollage de la consommation de charbon. La rupture de pente, vers 1950-1960 dans les figures 11d et 12 paraît assez brutale ; Il est à noter que le minimum calculé de la courbe de régression du 2° degré de la figure 11b sur les valeurs du Mona Loa passe par le minimum de 306.4 ppmv à la date 1928. Figurés en vert sur la figure 11d, ils sont parfaitement « raccord » avec les valeurs de la période précédente, confirmant que la 2° rupture de pente doit se situer à cette période, disons entre 1930 et 1960. Cela semble bien devoir être mis en relation avec l’explosion de la consommation de pétrole et de gaz (voir Fig. 17, World Energy consumption). L’accroissement de la consommation de charbon reste quant-à lui à peu près linéaire depuis le creux de la fin de la 2° guerre. La corrélation positive entre la Fig. 11d : Evolution de la concentration en CO2 de l’atmosphère depuis l’ère industrielle ; sources Moa Loa (Hawaï) et bulles d’air dans la glace de l’Antarctique Noter la faible amplitude des variations saisonnières en hémisphère Sud et l’inversion Nord-Sud ; noter l’accroissement pluriannuel de la concentration. http://www.esrl.noaa.gov/gmd/ccgg/about/global_means.html concentration en CO2 atmosphérique et dilapidation des ressources fossiles apparaît donc clairement établie et non équivoque. En outre, le décalage dans le temps du point de rupture dans les 2 courbes implique que la dispersion dans l’atmosphère terrestre du CO2 est très rapide et n’excède pas 5 à 10 ans. En corollaire, l’influence des phénomènes volcaniques sur la concentration du CO2 atmosphérique est non observable sur ces courbes. Elle est probablement masquée par notre activité. Quant-à la distribution spatiale du CO2 dans l’atmosphère terrestre, la représentation largement diffusée de l’évolution dans le temps de la moyenne annuelle des concentrations sur le Mona-Loa pourrait laisser croire à une homogénéité spatiale et temporelle qui n’ont rien d’exact. La variation saisonnière (été CO2 pauvre / hiver CO2 riche) est la plus connue ; elle est souvent présentée (sinusoïde, e.g. Fig. 11d) pour les mesures sur le Mona Loa. La variation spatiale, quoique largement documentée, est plus rarement présentée. Dans sa représentation matricielle (Fig. 11e), on observe très nettement la dissymétrie Nord-Sud qui reflète la distribution des masses continentales. Confirmant ce fait, l’amplitude de la sinusoïde de période annuelle, très faible aux latitudes Sud, s’inverse en traversant l’équateur et croît très vite pour devenir maximum au niveau tropical. Elle reste ensuite très marquée jusqu’à une latitude élevée. Une telle représentation ne tient pas compte d’éventuelles variations longitudinales. Cette hétérogénéité Nord Sud et cette oscillation annuelle résultent bien sûr principalement du dégagement de CO2 par la respiration de la biosphère (massivement continentale) et inversement de la photosynthèse végétale qui opère un pompage du CO2 atmosphérique, essentiellement continental et dont l’activité saisonnière s’inverse entre les 2 hémisphères. La figure 11e montre que l’amplitude de la variation annuelle est, au maximum d’environ 15 ppmv, et que cette variation ne masque pas la tendance à l’augmentation moyenne décrite plus avant. La figure nous informe aussi sur l’homogénéisation de notre atmosphère : i) le contraste entre les 2 hémisphères montre la relative étanchéité des deux réservoirs, qui ne sont pas homogénéisés à l’échelle - 108 - ENSM-SE, 2° A : axe transverse P N annuelle ; ii) le contraste saisonnier, en particulier dans l’hémisphère Nord, montre que le CO2 dégagé par la respiration est largement et rapidement soustrait de l’atmosphère, dont le niveau bas en concentration se situe au niveau de celui de l’hémisphère Sud. 16/10/12 Fig. 12a-b : Courbes d’évolution des teneurs en CH4 dans l’atmosphère ; notez l’unité, 1 ppb = 1.10-3 ppm 2) Le Méthane Les rapports du GIEC indiquent que la concentration atmosphérique mondiale de CH4 est passée d’environ 715 ppb à l’époque préindustrielle à 1 732 ppb au début des années 1990, pour atteindre 1 774 ppb en 2005. La figure 12a (empruntée au Trinitry College) reprend les données des auteurs de « A Compendium of Data on Global Change41. Carbon Dioxide Information Analysis Center, Oak Ridge National Laboratory, U.S. Department of Energy, Oak Ridge, TN, USA. ». Ces mesures effectuées dans les carottes de glace montrent une teneur constante entre 1000 et 1700, puis un accroissement très fort à partir de l’ère industrielle. L’apparente constance pré-industrielle est toutefois un leurre, dissipé par la figure 12b qui montre que si le CH4 est un GES puissant (dont la teneur actuelle équivaut à 35-40 ppm de CO2, cf. tableau 2), il est aussi naturellement très dépendant du climat. En effet, la première source de méthane réside dans la biochimie des zones humides naturelles (actuellement >30% des émissions), à l’origine des variations observables dans la figure 12b (oscillation entre 350 et 700 ppb). Les autres sources sont principalement agricoles, et l’on retrouve dans l’atmosphère récente l’augmentation de la consommation de biomasse méthanogène, le riz en particulier (qui dégage autant de méthane que la moitié de l’ensemble des zones humides naturelles, soit environ 15%) et celle de l’élevage bovin souvent mis en cause (actuellement environ 15%). Vient enfin la contribution industrielle via les combustibles fossiles, contribution désormais majeure (environ 20%). Comme pour le CO2, qui, lui aussi, présente depuis 1850 une causalité humaine, on observe une covariation étroite de la concentration en CH4 (et du CO2) avec l’évolution de la population mondiale (Fig. 14). Dans le cas du CH4, celle-ci s’interrompt vers 1990. Le taux d’accroissement de la teneur en CH4 chute alors et devient même quasi nul entre 2000 et 2007. Puis, le méthane est reparti brutalement à la hausse. Pour les auteurs, la première raison de l’arrêt de la croissance de la teneur en CH4 réside dans l’amélioration des pratiques agricoles. Quant à son redémarrage en 2007, les variations imputables à notre espèce ne pouvant excéder quelques % par an, un tel comportement doit avoir des causes naturelles ? Le permafrost (partie toujours gelée du sol dans les régions polaires) est suspecté contenir jusqu’à 30% du carbone piégé dans géosphère. On s’attend donc à ce qu’un réchauffement significatif induise un relargage important de CH4 s’il vient à fondre. Il fut donc le 1° suspecté, et sa dénonciation offrait 41 Data Source: D.M. Etheridge, L.P. Steele, R.J. Francey, and R.L. Langenfelds. 2002. Historical CH4 Records Since About 1000 A.D. From Ice Core Data. In Trends: A Compendium of Data on Global Change. Carbon Dioxide Information Analysis Center, Oak Ridge National Laboratory, U.S. Department of Energy, Oak Ridge, Tenn., USA. and Steele, L. P., P. B. Krummel and R. L. Langenfelds. 2002. Atmospheric CH4 concentrations from sites in the CSIRO Atmospheric Research GASLAB air sampling network (October 2002 version) a) http://www.trunity.net/weatherandclimate/articles/view/171440/ b) synchronisme des variations de teneur en CO2 et en CH4 avec le climat par là même la preuve d’un feedback très attendu. En 2008, Mat Rigby et al. ont montré que l’augmentation du CH4 était générale sur la planète, alors que le permafrost susceptible de dégeler est essentiellement situé en zone Arctique. Depuis lors, Dlugokencky et al. 2009, puis Bousquet et al. 2010, ont montré que la reprise de l’augmentation de la teneur en CH4 est due très probablement d’abord, en 2007, à une suractivité des zones humides nordiques, puis, en 2008, à une suractivité des zones humides tropicales Nord et Sud. Ainsi nous pouvons conclure avec Dlugokencky et al.que « nous n’avons sans-doute pas encore activé le fort effet de feedback climatique » attendu avec la fonte du permafrost. Enfin, cette ré-augmentation des émissions pourrait aussi provenir de l’accroissement de la consommation de combustibles fossiles depuis 2006 dans le nord de l'Asie. La question est encore largement ouverte… Le CH4 présente (Fig. 12c, page suivante), plus encore que le CO2, un fort contraste entre les hémisphères Nord et Sud. La variation saisonnière est à peu près de même amplitude dans les 2 hémisphères. Elle est moins importante que celle du CO2 (en hémisphère Nord) mais reste significative et légèrement décalée par rapport à la sinusoïde du CO2 ; pour l’hémisphère Nord toujours, le maximum se situe vers mars et le minimum vers août. Le CH4 est presque principalement produit en hémisphère Nord, puis transféré pour partie vers le Sud. Le puits majeur d’absorption du CH4 est la réaction avec l’oxygène excité O(1D) + CH4 ⇒ OH + CH3 ; nous verrons au paragraphe stratosphère que cette réaction joue un rôle important dans le cycle de l’ozone (O3). Le second puits - 109 - ENSM-SE, 2° A : axe transverse P N Fig. 12c : distribution spatiale et temporelle du CH4 dans l’atmosphère, pour les années 1984 à 2010,NOAA. Noter la faible différence d’amplitude des variations saisonnières entre hémisphère Sud et Nord par rapport au CO2. Noter l’inversion Nord-Sud ; noter la stabilisation de l’accroissement pluriannuel de la concentration entre 2000 et 2006 et son redémarrage en 2007 http://www.noaanews.noaa.gov/stories2006/s2709.htm de méthane est le radical hydroxyle OH- ; dans la stratosphère, très sèche, CH4 + OH- ⇒ CH3 + H2O. Cette réaction d’oxydation du méthane conduit donc à la production d’eau, qui est aussi un GES, moins puissant et aux effets limités. 3) Le Protoxyde d’Azote et le Dioxyde de Soufre La concentration atmosphérique globale de N2O est passée de 270 ppb à l’époque préindustrielle à 319 ppb en 2005 (GIEC 2007, Fig. 13), équivalent à 100ppm de CO2 (pouvoir réchauffant = 310 fois celui du CO2, tableau 2). Le protoxyde d’azote gazeux naturel provient des océans ; d’origine biologique il est produit par dénitrification dans les milieux anaérobies et par nitrification dans les milieux aérobies. 1/3 seulement des émissions totales de N2O sont anthropogéniques. Le « fit » de la courbe du N2O avec celle de la croissance démographique (Fig. 14) est donc logiquement moins bon que celui du méthane et le « décollage de la courbe ne se produit que vers 1900. Le tiers d’origine humaine provient d’une part des sols agricoles et l’alimentation du bétail et d’autre part de l'industrie chimique. Fig. 13 : Evolution de la concentration en N2O et e SO2 depuis le déburt de l’ère industrielle 16/10/12 Les contributions anthropiques aux aérosols (essentiellement des sulfates, du carbone organique, du carbone noir, des nitrates et des poussières) produisent globalement un effet de refroidissement sur le climat. La courbe de la concentration en SO4 dans les glaces (Fig. 13) est le reflet direct de sa concentration dans l’atmosphère. Sa forme est si particulière qu’elle ne peut être corrélée à la production d’aucun des combustibles fossiles. On admet généralement une origine industrielle au soufre atmosphérique, même s’il existe des incertitudes considérables sur les quantités totales de SO2 émises (et de et NOx d’ailleurs). On suppose que les émissions naturelles représentent 25 à 50% des émissions totales de SO2. Néanmoins, la brutale inflexion observable vers 1950 est en accord avec la 2° rupture de pente du CO2 (Fig. 17, p. 108) et surtout avec l’explosion de la production des combustibles fossiles (Fig. 17). La diminution du taux de soufre dans l’atmosphère depuis les années 90 est le fruit des efforts des pays dits développés pour réduire leurs émissions, en Europe en particulier. 4) Impact des GES sur la T° globale Comment se traduisent ces évolutions des GES sur la température? Avant de discuter le détail de la courbe d’évolution des anomalies de température (écart à la moyenne des températures de la période 1951-1980, définie comme la normalité), précisons l’origine des données utilisées dans les figures 16 et 17 : i) pour l’ère industrielle les courbes ont été construites avec l’outil interactif du site web http://www.woodfortrees.org. ; ii) le set de données HadCRUT, qui couvrent la période la plus longue (en rouge), est issu de 4349 (un peu plus depuis 2006) stations de mesures de la température de surface, fut publié pour la 1° fois en 1994 par P .D. Jones ; les actuelles versions HadCRUT3-CRUTEM3 font place en 2012 à une version CRUTEM 4 (voir le site du Met Office Hadley Centre observations datasets www.cru.uea.ac.uk) ; iii) la 2° longue série de données de températures de surface moyenne le la planète, GISTemp (en vert), provient de la NASA (Goddard Institute for Space Study, http://data.giss.nasa.gov/gistemp); iv) le set de données UAH satellite temperature provient de l’Université d’Alabama (http://discover.itsc.uah.edu), site interactif permettant la reconstruction des variations annuelles de la Fig. 14 : Evolution de la concentration en CH4 de 1850 à 2010 Comparer la morphologie des courbes d’évolution des teneurs en GES : celle du CO2 pour la période 1850-1990 (tireté gris) et celle de N2O pour la période 1850-2000 (tireté vert) sont ajustées, sans échelle, à celle du CH4 pour la même période. Noter que les ruptures de pente dans lévolution de ces 2 GES ne sont pas simultanées - 110 - ENSM-SE, 2° A : axe transverse P N température ; les valeurs ne sont plus des mesures de la température mais le résultat de calculs de la température à partir de mesures satellitaires de la radiance du sol dans différentes longueurs d’onde ; v) le set de données RSS de Remote Sensing System provient des sondes MSU Microwave Sounding Unit embarquées sur les satellites en orbite polaire de la NOAA ; il s’agit là encore de mesures indirectes de la température de surface. L’avantage des mesures satellitaires est l’excellente couverture (homogénéité des mesures) qu’elles offrent par rapport aux réseaux de stations essentiellement continentales (e.g. Fig.15). En outre, elles permettent de déceler plus facilement les points chauds que produisent souvent les activités humaines et donc de s’en affranchir, reproche souvent adressé par les scientifiques critiques à la communauté du GIEC. Hélas leur entrée en action est récente (courbes bleue et violette) et ne permet pas de couvrir l’ensemble des variations observées. 16/10/12 Fig. 16 : L’augmentation linéaire de la température de l’hémisphère Sud a) contraste avec le tracé en dents de scie de la courbe de l’hémisphère Nord b). Hémisphère Sud Dans la figure 17 page 108, le set RSS a été pris en référence et les autres courbes sont décalées pour offrir le meilleur « fit », respectivement de 0.12, -0.24 et -0.15°C pour UAH, GISTemp et HadCRUT. En effet, chaque set ne prenant pas la même valeur en référence pour le calcul de l’anomalie, il est nécessaire de décaler les différentes courbes (offset). La courbe de température concernant la période de sortie du petit âge glaciaire n’est pas reportée sur la figure 16. Il est en effet difficile de trouver pour les XVIII° et XIX° siècles des illustrations cohérentes et d’égal niveau de détail avec cette période récente dans la littérature. Les courbes de températures sont le plus souvent des reconstructions basées sur différents proxies, pro parte des données sur les glaces et pro parte des sets de données sur les cernes de croissances des arbres. On se reportera donc pour cette époque à la figure 20b tirée du 1° rapport du GIEC en raison de sa cohérence avec les écrits historiques. Dans la figure 17, on peut placer sur la courbe des températures globales au moins 3 points d’inflexions ((voire 4, flèches rouges) et décomposer ainsi la courbe des Hémisphère Nord. http://data.giss.nasa.gov/gistemp/graphs_v3 températures en 4 périodes, voire 5 (?) : i) l’avant, ii) le démarrage du changement climatique, iii) la rémission temporaire, iv) la reprise du réchauffement, et peut-être v) la 2° rémission …? temporaire …? Il est intéressant de noter (Fig. 16) que l’augmentation de température de l’hémisphère Sud durant le XX° siècle a été beaucoup plus linéaire que celle de l’hémisphère Nord, qui marque de son empreinte la courbe d’évolution globale (Fig.17). Le rôle, naturel ( ?), anthropique ( ?), et à quel degré ( direct? Indirect ?) des masses continentales dans les changements climatiques pourrait donc être essentiel. Fig. 15 : réseau des stations de mesures de la température de surface, utilisées dans le set de données HadCRUT. Etat en 2005. P. Brohan et al. Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. Les points verts représentent les stations abandonnées en 2005 ; bleus, les stations nouvelles ; rouges les stations faisant l’objet de modifications mineures ; noirs, le reste des stations. - 111 - 1 - Episode 1 avant 1920: La température du XIX siècle, moins froide que celle du XVIII° (Fig. 20), apparaît stable. Cette stabilité se poursuit jusqu’au début du XX°, au Nord comme au Sud ; la température n’augmente absolument pas avant 1920 (point 1 de la courbe Fig. 17, 1930 en hémisphère Sud), c’est à dire au moins 50 ans après le premier changement de pente dans la courbe de concentration en CO2 atmosphérique. Pourtant, la consommation de charbon a régulièrement augmenté pendant ce temps! 50 ans sont une durée bien trop grande pour admettre que ce retard est simplement lié au temps de transfert et d’homogénéisation du CO2 de l’atmosphère (environ 10 ans). C’est pourtant précisément le retard observable au décollage de la courbe de l’hémisphère Sud. Le puits essentiel assurant la soustraction du CO2 — passage du réservoir atmosphère vers la géosphère (via l’océan ou pas) — pour lequel nous avons noté le rôle clef de la photosynthèse a-t-il mis 40 à 50 ans pour se saturer, rendant alors observable la hausse du CO2 au Nord, puis 10 ans plus tard au Sud ? ENSM-SE, 2° A : axe transverse P N 16/10/12 Fig. 17: Courbes d’évolution des GES actualisées sur http://www.esrl.noaa.gov/gmd/ccgg/iadv/, de la production de combustibles fossile, des caractéristiques solairees, de la température et du niveau de la mer ; noter l’impact des efforts entrepris (voir texte) sur les courbes du méthane et du soufre (SO4) ; les débuts des remontées de la mer sont donnés pour les marégraphes de Brest, Sherness, Stockholm et Amsterdam - 112 - ENSM-SE, 2° A : axe transverse P N Faut-il supposer que les conditions naturelles durant cette période sont celles d’un refroidissement global qui masque le forçage anthropique (l’effet de serre dû à l'homme) débutant durant cette période ? 2 - Episode 2 1920-1945 : le changement climatique démarre en 1920-1930 par une augmentation régulière de la température jusqu’en 1945 (points 1 et 2 de la courbe Fig. 17, flèches rouges et pointillés rouges). Ce démarrage ne correspond à aucune des 2 ruptures de pente dans l’évolution des GES (CO2 en particulier, flèches violettes Fig. 17), ni à une augmentation brutale de la consommation des ressources fossiles, dont l’inflexion se situera plus tard (vers 1960, Fig. 17). Il faut donc admettre que le forçage anthropique augmente lentement et de manière continue durant l’ensemble des périodes 1 et 2. Combinons ces 2 épisodes : i) si l’hypothèse émise (épisode 1) d’un masquage du forçage anthropique liés aux GES qui croissent lentement jusqu’à ce que la saturation du puits de CO2 ait été atteinte (fin de la 1° période) est valide, on peut s’attendre à ce que toutes nouvelle augmentation de GES se traduise ensuite (épisode 2) par une montée de la température, ce qui est la cas ; ii) si l’hypothèse d’un masquage du forçage anthropique durant l’épisode 1 par des conditions naturelles de refroidissement global est valide, sachant que le forçage anthropique a dû augmenter lentement durant les 2 épisodes, l’augmentation de température en 2° période suppose que les conditions naturelles se sont modifiées — diminution ou arrêt du refroidissement naturel global, voire réchauffement — de telle sorte qu’elles cessent de masquer le forçage anthropique, et donc la température augmente. 3 - Episode 3 1945-1975 : Entre les points 2 et 3 de la courbe de température de la figure 17, la température marque un palier, voire un léger abaissement. L’évolution durant cet épisode est donc similaire de celle de l’époque relativement froide ante-1910. Pourtant, le point d’inflexion commun aux courbes de teneur en CO2 et de consommation des ressources fossiles est franchi vers 1955-1960, avec une rupture de pente très marquée pour le CO2 le GES majoritaire Fig. 18: courbes des anomalies de température globale (en °C), définies par rapport à la tempéraure moyenne d’une année prise en référence. Les différentes courbes, HadCRUt, GISTemp, UAH et RSS sont présentées ici avecun offset permettant le meilleur fit avec la moyenne WTI (WoodForTrees Index) GISTEMP,-0.35, HADCRUT3VGL,-0.26, RSS,-0.10, UAH (hors l’eau). En outre, durant cette période, l’injection de méthane dans l’atmosphère continue à s’accroître massivement, jusqu’en 1985. Il devient difficile de rejeter l’hypothèse de variations significatives des conditions naturelles, à nouveau orientées vers le refroidissement — voire encore plus froides que durant la période historique ante-industrielle indemne de forçage anthropique — et masquant complètement le forçage anthropique qui pourtant se renforce progressivement. Parmi les gaz suivi dans la figure 17, seul le soufre pourrait avoir un effet de refroidissement (Noter que les aérosols dispersés par nos industries contribuent aussi à refroidir l’atmosphère). Mais, outre le fait que la courbe du SO4 est mal expliquée, la contribution du soufre atmosphérique reste marginale. 4 - Episode 4 1975-1998 ? : Depuis 1975, la courbe des températures est repartie à la hausse régulière, au moins jusqu’en 1998 (la dernière décennie paraît à nouveau échapper à la hausse, voir plus loin). La pente moyenne de ce 3° épisode est un peu plus forte que celle de la période 1910-1945 ; l’interprétation de ces 2 segments de la courbe donne 0.014°C.a-1 et 0.018°C.a-1 respectivement42. Regardons l’enveloppe de la consommation des ressources naturelles de la figure 17 durant les épisodes 3 et 4. On observe qu’après la reprise brutale de la consommation, sa pente tend à s’amortir, contrairement à celle du CO2. Néanmoins, cette pente de la consommation reste considérablement plus forte que durant la première période de réchauffement. L’augmentation de CO2 — dont on rappelle qu’elle correspond à un modèle d’accélération constante — est aussi beaucoup plus forte durant ce second épisode de réchauffement que durant le premier. Devons nous alors supposer que le forçage anthropique est devenu tel qu’il dépasse le masquage envisagé précédemment ? Le masquage naturel s’est-il effondré parce que les conditions climatiques naturelles sont redevenues moins froides ? Durant les 2 épisodes de réchauffement observés, les conditions climatiques naturelles ontelles seulement cessé de masquer le forçage anthropique ou ont-elles contribué au réchauffement ? Le forçage anthropique n'est-il qu'une fraction, significative et dans quelle mesure, des changements observés? 5 - Un hypothétique Episode 5 : en 1998 pourrait avoir commencé un second palier dans le réchauffement. La durée d’observation, à peine supérieure à 10 ans est petite et il convient de rester prudent. La figure 18 présente les sets de données retenus dans la figure 17 durant cette période inachevée. L’anomalie, est de valeur faible (0° à 0.3°C sauf en 2010) et quasi constante depuis 1999. Rappelons qu’il s’agit de 42 Réactualisez la figure avec le calculateur du Woodfortree.org http://www.woodfortrees.org/plot 16/10/12 Notez que la courbe utilisée donne une moyenne de 0.007°C a-1, conforme à la valeur communément admise (IPCC = Intergovernmental Panel on Climate Change) de 0.6° pour le XX°siècle. Remarquez aussi qu’une telle moyenne n’a aucun sens au regard des valeurs obtenues pour les épisodes de réchauffement, au moins deux fois supérieures, épisodes heureusement entrecoupés de périodes « sans réchauffement ». - 113 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Fig. 19 : modèles de réchauffement IPCC l’écart entre la moyenne annuelle et une année prise en référence. Si l’anomalie est constante, l’écart à la constante l’est aussi ; la température moyenne annuelle globale depuis 13 ans est donc grossièrement la même. Cela veut-il dire que le réchauffement climatique est terminé ? rien n’est moins sûr, car la teneur en CO2 continue à croître… Mais à tout le moins doit-on conclure de la figure 18 que, depuis 10 ans, le forçage anthropique le plus puissant que notre espèce ait produit à ce jour est illisible sur les courbes de température moyenne globale, comme il l’a été pendant 30 ans de 1945 à 1975. Quelle est la contribution du forçage anthropique actuel dans les variations climatiques ? Comment un doublement de la teneur en CO2 et un bond de 150% de celle de CH4 peuvent-ils passer inaperçus dans l’évolution des températures ? La question est complexe, que la communauté scientifique tente de renseigner en établissant des modèles comme celui qui figure dans le rapport 2001 de l’IPCC (GIEC). Ce modèle climatique (Fig. 19) est utilisé pour simuler les changements de température dus à la fois à des causes naturelles et à des causes anthropiques. Les simulations sont représentées par la bande grise, la courbe rouge est celle des températures : a) les modélisations sont effectuées avec les forçages naturels seulement, c'est-à-dire en ne prenant en compte que l’impact des variables naturelles, dont par exemple la variation du rayonnement solaire et de l'activité volcanique. b) les simulations sont effectuées avec les forçages anthropiques, tenant compte des GES et des aérosols sulfatés (estimation). Si le début du siècle semble assez bien modélisé, il est à remarquer que les valeurs des températures obtenues pour les deux modèles a) naturel pur et b) anthropique seul, se situent en dessous de la courbe des températures observées (en rouge) pour la seconde moitié du 20°siècle. c) On parvient en combinant les deux modèles (en faisant varier les proportions des 2 forçages comme suggéré dans nos 4 périodes) à caler l’ensemble sur la courbe des mesures. La prédiction serait-elle à notre portée ? Nous avons vu que la courbe des températures moyennes subit une inflexion forte suggérant qu’il y a peutêtre eu vers 1998 (point 4 de la Fig. 12 et Fig. 14) un point d’inflexion marquant l’entrée dans une nouvelle période d’arrêt de l’augmentation de la température, comparable à la période 1945-1975. Certes la courbe de la concentration en méthane dans l’atmosphère s’était amortie progressivement depuis 1985, mais celle du CO2 continue sa croissance régulière et aucun modèle ne prévoyait un tel palier… Alors il n’y a bien sûr pas consensus sur cette inflexion. Et la querelle fait rage, entre « climato-sceptiques » partisans d’une contribution anthropique somme toute modérée — et largement modulée par les processus naturels, mal identifiés peut-être — et tenants du tout anthropique. De fait, l'approche de ces processus très complexes nous a déjà montré combien l’interaction des nombreux paramètres rend la prévision délicate, jusque dans le choix des sources de données. Ainsi, comme le soulignent nombre de sceptiques — tel le polémique C. Allègre (2007) mais aussi le très documenté ouvrage de Hacène Arezki (2011) — les moyennes à l’échelle de la planète sont difficiles à établir en raison de l’importance de la variabilité horizontale et verticale de la température dans la troposphère et de l'impact de l'urbanisation sur les continents qui doit nécessairement être pris en compte. A ces difficultés de sélection des données, s'ajoute i) le choix peut-être parfois discutable, et discuté, de quelques contributions au travail d'évaluation du GIEC —par exemple des travaux de la WWF ou de l’ICIMOD (International Centre for Integrated Mountain Development Hinu-Kush/Himalaya http://www.icimod.org qui produisent une littérature dite "en demi-teinte" ; on appelle ainsi des rapports qui n’ont pas été évalués par des revues internationales à comité de lecture — et ii) un contrôle, qui n’est pas sans faille, des chiffres publiés qui sont parfois faux et alors l'objet de polémiques. Conscients de ces défauts avérés, l'ONU et le GIEC ont demandé en 2010 une expertise des méthodes utilisées au Conseil Inter-Académique43 (10 institutions dans le monde). Parmi les principales remarques formulées par l’IAC, — tirées de la version française du « Report New release » sur le site de l’IAC, en bleu page suivante — il en est qui permettent sans doute de mieux comprendre le débat, trop vif et même parfois insultant, souvent mal argumenté, soulignons: 43 Fondé en 2000, l’IAC a été créé pour mobiliser les meilleurs scientifiques et ingénieurs autour du monde, afin de fournir un conseil basé sur des preuves aux institutions internationales telles que les Nations Unies et la Banque Mondiale -- incluant la préparation sur demande d’études spécialisées validées par des pairs. Le secrétariat de l’IAC se tient à l’Académie royale des Pays-Bas des Arts et Sciences, à Amsterdam. http://reviewipcc.interacademycouncil.net/ReportNewsReleaseFrench.ht ml - 114 - ENSM-SE, 2° A : axe transverse P N 1 - La « réponse lente et inadéquate du GIEC aux révélations d’erreurs dans la dernière évaluation", ainsi que "les plaintes sur le fait que ses dirigeants ont outrepassé le mandat du GIEC pour être en conformité avec la politique au lieu de prescrire la politique dans leurs commentaires publics ». 2 - L’échéance fixée à la position de directeur du GIEC, dont « la limite actuelle de deux mandats de six ans est trop longue. Le président du GIEC et le directeur exécutif, ainsi que les coprésidents des groupes de travail, ne devraient pouvoir remplir qu’un mandat de façon à maintenir une variété de perspectives et une approche neuve pour chaque évaluation. » L’IAC ajoute qu'il faut « développer une politique rigoureuse sur les conflits d’intérêt, applicable à toute la haute direction du GIEC et à tous les auteurs, aux éditeurs de révisions, et au responsable de direction quant au contenu du rapport ». Il s'agit donc bien d’éviter la main mise de groupes d'intérêt sur la rédaction des rapports du GIEC. 3 - L'IAC affirme « qu’une exécution plus poussée des procédures de passage en revue pourrait minimiser le nombre d’erreurs. À cette fin, le GIEC devrait encourager les éditeurs de revue à exercer pleinement leur autorité pour assurer que tous les commentaires du passage en revue soient pris en considération de façon adéquate. Ces éditeurs de revues devraient également assurer que les controverses authentiques sont bien reflétées dans le rapport, et obtenir satisfaction pour qu’une considération appropriée soit donnée aux visions alternatives correctement documentées. Les auteurs de vérification devraient explicitement documenter que la gamme complète des points de vue et réflexions scientifiques a été prise en considération. » L’IAC souligne aussi « l’utilisation de la littérature dite en demi-teinte provenant de sources non publiées ou non examinées par des pairs a été controversée, bien que souvent de telles sources d’informations et de données soit valables et appropriées pour être incluses dans le rapport d’évaluation… …les auteurs ne suivent pas les consignes du GIEC pour l’évaluation de telles sources ». Il a donc recommandé que ces consignes soient « rendues plus spécifiques » et soient « strictement appliquées, afin d’assurer que la littérature non publiée et non examinée par des pairs soit répertoriée de façon appropriée ». On voit donc ici que le contenu de certains articles utilisés ne tenait pas compte des critiques scientifiques que leur avaient fait les comités de lecture des revues auxquelles ils ont été soumis. On comprend aussi que des avis divergents ont été occultés. Quant-à la littérature en demi-teinte elle est qualifiée de souvent (donc pas toujours) valable et appropriée. 4 - L'IAC appelle enfin à plus de cohérence entre les différents groupes de travail dans la caractérisation de l’incertitude. Il dit du rapport du groupe de travail II, pris en exemple qu’il « contient beaucoup de déclarations qui se sont vues attribuer un niveau de confiance élevé mais pour lesquelles il y avait peu de preuves. » Ainsi averti, il m'a paru essentiel de présenter dans ce poly les différents points de vue. 16/10/12 Fig. 20: courbes de température des rapports IPCC de 1990 et 2001 pour le dernier millénaire ; a) Courbe en crosse de hockey, modèle 2001, b) Courbe du premier rapport du GIEC Concernant l'évolution de la température dans le temps, on comparera (Fig. 20) les courbes de températures qui figurent dans les 2 rapports IPCC de 2001 (courbe a) et de 1990 (courbe b). Celle de 2001 (connue sous le nom de courbe en crosse de hockey), due à James Hansen du Goddard Institute, ne montre plus le pic de chaleur des XI° au XIII° siècles bien marqué dans celle de 1990. Pourtant, cet « optimum médiéval » paraît être d’échelle comparable au réchauffement actuel : 1 - On connaît à cette époque l’épopée Viking au « Pays Vert44 », la floraison de roses en Janvier et la vigne cultivée dans le nord de l’Angleterre. La disparition la vigne anglaise fut liée d’abord au mariage en 1124 du futur roi d’Angleterre Henry II avec Aliénor d’aquitaine, qui apporta en dot la région viticole déjà très développée des vins de Bordeaux. Mais cette disparition temporaire45 est aussi liée au refroidissement climatique global (connu sous le nom de « Petit âge glaciaire ») qui atteint son apogée trois siècles plus tard. Cette période froide est elle aussi parfaitement documentée dans les archives européennes : replis des Viking devant l’invasion des glaces ; difficultés agricoles de toute l’Europe ; avancée des glaciers alpins qui menacent des villages vers la fin du XVI° jusqu’au milieu du XVII° et dont le recul entrecoupé d’avancées à commencé vers 1750. Des réchauffements plus anciens, du même ordre de grandeur que l’optimum médiéval, ne sont pas à exclure. Ainsi, ont été mises au jour par des archéologues à des latitudes élevées (Champagne, région Parisienne, Angleterre) des alignements de fosses rectangulaires gallo-romaines semblables à ce que l'on retrouve sur des sites de vignes gallo-romaines du Sud de la France. Selon 44 Il ne faut pas imaginer que la calotte glaciaire avait disparue ! Tout au plus les conditions étaient-elles telles que plusieurs centaines d’humains pouvaient y vivre de l’agriculture et de la pêche. 45 La vigne fut réimplantée en Angleterre en 1945. Elle comptait 25 vignobles en 1967 et plus de 300 en 1986 d’après l’English Wineyard Association. - 115 - ENSM-SE, 2° A : axe transverse P N l’auteur de ces découvertes récentes pour la Champagne, S. Chevrier de l’Inrap (2009), il s’agit bien de vigne, « les dimensions réduites des fosses permettent d'exclure l'hypothèse d'un verger. Le « fantôme » de petit arbuste observé dans la terre de remplissage a la taille d'un pied de vigne ». 2 - Le fort bruitage observé sur les rapports isotopiques de l’oxygène dans les échantillons de glace de subsurface du Groënland (GISP2) ne permet pas d’exploiter le proxi 18O/16O en dessous de 10K.ans BP. Aussi, T. Kobashi et al. (2009) ont utilisé les rapports de l’azote (15N/14N) et de l’argon (40Ar/36Ar). Grace à ceux-ci, outre des périodicités pluridécennales dont nous retrouverons des équivalents dans l’étude des interactions océan-atmosphère (Chp 5 §E), les auteurs ont reconstruit l’augmentation de température de la période 1900-1950, jusqu’à -30°C environ au Groenland, puis la décroissance de 1950 à 1975 (fig. 21a). 3 - Plus en avant dans le temps, cette étude confirme la réalité au Groenland du petit âge glaciaire entre 1700 et 1800 et de l’optimum médiéval vers 1100 (Fig. 21b), confirmant ainsi que les caractéristiques climatiques tirées de la littérature historique européenne ont une représentativité plus large, probablement extensibles à l’hémisphère Nord au moins; Nous sommes sortis du dernier épisode climatique froid (le Dryas) vers 11000 ans BP (Fig. 21c) de manière très brutale. On observe une remontée jusqu’à des températures ½° à 1°C plus chaudes qu’actuellement — voir à l’extrême gauche de la figure, la remontée et le maximum vers 9000 ans ; il faisait au Groënland -30° à -29.5°C, contre -30.5 actuellement — suivie d’une lente descente pendant 5000 ans avec des pointes à presque 2°C de plus qu’aujourd’hui, mais aussi des périodes très froides à presque 3°C de moins. Ensuite la température remonte jusque vers -3000 ans avant de redescendre lentement, jusqu’au petit âge glaciaire. La Fig. 21 a-b: Températures du Groenland d’après Kobashi et al., reconstruites à partir des isotopes de l’azote et de l’Argon : a) période 1750-1989: “Observed (blue) and reconstructed (red) Greenland temperature records. The observed record is a compilation of records from llulissat, Nuuk, and Qaqurtop located along the south and west coast of Greenland (Vinther et al. 2006).” b) période 1000-actu: “Thick blue line is mean of results of Monte Carlo simulation, and thin blue linesare error bands (1σ). Red line is a smoothed temperature history (50-year running mean)” 16/10/12 Fig.21c : Courbe des températures reconstruite à partir des isotopes des gaz des bulles dans les glaces du GISP 2, données complètes, disponibles sur le site de la National Oceanic and Atmospheric Administration (NOAA) , 1° valeur : 95 ans BP, T° -31.59°C ftp://ftp.ncdc.noaa.gov/pub/data/paleo/icecore/greenland/summit/gisp2/isotope s/gisp2_temp_accum_alley2000.txt courbe se termine par la remonté actuelle (en rouge Fig. 21c). La lente descente vers le petit âge glaciaire est entrecoupée de plusieurs épisodes plus chauds que la moyenne de l’époque (en vert dans la figure), mais aussi plus chauds qu’aujourd’hui pour les 2 premiers (optimum minoéen et optimum romain) ou aussi chaud (optimum médiéval). A défaut de données disponibles pour cette période pour le Groënland, les valeurs de la teneur en CO2 atmosphérique utilisées ici (Fig. 21c en bas) sont celles des bulles de glace de l’Antarctique (programme EPICA, European Project for deep Ice Core drilling in Antarctica). Noter que durant toute la durée de l’Holocène la concentration en CO2 décroît d’abord un peu puis remonte lentement, sans aucune corrélation avec les variations de températures, certes de l’hémisphère Nord, mais de plusieurs degrés d’amplitude… Ainsi restitué dans le contexte général des températures de l’hémisphère Nord depuis la sortie du glaciaire, le réchauffement du XX° siècle est considéré par nombre de chercheurs, dits « climato-sceptiques », comme le démarrage d’un nouvel évènement chaud, qui doit être A PRIORI considéré comme comparable aux précédents. Un autre aspect souvent abordé dans le débat climatique est le recul de la banquise et des glaciers continentaux en de nombreux points du globe. Ce recul est un indice considéré comme essentiel dans l’augmentation de la température liée au CO2 anthropique. En effet, la figure 22a montre que l’accélération du recul, lorsqu’elle est observable, se produit vers les années 1930, donc en même temps que la rupture de pente observable sur la courbe d’élévation du niveau marin dans la figure 17, et donc en gros avec le début de l’augmentation de la température globale. Mais plus globalement, le recul des glaciers continentaux apparaît très antérieur à cette accélération. Pour 6 glaciers (pour lesquels la figure nous présente des observations plus anciennes que 1850) le recul commencerait avec la sortie du petit âge glaciaire, bien avant la période industrielle. - 116 - ENSM-SE, 2° A : axe transverse P N Fig. 22a : Recul des glaciers dans le monde depuis 5 siècles. 16/10/12 de l’Environnement de Grenoble le paradoxe du recul généralisé des glaciers alpins à la fin du Petit Age de Glace il y a 150 ans résulterait donc d’une diminution de plus de 25% de la précipitation neigeuse hivernale, alors que les températures estivales restaient stables. Par contre l’accélération du recul des glaciers durant la seconde partie du XX° siècle pourrait, elle, peut-être résulter directement de l’augmentation de la température observée ? Mais si cette accélération semble bien correspondre au changement de pente de la remontée du niveau marin, elle ne correspond pas à la 1° rupture de pente du CO2 et elle est antérieure de 30 ans à l’accélération de l’exploitation massive des combustibles fossiles et au 2° changement de pente de la courbe du CO2 (2° point de rupture). D’une manière globale, le problème de la fonte des glaces n’est pas encore parfaitement bien compris. Dans les années 1990, dans l’hémisphère Nord, le recul de la banquise et la fonte de l’inlandsis groenlandais sont devenus incontestables et rapides (Fig. 22c-1, courbe noire), avec une phase d’accélération marquée de cette fonte entre 2003 et 2007. La période 2008-2010 marque une reconstitution partielle de la banquise et 2011 un recul comparable à celui de 2007. 2012 établit un nouveau record (Fig. 22c-2). Le recul par rapport à la moyenne 1979-2000 est de l’ordre de 10% en hiver et de 25 à 50% en été. Les courbes des moyennes décennales montrent bien l’approfondissement du minimum estival et, pour l’heure la quasi stabilité de l’extension hivernale. En haut, (Fig. 22c-1, en vert) la courbe de l’extension de la calotte Antarctique montre une légère augmentation de la calotte (continentale) depuis 10 ans environ. En tout cas, sa fonte n’est pas d’actualité. Mais le bilan effectué pour l’antarctique ces Le Vatnajokull (Islande) avançait et 2 glaciers alpins, L’Argentière et le Grindenwald, étaient stables. Par contre, les glaciers du Rhône et le Franz-Joseph (Nouvelle Zélande) étaient déjà clairement en recul. Le recul des glaciers peut donc être considéré comme un phénomène plus ancien que le début de l’accumulation de CO2 industriel, mais accéléré depuis 1930. Fig. 22c : Recul de la banquise Arctique (courbe noire) et de l’inlandsis Antarctique (courbe verte), voir le site actualisé C. Vincent.et al. (2005) ont montré (fig. 22b) qu’en fait, pour les glaciers alpins, il n’y a pas de corrélation entre le recul et la température, la cause du recul résidant dans une modification de la pluviosité et des chutes de neige. Pour ces glaciologues du Laboratoire de Glaciologie et Géophysique Fig. 22b : non corrélation entre longueur des glaciers alpins et température estivale 1- http://www.ijis.iarc.uaf.edu/en/home/seaice_extent.htm. 2- http://www.ijis.iarc.uaf.edu/en/home/seaice_extent.htm - 117 - ENSM-SE, 2° A : axe transverse P N Fig. 22d: taux de variation de l’altitude de la surface glaciaire antarctique (dS/dt); mesures radar altimètre effectuées de 19920 2003 over the Antarctic Ice Sheet. Triangle = Zone de front de glace fortement (30 cm/an) aminci (bleu) ou épaissi (rouge). 16/10/12 Fig. 23b : élévation du nieau de la mer à l’holocène http://en.wikipedia.org/wiki/File:Post-Glacial_Sea_Level.png. data from Fleming et al. 1998, Fleming 2000, & Milne et al. 2005 l’océan mondial apparaît stable depuis 2000 ans environ. Néanmoins, les travaux de détail sur l’évolution du trait de côte et des paysages — e.g. L. Visset & J. Bernard, dernières années par les équipes du GIEC (Davis et al. 2005 ; Zwally et al. 2006) a permis de montrer que les bilans locaux peuvent être positifs ou négatifs (Fig. 22d). Les variations sont faibles et leur amplitude est du même ordre que l’erreur liée à la mesure. Il faut donc les surveiller de très près en fonction de l’évolution à venir du climat. Elles signifient en effet que, pour l’heure, la contribution de l’antarctique à l’élévation du niveau marin est négligeable, mais pourrait ne pas le rester si la température terrestre devait augmenter. La conséquence majeure du recul des glaciers réside dans la remontée du niveau marin. La déglaciation, débutée il y a 19 000 ans (sortie du Dryas), s'est produite en plusieurs stades entrecoupés de refroidissement relativement brefs, que les chercheurs observent, e.g. sur les coraux des Barbades, e.g. les coléoptères de Grande-Bretagne, e.g. l’étude des rivages. Au plus froid de la dernière glaciation, le niveau moyen des mers était 120-130 m plus bas qu’aujourd’hui (Fig. 23a). Deux accélérations se produisent lors de la remontée, vers 14 000 ans BP ('meltwater pulse') et vers 11 500 ans BP. Le premier ne dure pas plus de 1000 ans mais présente une vitesse de remontée de plus de 30 mm/an ! Le second dure 2000 ans et sa vitesse moyenne de remontée est de l’ordre de 20 mm/an. Le réchauffement très court (à peine 500 ans) autour de 12700 ans a été lui aussi très brusque : en moins d'un siècle, la température estivale est remontée de 15°C, rejoignant pratiquement le niveau actuel des températures. Noter que les coraux ont survécu à la remontée rapide du niveau de l’océan, y compris aux accélérations les plus fortes (3m/siècle !), rendant sans objet les craintes de voir mourir ceux des Maldives et autres récifs coralliens à cause de la remontée actuelle (20 cm à peine en 1 siècle). A l’échelle des observations présentées ici (Fig. 23b), la remontée devient lente vers 7000 BP puis le niveau de Fig. 23a: élévation du niveau de la mer depuis le dernier maximum glaciaire; http://en.wikipedia.org/wiki/File:Post-Glacial_Sea_Level.png. data from Fleming et al. 1998, Fleming 2000, & Milne et al. 2005 2006, paléo-anthropo-palynologie sur le littoral breton ; K.-E. Berhe 2003 du Niedersächsisches Institut für historische Küstenforschung sur le littoral de Basse Saxe — suggèrent que le niveau moyen des mers n’a jamais cessé de remonter, du moins dans les zones d’études concernées. D'après K.-E. Berhe, le facteur essentiel dans la modification du trait de côte de Basse Saxe est bien la fluctuation de la remontée du niveau marin et il présente (Fig. 23c) une reconstruction des variations du niveau maritime basée sur des observations archéologiques, géographiques, géologiques et botaniques. La courbe, valable pour la mer du Nord, permet de tirer des conclusions intéressantes : a) Des hausses et des baisses de niveau marin très rapides ont eu lieu notamment ces derniers 1000 ans, pouvant atteindre 4, voir 8 millimètres par an ; b) Ces valeurs importantes sont encadrées par une montée moyenne de 1 mm/an depuis 3000 ans. A l’échelle globale, la courbe d’élévation du niveau marin présentée par le GIEC 2007 (Fig. 17) ne débute pas avant 1870. Mais elle montre elle aussi des variations de la vitesse de remontée, à savoir : a) Le montée du niveau marin est positive dès le début de la courbe présentée ; une élévation régulière est mesurable (0.9 mm /an) pour la période 18701920. Celle-ci est compatible avec l’évaluation moyenne de Berhe b) une accélération brutale apparaît (rupture de la pente) vers 1930 ; c) postérieurement à 1930, on peut distinguer quatre segments témoignant d’une remontée en quatre épisodes plus ou moins rapide, 2.4 mm/an puis 2.1 puis 3.5 à 3.7 mm /an et enfin 1.9 mm/an. Ces pentes, reportées dans la figure 23c, confirment les conclusions tirées de la figure de K. E. Berhe. Il conviendrait de rechercher d’autres études archéologiques pour confirmer la cohérence des valeurs modernes de remontée avec celles de K. E. Berhe. On a admis longtemps que 50% de l’élévation du niveau des mers au cours du XX° siècle (période de recul maximum des glaciers) étaient dus à la dilatation thermique de l’océan et 50% dus à la fonte des glaciers (voir Eustatisme § E6). Donc, durant les décades plus froides, 1870-1920, 1945-1975, non marquées par une augmentation de la température (Fig. 12), l’essentiel du signal aurait dû correspondre au recul des glaciers. Mais alors, le recul ante-industriel des glaciers ou l’élévation - 118 - ENSM-SE, 2° A : axe transverse P N Fig. 23c: élévation du niveau de la mer depuis 1000 ans, d’après Behre K.E., 2003 16/10/12 Fig. 25: Coupes NS de l’atmosphère après 1 siècle d’effet de serre (XX°), comparaison entre : 1) le modèle de températures, GIEC 2007, Chp 9 Fig. 9f, sum of all forcings : (a)solar forcing, (b) volcanoes, (c) wellmixed greenhouse gases, (d) tropospheric and stratospheric ozone changes, (e) direct sulphate aerosol forcing. http://co2thetruth.e-monsite.com/rubrique,montee-des-mers,404968.html du niveau marin durant ces épisodes froids se trouvait en contradiction avec la courbe des températures moyennes, stables voire décroissantes pour ces périodes. On admet en 2012 que l’essentiel de la hausse du niveau marin serait causé par la fonte des glaciers (voir § E6). Cette remontée actuelle du niveau marin est bien sûr l’objet d’une forte inquiétude car elle risque d’induire des catastrophes et des déplacements massifs de populations. Il en fut ainsi en lors de l’évènement de « vimer » Xynthia qui endeuilla la façade maritime française en février 2010. Un vimer est une submersion marine liée à la conjonction d’évènements cycliques, des marées d’exception — les coefficients >110 sont des évènements pluriannuels classiques des équinoxes — avec des épisodes 2) les valeurs observées actuellement U.S. Climate Change Science Program Synthesis and Assessment Product 1.1, Chp 5 p 116 climatiques accidentels (mais bien sûr saisonniers) tels que des queues de cyclones qui viennent mourir de ce côté de l’Atlantique ou des tempêtes hivernales On dispose de peu d’informations sur l’évolution balayant l’ouest-européen. De telles dépressions engendrent historique de la pluviométrie en relation avec le climat. une onde de tempête dont la hauteur conduit à une surcote Deux sources indépendantes peuvent être évoquées : i) de l’onde de marée pouvant dépasser plusieurs mètres. La les modèles des climatologues considèrent maintenant cote atteinte dans le cas de Xynthia, tempête + marée, a été que si les scenarios du GIEC se réalisaient, leur influence de 7m à 7.3 m ZH (au dessus du Zéro Hydrographique), soit sur la pluviométrie serait sans doute plus importante en une altitude de 3.5 à 3.8 m NGF (Nivellement Général de la terme de modalité (périodes courtes de pluies intenses) France). L’histoire locale des côtes basses en Europe qu’en terme de quantité ; ii) les travaux sur les cernes de rapporte 22 tempêtes dépassant force 10 sur l’échelle de croissance d’arbres en Europe, conduits par l’équipe de Beaufort pour les 5 derniers siècles, avec une fréquence Ulf Büntgen et Willy Tegel, publiés en 2011 (Fig. 24) variable, et donc hélas le temps d’oublier. On comprend confirment qu’il n’y a pas eu de variations importantes l’inquiétude des riverains, habitant parfois à des cotes NGF de la pluviométrie depuis 2500 ans malgré les différents négatives, qui se voient devoir affronter un réchauffement changements de température. risquant de se traduire par des décimètres, voire des mètres, L’une des empreintes essentielles des GES sur la de montée du niveau marin. température de l’atmosphère, prévue par les modèles et Dernières inquiétudes liées à l’augmentation des considérée comme caractéristique, donc très recherchée, températures durant le XX° siècle, la fréquence et la est la présence d’un point chaud aux basses latitudes, à violence des cyclones, dont nous discuterons l’évolution environ 10km d’altitude, que l’on nomme « tropospheric avec l’étude des océans plus loin (§D2), et la sécheresse. hotspot » (Fig. 25). Aucun point chaud n’a été observé et depuis 2007 la discussion fait rage : Les modèles Fig. 24 : Reconstruction des précipitations estivales à partir des cernes des de circulation globale sont-ils pris en défaut ? Les arbres. phénomènes d’amplification de l’effet de serre sont-ils contrôlés par d’autres variables que celles prises en compte, telles que la variation de la teneur en vapeur d’eau avec l’altitude par exemple ? Les relevés de température de la troposphère sont-ils déficients ? Est-ce toute notre appréciation du principe même de l’effet de serre qui est à revoir ? - 119 - ENSM-SE, 2° A : axe transverse P N 5) Le rôle des radiations solaires. Les radiations solaires, UV, visibles et IR sont en fait le premier facteur qui régit le climat. Cette source d’énergie n’est pas exactement constante, et il a été observé depuis le début du XX° siècle des covariations étroites entre l’activité magnétique du soleil et la fréquence des taches solaires. Celles-ci sont d’ailleurs observées depuis plusieurs siècles et les variations de leur nombre ont été mises en relation avec un cycle d’activité de 11 ans environ. En fait, cette période n’est pas exactement constante, et plus le soleil est actif (plus le nombre des taches augmente) plus la période de ce cycle se raccourcit, jusqu’à moins de 10 ans. Parmi plusieurs tentatives menées depuis les années 90 pour évaluer l’incidence de l’activité solaire sur le climat terrestre, retenons l’étude récente de W.H.S. Soon 2009 du HarvardSmithsonian Center for Astrophysics Cambridge, Massachusett. La moyenne de l’activité solaire (à gauche), est définie par l’intervalle entre deux maxima de taches solaires (courbe noire). La coïncidence — observable aussi sur les courbes d’irradiance (bleu) et de durée des cycles solaires (vert) reportées dans la figure 17 (comparer avec la position des point d’inflexion 1, 2 et 3 de la courbe d’évolution de la température) — 16/10/12 Fig.26b : Le minimum d’activité solaire (fin du cycle 23) ayant tardé jusqu’en Mars 2009, le maximum du cycle 24 est attendu pour avril 2014 avec un nombre de taches très inférieur au maximum enregistré en 2000 par le cycle 23 http://www.swpc.noaa.gov/SolarCycle/index.html la valeur estimée figurant dans le 3° Rapport du GIEC . Mais plusieurs astrophysiciens considèrent que le problème est mal posé, et que seule la partie haute énergie du spectre UV du Soleil doit être prise en compte ; elle est responsable de la fabrication de l’ozone et du chauffage de la haute atmosphère, qui conditionne la structure thermique de l’atmosphère. Les variations de la concentration d’ozone avec les cycles solaires pourraient expliquer 20% de la variation de la température. Les données les plus récentes obtenues sur la tranche des 8 premiers Km à partir des satellites et non les valeurs au sol, suggèrent qu’un découplage entre valeurs du CO2 atmosphérique et température est en train de se produire, confirmant le rôle de l’activité solaire. D'après R. Fairbridge, et selon I. R. G. Wilson, B. D. Carter et I. A. Waite 2008, ce sont les déplacements du Soleil autour du Barycentre de notre système qui sont à l'origine des Fig.26a : Courbes comparées de l’activité solaire (Total solar irradiance), du CO2 variations de l'intensité et des atmosphérique et de la température de l’atmosphère durées des cycles éruptifs du soleil. Bien évidemment la position des deux géantes gazeuses, Jupiter et Saturne jouent un rôle prépondérant dans le déplacement du Soleil. L’étude historique des cycles solaires a montré la coïncidence de l’activité solaire minimale et de la durée maximale du cycle lors de leur alignement, correspondant à un déplacement maximum du Soleil. L’affaiblissement du Même courbe TSI calée sur l’extrait de la fig.13 cycle 23 et le démarrage très retardé du cycle 24 (Fig. 26b) sont conformes au modèle « SIM » (Solar Inertial Motion, mouvement inertiel du soleil) de R. Fairbridge. Celui-ci prédit une atténuation nette et progressive des cycles solaires de 2010 à 2040. Faut-il en conclure, par opposition au est remarquable et bien meilleure que celle entre la courbe de température et de la teneur en CO2 (même figure 26a à droite, et « presque aussi bonne » que le modèle complexe anthropique + naturel de l’IPCC, qui rappelons le, prend en compte l’activité solaire (Fig. 19c). Ce travail a fait l’objet de plusieurs remarques notamment sur le choix de la courbe des températures prise en référence. Aussi avons-nous reporté cette courbe de l’activité solaire sur celle des anomalies de température du GIEC, extraite de la figure 17. En l’absence d’une théorie explicative convaincante de l’influence solaire, les modèles les plus récents continue à minimiser l’influence solaire en face de celle des GES et le rapport du GIEC 2007 considère que « les variations de l’éclairement énergétique solaire ont provoqué, depuis 1750, un léger forçage radiatif de + 0,12 [+ 0,06 à + 0,30] W/m2, soit moins de la moitié de - 120 - ENSM-SE, 2° A : axe transverse P N modèle GIEC un refroidissement généralisé de la planète ? 16/10/12 ressource, sans réflexion sur l’impact de notre industrialisation de toute la planète sur le vivant, océanique en particulier car caché à nos yeux. L’adaptation et la mitigation devront venir épauler le développement soutenable. Quant-au phantasme d’un retour à une atmosphère semblable à celle d’avant la vie, éradiquant toute vie sur Terre, ne nous trompons pas de cible ; l’essentiel du CO2 atmosphérique initial n’est pas stocké en charbon ou en pétrole, mais bien en calcaire (CaCO3, voir § F3), et il nous faudrait bétonner, et bétonner encore pour épuiser cette ressource carbonée et retourner à l’atmosphère primitive de la Terre ! Pour Enrik Svensmark (2007) et son équipe du Centre national danois de l’espace (DNSC, Copenhague http://cr0.izmiran.rssi.ru/mosc/main.htm) la relation entre l’activité solaire et le réchauffement climatique réside dans l’interaction entre la formation des nuages de basse altitude, qui accroissent l’effet de serre (contrairement aux cirrus dont les paillettes de glace augmentent l’albédo de la planète) et le rayonnement cosmique d’origine galactique. Plus celui-ci pénètre notre atmosphère et plus l’ionisation qu’il y produit est favorable à la nucléation des gouttes d’eau. Les électrons libérés participent en effet à la création de petits noyaux de condensation dans la vapeur d'H2O. S’ils sont assez nombreux, ces micronoyaux se regroupent en petits paquets 2 - La stratosphère et la protection contre les UV et condensent la vapeur d'eau présente dans l'atmosphère, solaires formant ainsi des gouttelettes d'eau. Les nuages se forment Elle s’étend jusque vers 50 km environ. L’air y est en effet par condensation de la vapeur d’eau présente dans l’atmosphère. Ordinairement, pour que cette condensation se de plus en plus raréfié. Elle est caractérisée par sa fasse, un peu comme la buée se forme sur une surface froide, température croissante, qui augmente jusqu'à +20 °C il faut, outre le refroidissement de la parcelle d’air maximum. Les premières estimations de température de environnante, la présence de petites particules (aérosols). Les la stratosphère sont dues à A. Lindeman et G.M.B. rayons cosmiques (galactiques) de haute énergie qui Dobson 1931. Elles sont fondées sur l’observation de la pénètrent dans l'atmosphère terrestre agissent donc comme brillance et la longueur des étoiles filantes, c’est à dire sur des catalyseurs de cette réaction, mais ils sont plus ou moins la vaporisation des météorites par frottement et déviés par les orages magnétiques engendrés lors des l’excitation résultante des molécules stratosphériques. Lindeman et Dobson en déduisirent la densité et la éruptions solaires. température de la stratosphère. La variation de l’activité solaire, que traduit le nombre des taches, accroît ou diminue l’intensité de son a - Cycle de Chapman champ magnétique. Celui-ci constitue donc un bouclier d’efficacité variable, détournant plus ou moins de la Terre le Dès 1930, S. Chapman suppose que rayonnement cosmique, modulant de ce fait l’action du l’augmentation de la température dans la stratosphère est champ galactique sur la nucléation des nuages. Ont-ils liée à la production de l’ozone par photodissociation de raison ? Cette hypothèse très controversée au départ, fait l’oxygène sous l’effet des UV solaires (Fig. 27a). La l’objet de l’expérience Cloud46 au CERN, débutée en 2010. concentration en ozone est maximum entre 20 et 30 L’approche du changement climatique est un problème complexe encore mal maîtrisé. Dans l’espace public, la crainte suscitée par la complexité scientifique du problème s’est vue renforcée par le débat politiqueécologique-médiatique qui a substitué à la notion de changement celle de dérèglement, à l’analyse des risques le principe de précaution, véhiculant ainsi la peur d’un avenir devenu incertain et appelant à un retour à la règle. Quelle règle ? Quel état antérieur ? Le climat a toujours été en cours de changement. Faut-il alors balayer d’un revers notre capacité à nous nuire à nous-mêmes ? Le déstockage des combustibles fossiles est considérable. Il rend à l’atmosphère une partie du carbone lentement minéralisé durant les temps géologiques. Nous le consommons de façon absurde, comme tout le reste d’ailleurs, sans souci de l’épuisement de la Km. En moyenne, elle est quasi nulle dans la troposphère. L’épaisseur de la couche d’ozone pur que l’on pourrait former avec ce gaz est de 2.5 mm ! Son rôle n’en est pas moins fondamental dans la protection de la vie non aquatique puisque comme nous allons le voir, sa production absorbe une part essentielle des UV à haute énergie du spectre solaire. 46 La théorie de E. Svensmark reprend en fait le principe de la chambre à brouillard, premier appareil construit par les physiciens pour mettre en évidence les rayons cosmiques. Dans un récipient en verre contenant une atmosphère saturée de vapeur à la pression ambiante, on provoque détente. Celle-ci déplace le point de rosée, et un brouillard se forme. Les particules cosmiques qui traversent ce brouillard provoquent la formation de gouttelettes sur leur trajectoire. Le projet Cloud mettre en œuvre une vaste chambre remplie avec un mélange de gaz identique à celui de l'atmosphère. qui doit être bombardé avec des particules de haute énergie identiques à celles qui nous viennent de l'espace. Fig. 27a : cycle de Chapman, production-destruction de l’O3 La production de l’ozone dans l’atmosphère est assurée par la photodissociation du dioxygène O2 sous l’effet des UV courts. Ce mécanisme est double : 1) faible dissociation dans la mésosphère en dessous de 85 km par absorption d'UV de longueurs d'ondes comprises entre 175 et 200 nm ; 2) forte dissociation dans la stratosphère au-dessous de 50 km par absorption d'UV de longueurs d'ondes comprises entre 200 et 240 nm. - 121 - ENSM-SE, 2° A : axe transverse P N Après cette réaction de dissociation (1) O2 + hν ν ⇒ O +O deux cas sont possibles: 1 - soit une recombinaison en présence d’une tierce molécule M (N2, O2 ou particule solide), ( 1' ) O +O (+M) ⇒ O2 +M, {réaction qui a lieu surtout à haute altitude (≥70Km) 2 - soit la formation d’ozone (2) O +O2 (+M) ⇒ O3 +M. La molécule M sert à absorber l’énergie de vibration de la molécule formée, liée à l’association O+O ou O+O2. Le maximum de photodissociation de l’oxygène à lieu vers 25 km d’altitude, et se traduit par un maximum de concentration en ozone, également dans la stratosphère. On a constaté que la quantité d'ozone stratosphérique se conforme aux variations du rayonnement solaire liées à la latitude ou à la saison, mais avec des décalages très importants. Ainsi, sa concentration est maximum au printemps et minimum en automne, et son abondance est supérieure aux hautes latitudes par rapport à celle des basses latitudes. Ceci démontre que l'ozone est instable, mais que les réactions chimiques de destruction sont relativement lentes, en tout cas par rapport au transport atmosphérique dans la basse stratosphère. b - Quatre types de réactions rendent l'ozone formé instable: En premier lieu il peut être simplement recombiné à l’oxygène atomique (3) O3 +O ⇒ O2 + O2 En second lieu il peut être dissocié par des UV plus longs (λ λ<310nm) que ceux qui provoquent la dissociation de l'O2 : O3 + hν ν ⇒ O2 +O(1D) (3) L’oxygène monoatomique O(1D) produit dans cette réaction est très excité et joue un rôle ultérieur sur la stabilité de l’ozone, à travers celle des constituants minoritaires de la stratosphère, H2O, NO2 en particulier. Il est en effet beaucoup plus réactif que l'oxygène normal au repos O(3P). En troisième lieu, certains des constituants minoritaires de l'atmosphère interviennent naturellement à travers un cycle catalytique de destruction de l’ozone, que l'on peut schématiser comme suit: X +O3 ⇒ XO +O2 XO +O ⇒ X +O2 O(1D) + CH4 ⇒ OH + CH3 Les réactions (4a) et (4b) ne peuvent pas être significativement renforcées par l'activité humaine. En effet, la teneur en eau de la stratosphère est d'une part extrêmement basse, et d'autre part en équilibre avec celle de la troposphère. Or celle-ci ne peut évoluer de manière importante car l'air terrestre est quasiment saturé en eau. Seule la destruction du méthane (4c) peut donc évoluer réellement négativement dans le futur. Le monoxyde d'azote, NO, qui intervient aussi de la même manière dans le cycle suivant NO +O3 ⇒ NO2 +O2 (5) NO2 +O ⇒ NO +O2 trouve son origine encore dans une réaction de l'oxygène excité O(1D) avec de l’hémioxyde d’azote N2O; deux réactions sont possibles: réaction productrice de NO (5a) O(1D) + N2O ⇒ NO + NO réaction non productrice de NO ⇒ N2 + O 2 O(1D) + N2O Cette dernière réaction n'alimente pas le cycle, et au contraire en diminue l'efficacité. Compte tenu de l'abondance des produits azotés dans l'atmosphère, le cycle (5) pourrait s'avérer extrêmement destructeur s'il n'existait des réactions parasites qui attaquent le NO2 formé dans ce cycle: NO2 + hν(λ<240nm) ⇒ NO + O Et O + O2 ⇒ O3 cette photodissociation très rapide du dioxyde mène donc finalement à la régénération de l'ozone. C'est le même phénomène qui provoque la production d'ozone troposphérique irritant pour nos bronches dans les régions polluées, par les gaz d'échappement en particulier. (5b) a) (5c) b) NO2 + H + (M) → M + HNO3 l'acide nitrique produit de cette manière est un composé abondant de la stratosphère. Mais il est soluble dans l'eau et gagne la troposphère avec elle en franchissant la tropopause. Sa solubilisation régule ainsi sa concentration (constante) dans la stratosphère. La production de l'hémioxyde N2O est donc une clef essentielle de la destruction de l'ozone; N2O présente une double origine: L'hydrogène monoatomique et le radical hydroxyle, H et OH, qui interviennent dans ce cycle comme suit, (4) (4c) 16/10/12 H +O3 ⇒ OH +O2 OH +O ⇒ H +O2 H et OH ne sont pas produits dans la stratosphère, par photodissociation de l'eau comme dans la mésosphère, mais par des réactions avec l'oxygène excité O(1D): l'hydrogène diatomique, (4a) O(1D) + H2 ⇒ OH + H l'eau, (4b) O(1D) + H2O ⇒ OH + OH le méthane - 122 - a) il peut être produit en altitude par la combustion de l'azote diatomique avec l'oxygène, N2+2O2 à très haute Température, naturellement sous l'effet de la foudre, et artificiellement dans les réacteurs des avions volant à très haute altitude; b) azote de l’air est transformé dans le sol en nitrates, dont une partie donne lieu (action de bactéries dénitrifiantes) à des produits gazeux, N2 et N2O, qui s’échappent dans l’atmosphère. Comme la durée de vie de ce dernier composé est suffisamment longue dans la troposphère, il atteint la stratosphère où, avant d’être ENSM-SE, 2° A : axe transverse P N 16/10/12 Fig.27b : Raies d’absorption des SAO et de l’O3 dans la stratosphère photodissocié en N2 et O, il réagit en présence d'oxygène excité O(1D) suivant le processus (5a) pour produire du monoxyde d’azote. En quatrième lieu, certains composés naturellement rares, les composés halogénés47 ont été introduits massivement dans l'atmosphère par l'homme, sous forme de halocarbones, les CFC. Ils interviennent tous de la même manière que le chlore, pris en exemple: Cl +O3 ⇒ ClO +O2 (6) ClO +O ⇒ Cl +O2 Mais ClO est instable et réagit avec le monoxyde d'azote, ce qui réduit d'autant les processus de destruction de l'ozone ClO + NO ⇒ Cl + NO2 Certes, Cl est rendu au cycle catalytique, mais 1 NO est consommé en échange, et NO2 rentre dans les réactions positives (5b) et (5c). Parmi les réactions qui limitent l'efficacité des cycles de destruction de l'ozone par les composés halogénés, on citera l'intervention du méthane sur le chlore: Cl + CH4 ⇒ CH3 + HCl Bien que l'acide chlorhydrique formé ici soit instable et réagisse avec les hydroxyles (1 OH consommé restituant 1 Cl) dans la réaction HCl + OH ⇒ H2O + Cl De la même façon que l'acide nitrique dans le cycle azoté, HCl constitue un puits troposphérique pour les produits chlorés de la stratosphère, en se solubilisant dans l'eau après avoir traversé la tropopause. La consommation de CH4 est doublement intéressante car, outre le fait qu'il s'agit d'un GES redoutable, le méthane intervient aussi dans la production d'hydroxyles dans le cycle (4c). Les halocarbones sont des composés remarquablement stables dans la basse atmosphère, ce qui leur a conféré un intérêt industriel tout particulier. En contrepartie, ils ne sont pas détruits dans la troposphère par des réactions chimiques, et finissent par gagner la stratosphère, où ils sont photodissociés et où ils libèrent les atomes de chlore qui attaquent l’ozone (6) Un seul produit halocarboné est naturel, le chlorure de méthyle, CH3Cl; d’origine naturelle marine, il est aussi certainement un constituant de la fumée qui apparaît lors de la combustion des végétaux, qu'il s'agisse du brûlage des terres, de l'essartage des forêts ou de la culture sur brûlis, mais aussi de la combustion de produits chlorés (polyvinyles). Tous les autres composés halogénés présents dans l'atmosphère terrestre sont des produits industriels, citons le tétrachlorure de carbone, CCl4, et parmi les fréons, le trichlorofluorométhane CFCl3 (Fréon 11) et le dichlorodifluorométhane, CF2Cl2 (Fréon 12), gaz propulseurs et/ou réfrigérants. La production annuelle de CFCl3 est passée de 1 000 T. en 1947 à 35 000 T. en 1957, puis 150 000 T en 1967 et 310 000 en 1989 … imposant, dès lors que des solutions techniques de remplacement étaient 47 trouvées, une réflexion mondiale sur leur utilisation ; rappelons : Vienne 1985 : Engagement des Etats parties à protéger la couche d’ozone et à coopérer scientifiquement afin d’améliorer la compréhension des processus atmosphériques. Montréal 1987 : interdiction de la production et l’utilisation des CFC d’ici à l’an 2000. Londres 1990 : les Etats s’engage dans un renforcement progressif de la protection de la couche d'ozone. Copenhague 1992, Vienne 1995, 1997 et Pékin 1999 :) 4 amendements apportant de nouvelles restrictions d’usage sur d’autres substances (e.g. HCFC). c – Impact des SAO Il est difficile d’établir le bilan global sur l’effet de serre des effets cumulés de la destruction d’O3 (qui compte au nombre des GES) par les halocarbures et autres substances anti ozone (SAO) et du forçage radiatif induit par ces mêmes substances, dont les raies d’absorption sont observables dans les fenêtres 8-9 et 10-14 µm que nous avons définies plus avant (Fig. 5) et dans la figure 27b. A la complexité chimique du cycle de l’Ozone s’ajoute une complexité de stockage. L’O3 est produite essentiellement sous les basses latitudes et elle rejoint ensuite les hautes latitudes où elle reste piégée dans le vortex solaire. Sa concentration y est maximale au printemps et passe, en automne, par un minimum, inférieur de quelques % relatifs. En effet, durant l’hiver, l’atmosphère du pôle s’organise en tourbillon (vortex) tropo- et stratosphérique. Au pôle Sud, ce vortex est situé au-dessus du continent Antarctique englacé (et donc morphologiquement homogène) et entouré par le courant marin circulaire d’Ouest. Il en résulte que, en Antarctique, le vortex est bien centré au niveau du pôle sud et qu’il y est généralement très stable. Comme la synthèse de l’ozone demande des UV qui ne sont pas disponibles à ces latitudes en hiver, l’équilibre fabrication-destruction d’ozone est nécessairement déplacé et la concentration en ozone décroît. En outre, les oxydes d’azote (N2O, NO2), dont nous avons vu le rôle modérateur dans le cycle de ont une action très limitée en hiver car sous forme cristaux qui offrent des surfaces de contact aux oxydes d’azote (piégés et donc inhibés) et aux CFC. Ceux-ci s’y décomposent et relâchent des atomes de chlore, destructeur de l’ozone. à base de fluor (F), chlore (Cl), iode (I) et brome (Br). - 123 - ENSM-SE, 2° A : axe transverse P N Fig. 27c : en haut, anomalie de la couche d’ozone (moyenne mondiale) corrigée des variations saisonnières, exprimées en % de la moyenne calculée pour la période 1964 – 1980 : mesures terrestres (ligne noire) et satellite (couleur) ; 16/10/12 Fig 28: Eruption du Pinatubo, 1991 : 15 106 T de SO2 injectées dans la stratosphère, transformées en gouttelettes de H2SO4 absorbent (en rouge) l’énergie solaire ; durée du phénomène, 2ans. en bas, mesures moyennes de l’épaisseur de la couche d’ozone en octobre, spectrophotomètrie faite en Antarctique. Dobson Unit (DU). la colonne (d'ozone) est présumée pure, à pression normale (1013.15 hPa) et à 0° C (273.15 K). La densité de la couche est exprimée en milli-centimètre (10-5m). 300 DU correspondent à une épaisseur de couche de 3 mm, http://www.ipcc.ch/; http://www.cactus2000.de/fr/unit/massozo.shtml; Les mesures de concentration effectuées montrèrent, dans les années 85-90, que le minimum automnal atteignait 30 à 40% relatif au pôle Sud, le pôle Nord étant épargné par le phénomène (Fig. 27c, valeurs corrigées des variations saisonnières). La bonne connaissance du cycle de Chapman fit rapidement suspecter les CFC, bien que produits et utilisés principalement dans l’hémisphère Nord. La grande réactivité de l’industrie des aérosols — rapidement prête à mettre avec avantage sur le marché un gaz propulseur sans Chlore dans nos bombes et des fluides caloriporteurs dans la plupart des installations réfrigérantes ou climatisations — a fait disparaître très vite la pollution par le Fréon ! Et le trou de l’Ozone a commencé à se refermer, rapidement tout d’abord, puis ensuite à un rythme que la communauté scientifique considère comme anormalement lent, alors qu’aucune source de CFC ne vient plus détruire l’Ozone depuis l’accord de Montréal en 1997. Aurait-on imputé aux SAO une agressivité excessive, ou bien le poids volumique des CFC les entraînait-il moins que prévu vers la stratosphère, rendant leur éradication moins performante ? Faudra-t-il (et pourra-t-on ?) appliquer la même politique contraignante avec les NO2 dont nous avons souligné la nocivité ? Aurait-on omis quelque molécule dans le panel des SAO ? Il convient, on le voit, de rester prudent à cet égard. La taille du trou autour du pôle dans la couche d’ozone reste une préoccupation de santé publique sous les hautes latitudes Sud, Chili, Argentine, Nouvelle Zélande en particulier, même si l’on peut espérer un retour à la normale d’ici moins d’un siècle. 3 - La mésosphère La connaissance de la mésosphère remonte aux années 50. On y a appliqué une méthode d’étude comparable à celle que Lindeman et Dobson utilisèrent pour la stratosphère, en mettant au point le suivi radar de billes lâchées à haute altitude par fusées. L’analyse de leur trajectoire permet de remonter à la densité de l’air et à sa température aux altitudes considérées. La température décroît rapidement avec l’altitude. Vers 80 km, elle atteint -140°C (Fig. 2). Au-dessous de 85 km, la mésosphère, est encore le siège de la photodissociation de O2, surtout par absorption entre 200 et 175 nm. Les oxygènes monoatomiques s'associent alors à de l'O2 pour former de l'ozone, mais en quantité très inférieure à l'ozone stratosphérique. La mésosphère est aussi le lieu de la photodissociation de H2O et de CH4, toujours par des UV courts (λ<200 nm): H2O + hν ν ⇒ OH +H ou O +H2; CH4 + hν ν ⇒ CH2 + H2 Cette région de l’atmosphère est en outre le siège des nuages noctiluques. La nature de ces nuages, observables seulement après le coucher du soleil, n’est pas encore bien connue. Il ne s’agit probablement pas de nuages de glace, car la quantité de vapeur d’eau disponible à cette altitude est très faible. Ils seraient plus probablement constitués de débris météoritiques ou de poussières cométaires, et/ou de poussières volcaniques (Fig. 28). En effet, on a pu observer à maintes reprises lors des éruptions à caractère explosif, éruptions pliniennes ou ignimbritiques48, que les éléments fins de la colonne de 48 La distinction entre les 2 types d’éruptions ne réside pas dans la nature du matériau, essentiellement rhyolitique (composition d’un granite), mais dans le mode de dissipation de l’énergie : 1 - dans une éruption plinienne, en colonne, la plus grande partie de l’énergie est dissipée dans une explosion initiale canalisée par un conduit étroit (Ø < 200m). Les vitesses d’émission peuvent atteindre 300m sec-1 2 - dans le cas d’une éruption ignimbritique, la nuée ardente présente à l'émission une densité supérieure à celle de l'air ambiant. Mais elle incorpore en dévalant les pentes du volcan une quantité importante d’air - 124 - ENSM-SE, 2° A : axe transverse P N produits volcaniques49 peuvent atteindre plusieurs dizaines de Km d’altitude. En incorporant de l’air froid qui se dilate, les mouvements convectifs internes au panache entretiennent l’ascension des matériaux volcaniques. Ils atteignent ainsi aisément la stratosphère. A partir de là, une petite fraction de poussière pourrait rejoindre la mésosphère pour y former les nuages noctiluques. 16/10/12 déceler l’existence de couches conductrices dans l’atmosphère. Comment l’onde radio pouvait-elle suivre la courbure terrestre ? O Hearside émit l’hypothèse que les ondes devaient être guidées entre l’océan d’une part et une couche suffisamment conductrice dans l’atmosphère pour les piéger d’autre part. L’air des 70 premiers Km de l’atmosphère n’est pas conducteur, on appelle cette couche basse la neutrosphère. Au-delà commence l’ionosphère. A cette altitude la quantité d’ions et d’électrons libres arrachés par les UV courts et le rayonnement X solaire est suffisante pour rendre l’atmosphère conductrice. Dans le champ d’une onde radio, les électrons oscillent et réémettent cette onde. La densité croissante d’électrons avec l’altitude a pour effet d’incurver, et finalement de réfléchir cette onde radio vers la Terre. En fait l’augmentation de la “ concentration ” électronique n’est pas linéaire. Elle passe par 3 maxima, qui constituent 3 réflecteurs radios (Fig. 2) : Avec la dispersion du nuage dans la stratosphère les éruptions peuvent provoquer une diminution de l’insolation qui peut être à l’échelle planétaire mais qui ne dépasse pas quelques mois (Tambora 1815, Krakatoa 1883, El Chichon 1982, Pinatubo juin 1991). La dispersion du nuage volcanique est aussi responsable de l’introduction d’aérosols (composés soufrés en particulier) dans la stratosphère. Leur rôle climatique est encore largement discuté. 4 - La thermosphère Au-delà de la mésopause débute la thermosphère (Fig. 2). Elle s’étend jusqu’aux confins de l’exosphère, vers 500 Km (cf. § composition de l’atmosphère). L’air, quoique raréfié, freine malgré tout les satellites. C’est d’ailleurs l’analyse de leurs trajectoires qui a permis, dès le début des sixties, de mieux connaître cette région de notre globe. 1 - la région D, située vers 80-90 Km d’altitude 2 - la région E, située aux alentours de 100 Km 3 - les régions F1 et F2, situées vers 180 et 350 Km. Dans l’ionosphère, l’atmosphère n’est que très partiellement ionisée, et les phénomènes qui s’y passent sont encore largement du domaine de la physico-chimie des espèces neutres. La température des molécules et atomes y croît très fortement, par absorption des UV très courts. Elle peut 2 - La magnétosphère atteindre 2000°C au zénith, et chuter de plus de 500° durant la nuit ! Toutefois, la densité du gaz y est si faible que la La limite entre l’ionosphère et la magnétosphère se chaleur transmise aux satellites est négligeable. situe autour du millier de Km. A cette très haute altitude, l’atmosphère est très fortement ionisée et l’on entre dans La photodissociation des gaz atmosphériques donne à le domaine du plasma. Il s’agit d’un plasma à faible ce brouet très clair une composition complexe, mélange densité composé d’électrons et d’ions, dont l’origine est d’oxydes d’azote, de molécules diatomiques, N2, O2, H2, et double : d’atomes, principalement d’oxygène et quelques 1 - une partie de ce plasma d’origine terrestre, est dite hydrogènes. Elle est le siège des aurores polaires.. ionosphérique ; rappelons que cette altitude nous situe dans l’exosphère, sous l’influence des Au voisinage de l’exosphère, il semblerait exister un X et UV solaire qui transforment les molécules début de stratification par densité des gaz atmosphériques qui atmosphériques en ions plus électrons ; ne sont plus brassés par aucun vent. C - Stratification électromagnétique de l'atmosphère : On distingue communément 3 strates : 1 - neutrosphère ; 2 - ionosphère ; 3 - magnétosphère 1 - La neutrosphère et l’ionosphère Il aura fallu attendre 1901 et les expériences de transmissions radio à longue distance de G. Marconi pour ambiant (froid) qui se dilate, conduisant le mélange vers une densité inférieure à la densité de l’air ambiant. Le panache volcanique peut alors s'élever, mais contrairement à celui d'une éruption plinienne, celui d’une ignimbrite prend naissance au front de la coulée et non au droit de la bouche d’émission. 49 éléments fins = poussières, cendres et ponces, aérosols. - 125 - Fig. 29: courants magnétosphériques ENSM-SE, 2° A : axe transverse P N Fig. 30: a) ovales polaires pendant une aurore ; 16/10/12 b et c) draperie de couleur verte et pourpre 2 - une partie de ce plasma provient de la capture de particules du vent solaire par le champ magnétique terrestre au niveau de la magnétopause, qui correspond à la région de reconnexion des champs magnétiques solaires et terrestres, (Chp. 3 Fig. 28). Les particules de vent solaire qui se déplacent dans l’ionosphère subissent l’influence du champ magnétique terrestre, qui est Nord-Sud. Par conséquent, Les électrons du plasma solaire sont déviés dans vers l’est (Fig. 29) et inversement, les ions positifs sont déviés vers l’ouest. Ils vont rejoindre le feuillet de plasma de la queue magnétosphérique (fig. 27, Chp. 3). Deux types de courants électriques prennent naissance avec cette capture (fig. 29): 1 - un courant Ouest-Est dans le feuillet de plasma du plan équatorial magnétique ; 2 - un courant aligné sur les lignes du champ magnétique terrestre (électrons spiralant autour des lignes de champ), passant par le vortex, qui rejoint ainsi l’ionosphère proche de la surface terrestre au niveau de l’ovale auroral. Les électrons spiralant autour des lignes de champ décrivent un mouvement en hélice dont le pas diminue avec l’augmentation de l’intensité du champ en se rapprochant de la surface de la Terre. Le pas de l’hélice finit par s’annuler, puis il s’inverse, conduisant l’électron à rebondir en quelque sorte en suivant la ligne de champ pour rejoindre la magnétopause en direction du pôle magnétique opposé. En temps ordinaire, le pas devient nul au-dessus de l’ionosphère. Les protons, plus massiques, sont beaucoup plus freinés, et l’intensité du courant correspondant est beaucoup moins forte. vent solaire. Des flots d’électrons pénètrent alors l’ionosphère et descendent plus bas dans l’atmosphère plus dense de la Terre alors qu’ils ne le devraient pas. Il semble que dans ces conditions, un champ électrique particulier se met en place au-dessus de l’ionosphère. Ce champ temporaire accélère les électrons qui parviennent ainsi jusqu’à la haute atmosphère, et qui y déclenchent une avalanche d’ionisations d’atomes et de dissociations moléculaires. Les couleurs vert-bleu et rose ou pourpre sont dues aux désexcitations respectives des oxygènes atomique et moléculaire (Fig. 30b), et de l’azote (Fig. 30c). Les draperies prennent naissance dans la mésosphère, mais peuvent descendre jusqu’au voisinage du sol, (de l’ordre du Km). D - Circulation de l'atmosphère La circulation atmosphérique (et océanique) exprime le transfert convectif de chaleur dans la machine Terre, depuis la source chaude équatoriale vers la source froide polaire. Le premier à expliquer la constance des alizés et des vents d'Ouest fut G. Hadley, 1735; pour lui, la région équatoriale étant plus ensoleillée que les pôles, les vents réguliers devaient transporter de la chaleur vers les pôles, et inversement du froid vers l'équateur. Si la Terre n'était pas en rotation, ce transfert serait effectué par une seule cellule de convection. Mais la force de Coriolis défléchit les vents, qui deviennent géostrophiques vers 30° de latitude (cf. § suivant) et se sont finalement trois cellules qui prennent les calories en charge (Fig. 31). Fig. 31: Circulation tmosphérique C’est le même phénomène qui piège des électrons et des protons à très haute énergie, sur deux ceintures situées à une distance de 1 rayon terrestre pour la première, et 3 à 5 rayons terrestres pour la seconde. Alignés sur des lignes du champ magnétique (dipolaire) quasi non déformé par le vent solaire, ces particules rebondissent entre pôle Nord et pôle Sud. Cette zone reconnue en 1958 par le satellite Explorer I porte le nom de son découvreur, J.A. Van Allen Le champ magnétique issu de la couronne solaire est constamment variable en intensité et en direction, ce qui rend la reconnexion instable, souvent complexe mais parfois aisée, lorsque les lignes du champ solaire sont orientées Nord-Sud, comme les lignes du champ terrestre. Les aurores polaires (quasi symétriques, Fig. 30a) apparaissent lors de captures abondantes de particules de - 126 - ENSM-SE, 2° A : axe transverse P N 1 - Force de Coriolis A PRIORI Nord-Sud (ou Sud-Nord, selon l’hémisphère) les alizés sont en fait déviés vers l’Ouest. En effet, à la surface de la Terre, tout mouvement des masses fluides est influencé par la rotation de la Terre, ce phénomène est appelé force de Coriolis F. Supposons une masse au repos par rapport à la Terre, située en un point « quelconque » de l'hémisphère Nord, de latitude φ (Fig. 32). Fig.32: Force de Coriolis 16/10/12 sud) est une aimable plaisanterie, les variations de latitude à cette échelle étant négligeables par rapport aux paramètres locaux (vitesse et direction initiales de l'eau, pentes du fond et formes de la baignoire). Pour l’océan ou l’atmosphère, les courants sont déviés vers la droite (horaires) en hémisphère Nord et vers la gauche (antihoraires) en hémisphère Sud. Si l'on s'intéresse à la variation de la vitesse longitudinale de la surface de la Terre avec la latitude, de (1) on tire dVL/dφ φ = -2ω ωR.Sinφ φ La variation de la vitesse longitudinale est donc nulle à l'équateur, et elle est maximum au pôle. Ce n’est donc qu’à partir des latitudes moyennes que la force de Coriolis jouera son rôle le plus important, tant sur les masses océaniques que sur les masses d’air en mouvement. 2 - Cellule de Hadley, ITCZ et cyclones La Terre tournant avec une vitesse angulaire ω = 2Πrad / 24h, la masse considérée est en fait animée d'une vitesse longitudinale vL qui est la vitesse de rotation de la surface de la Terre (de rayon R), à la latitude φ considérée, on a vL = 2ω ωR Cos φ (1) Si, à partir du temps t0, on déplace cette masse m vers le nord dans le plan méridien du temps t0 sans exercer de frottement, à la vitesse vm: 1 - elle conserve la vitesse longitudinale vL de son point de départ; 2 - au temps t = t0 +dt elle a parcouru une distance longitudinale L = VL.dt = 2ω ωR Cos φ.dt et une distance en latitude l = vm.dt; 3 - à cette nouvelle latitude φ+ dφ, la vitesse longitudinale VL' de la surface terrestre, est vL' = 2ω ωR Cos (φ + dφ), φ), VL’ est inférieure à VL la vitesse longitudinale initiale; et donc la masse m paraît avoir été déviée de sa trajectoire méridienne, vers l'Est dans l'hémisphère nord et vers l'Ouest dans l'hémisphère sud (on parle de force cum sole). Pour toute masse m, animée d'un vecteur vitesse non méridien, la force de Coriolis s'appliquera sur sa composante méridienne ; elle est généralement exprimée sous la forme d’un vecteur force normal au déplacement, F = mfvm Avec : vm, vitesse du corps en mouvement sur la surface de la Terre en rotation; f, paramètre de Coriolis = 2ω Sin φ. Par les paramètres mis en jeux, on constate que pour que la déviation soit significative, il faut pour une masse donnée que la vitesse vm soit importante par rapport à VL (cas des fusées et satellites), ou bien qu'une vitesse vm petite soit appliquée longtemps (de sorte que ∆φ soit significatif). Il en résulte que la rotation directe du tourbillon dans les baignoires de l'hémisphère nord (et inverse dans l'hémisphère A l'équateur, le fort ensoleillement entraîne une émission importante d'IR terrestres (en milieu continental ou océanique), qui provoque à son tour un abaissement de la densité de l'air (1.30 Kg /m3 à 20°c ; 1.22 Kg /m3 à 40°c). Les variations de densité observées suffisent à engendrer des vitesses ascensionnelles de l'ordre du m.s-1. Continuellement alimentée en air venu du Nord et du sud cette région est dénommée Zone de Convergence InterTropicale (ITCZ, Fig. 45 §E.3.c). Le refroidissement de l'air au cours de son ascension provoque sa condensation, et explique la forte nébulosité et pluviosité de cette région aux grains violents mais sans vent régulier, cauchemar des marins anglais (« Doldrums ») et dénommée Pot au noir dans l'Atlantique par les marins français. La libération de la chaleur latente liée à cette condensation augmente le contraste de température entre cette colonne montante et son environnement, ce qui augmente sa vitesse ascensionnelle (jusqu'à plusieurs m.s-1), et cet air initialement chaud et humide s'élève ainsi rapidement jusqu'au sommet dilaté de la troposphère (17-18 km).L'air, refroidi et asséché, redescend aux latitudes Nord et Sud-tropicales (20-30°); Cet air descendant et froid constitue une zone de hautes pressions (ceinture anticyclonique), région des calmes tropicaux ou «horse latitudes» détestés eux aussi des marins encalminés qui, lorsque l'eau douce venait à manquer, en arrivaient à jeter les chevaux à la mer. Très sec, cet air descendant est aussi responsable des ceintures désertiques tropicales que l'on rencontre tant au nord qu'au sud. Entre ces deux zones sans vent, les alizés ferment cette première boucle dénommée cellule de Hadley. Caractéristiques de la zone de convergence (chaude), les cyclones (typhons au Japon) sont la manifestation immédiate de la force de Coriolis, qui se manifeste dès lors que l’on dépasse quelques 6 à 8° de latitude. La formation d’un cyclone tropical (Fig. 33a-b) débute lorsque 3 conditions sont réunies : 1 - qu’il existe d’une zone de forte évaporation et une dépression locale dans la couche basse de la troposphère ; celle-ci est accompagnée de nuages ou d’une ligne de grains (bande de nuages orageux) ; initialement cet amas de nuages circule d’Est en Ouest avec l’Alizée. Sur les images de nos satellites, - 127 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Fig. 33 a-b : cyclone tropical a) Structure d’un cyclone b) http://www.risques.gouv.fr/risques/risques-naturels/Cyclone/ mise en place d’un cyclone http://la.climatologie.free.fr/cyclone/cyclone.htm Fig. 33 c-d : cyclone tropical c) Série temporelle des cyclones de 1950 à 2010, valeur 100 représente la médiane des énergies accumulées annuellement par les cyclones durant la période 1981-2010. La bande jaune (71-111%) représente l’énergie des cyclones d’activité normale, les bleue et rose sont les domaines d’energies respectivement inférieure et supérieure à la normale d) ACE (Accumulated Cyclone Energy), courbe de 1972 la à nos jours de l’énergie des cyclones (moyenne glissante sur 2 ans) des 2 hémisphères : globale (courbe du haut) et de l’hémisphère Nord (courbe du bas) ; la surface entre les 2 représente l’énergie des cyclones de l’hémisphère Sud. http://coaps.fsu.edu/~maue/tropical/historical.php http://www.nhc.noaa.gov/sshws.shtml on peut ainsi déceler certaines formations nuageuses pourvues d'un potentiel de convection profonde, voire parfois d'organisation tourbillonnaire à l'état d'embryon. Certaines évoluent en cyclones, lorsque les 2 autres conditions sont réunies, d'autres pas et restent des amas nuageux, ondes tropicales, zones perturbées. 2 - que la température de l'océan dépasse 26°C, sur au moins 50 mètres de profondeur, constituant ainsi un réservoir important dont l’évaporation fournira l'énergie nécessaire pour démarrer et entretenir le cyclone. 3 - que les vents de la zone soient homogènes sur une grande hauteur de la troposphère, de la surface de l’océan jusque vers 12 à 15 km d'altitude, hauteur de la colonne orageuse, de sorte que l’énergie issue de l’évaporation soit utilisée pour construire un mouvement tourbillonnaire profond. Dans ces conditions (Fig. 33b), le courant d'air ascendant qui se met en place génère une dépression à la surface de l’eau, qui fait converger l’air de la surface océanique. La masse d’air ascendante se trouve alors comprimée sous le couvercle de la tropopause (limite troposphère stratosphère), générant en altitude une zone de haute pression. Pour rétablir « l’équilibre », l’air du sommet de la colonne s’échappe latéralement (divergence de haute altitude). Le système ainsi mis en place pourra fonctionner et s'entretenir tant qu’il disposera d’un stock d’eau chaude à évaporer, raison pour laquelle un cyclone s’affaiblit lorsqu’il traverse une île, et s’évanouit lorsque sa trajectoire l’amène à parcourir une distance suffisante au dessus d’un continent. Avec un tel mode de fonctionnement et le réchauffement climatique qu’à connu le XX° siècle, il convient de s’interroger sur une augmentation potentielle de la fréquence et de l’énergie dissipée par les cyclones. Les medias rapportent souvent une nette augmentation de la fréquence et de l’intensité des cyclones et en font une conséquence directe du réchauffement. En fait, les données disponibles, qui concernent la période 1950-2010, conduisent la NOAA à définir pour l’atlantique deux périodes de haute activité encadrant une période de basse activité (1970-1995, Fig. 33c) et non une augmentation progressive en corrélation avec la température de l’atmosphère. - 128 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Fig. 34 b-c: b): Circulation : divergente (haute pression ) ; convergente (basse pression) ; c): vents http://nte-serveur.univ-lyon1.fr/geosciences/geodyn_ext/Cours/CoursTT1Atmosphere.htm On observe la même tendance sur les courbes de l’énergie globale et par hémisphère (ACE50, Fig. 33d), qui laissent penser que l’énergie disponible en zone tropicale subit une variation pluri annuelle. C’est en effet ce que montre l’étude de S.S. Chand et K. J. Walsh de 2011, pour qui l’ACE est clairement influencée par l’oscillation ENSO (voir § E3d) à une latitude inférieure à 15°. Au-delà de cette latitude, l’influence des épisodes El niño s’effacerait et c’est au contraire les évènements inverse de type « La Niña » (§ 3Ed) qui influenceraient l’activité cyclonique. On le voit, le couplage océan-atmosphère joue un rôle essentiel et l’ensemble des activités des deux fluides atmosphérique subit des oscillations, décennales à pluri décennales encore mal connues, sur lesquelles nous reviendrons souvent (e.g. §E3 et 4c). 3 - Cellule de Ferrel, vents géostrophiques et Cellule polaire Prenons une masse d’air, son mouvement sera initié par un gradient de pression (FP dans la Fig. 34a) et le mouvement initial du vent sera perpendiculaire aux isobares. Dès que la masse d'air est en mouvement, elle subit la force Fig. 34a: genèse des vents géostrophiques de Coriolis (FC) qui la dévie vers la droite dans notre hémisphère, jusqu'à paralléliser le vent avec les isobares, FP et FC pouvant être du même ordre de grandeur sous nos latitudes. On appelle ces vents, vents géostrophiques. Les isobares étant des courbes fermées autour des centres de haute et de basse pression, il en résulte dans notre hémisphère (Fig. 34b-c) que la circulation des vents géostrophiques est directe (ils tournent à droite) autour des hautes pressions, et inverse autour des basses pressions. Les zones de basses pressions sont corrélativement des régions où l'air présente une faible densité et s'élève (Fig. 34b), en tournant autour du centre, définissant une circulation cyclonique convergente. Inversement les zones de hautes pressions sont le centre d'une circulation descendante et divergente dite anticyclonique. Le front polaire, limite entre la cellule de convection polaire et la cellule des moyennes latitudes (cellule de Ferrel) ondule entre les hautes pressions centrées vers le sud et les basses pressions centrées plus au nord. Au pôle, l'air froid et sec très dense constitue la branche descendante de la cellule polaire. Il détermine ainsi dans notre hémisphère les vents froids de Nord-Est à Est qui descendent vers le front polaire. E - Circulation océanique 1 - Coriolis : Transport d’Ekman et courants Géostrophiques Comme l’atmosphère, l’océan est en mouvement (à faible vitesse mais sur une longue durée) et subit donc l’effet de la force de Coriolis, rotation directe (dextre) dans l’hémisphère nord et senestre au Sud. Le vent, en déplaçant la pellicule marine superficielle, vient jouer un rôle dans la circulation océanique. http://nte-serveur.univlyon1.fr/geosciences/geodyn_ext/Cours/CoursTT1Atmosphere.htm 50 ACE, Accumulated Cyclone Energy, index défini comme la somme des carrés des vitesses du vent d’un cyclone, mesurée toutes des 6 heures tant que sa force le classe au minimum dans les tempêtes tropicales, ou dans les cyclones selon l’échelle de Saffir-Simpson qui compte 5 degrés 1) 119-153 km/h ; 2) 154-177 km/h ; 3) 178-209 km/h ; 4) 210249 km/h ; 5) > 249 km/h. Imaginons que le vent qui a initié un courant océanique cesse brutalement. Le courant continue sur sa lancée en faiblissant lentement par frottement, on parle de courant d’inertie. Ce frottement, exercé sur une particule de ce courant animée d’une vitesse v très proche de celle de ses voisines, est faible en regard de la force de Coriolis F (de paramètre f = 2ω Sin φ) qui continue à s’appliquer sur ce courant. Dans ces conditions, si l’on considère la seule force de Coriolis (comme horizontale et agissant sur une différence de latitude dφ très petite), la particule de courant considéré, de masse m, décrira à la vitesse constante v, un cercle parfait de rayon r dans le plan horizontal. Dans un courant d’inertie la force de Coriolis - 129 - ENSM-SE, 2° A : axe transverse P N Fig. 35: Enregistrement du mouvement d’une particule à la surface pendant la disparition d’un courant d’inertie après une période de vent en mer Baltique ; traits noirs = position de la particule toutes les 12h ; elle exécute 4 tours ½ pendant les 3 premiers jour, correspondant à une période moyenne de 16h. agit donc comme une force centripète que l’on peut écrire : fcentripète = mv2/r , équivalent à FCoriolis= mfv (cf. § Cellule de Hadley) On en déduit : mv2/r = mfv, soit f = v/r ; (1) La période T de rotation de cette particule sera alors T = 2π πr/v Avec (1) on montre que la période de rotation dans un courant d’inertie T = 2π π /f est fonction de la latitude φ: A l’équateur, φ= 0° T = 2π / 2ω Sin φ T infinie Avec ω, vitesse angulaire de la Terre = 2π / 24 heures, on obtient : Au pôle, φ= 90° T = 12 / Sin φ T = 12 heures; A nos latitudes φ= 45° T = 12 / Sin φ T # 17 heures. Le calcul théorique effectué sans prise en compte des frottements donne, pour une latitude de 60°, une période de 14h proche de la période mesurée en Baltique (Fig. 35). Supposons un instant que la surface de l’océan soit pentée entre 2 points A et B, et qu’il n’y ait aucun écoulement entre A et B (Fig. 36a). Cette situation hautement théorique nous montre que tout point situé quelque part entre A et B sous l’horizontale de A dans ce cas, subit un gradient de pression égal à : ρg∆ ∆z /∆ ∆x = ρg Tan θ En supposant le poids volumique ρ constant le long de x, la force appliquée par unité de masse de l’océan (= gradient de pression horizontal) est proportionnelle à la gravité g et à la pente Tan θ. En conséquence, toute particule de l’océan va se mettre en mouvement, et accélérer uniformément en se déplaçant de B vers A. Revenons à notre hypothèse et soyons réalistes un instant ; cette eau en mouvement est soumise à la force de Coriolis et se comporte comme un vent géostrophique. Il se crée un courant dont le mouvement est dévié vers la droite Fig. 36b : Spirale d’Ekman ; depuis la surface, chaque lamine d’eau entraînée par frottement par sa voisine supérieure se trouve déviée plus à droite (hémisphère Nord), et ce d’autant moins que sa vitesse décroît avec la profondeur. dans hémisphère nord, et qui comme les vents géostrophiques, devient parallèle au gradient de pression qui le fait naître. Comme le vent géostrophique il s’enroule sur les isobares, dans l’océan cette fois. Comme pour les vents, on parle de courant géostrophique. Cet écoulement est symbolisé dans la figure 36a par un empennage de flèche de couleur verte. V. W. Ekman a montré à la fin du XIX° que le courant provoqué par le vent induit sous l’effet de la force de Coriolis un déplacement global moyen (c.à.d. sur l’ensemble de la tranche d’eau soumise au vent). Le déplacement moyen est perpendiculaire à la direction du vent (fig. 36b). 2 - la circulation thermohaline La circulation océanique résulte, de la même manière que la circulation atmosphérique, du transfert de chaleur de l’équateur vers le pôle. La quantité d’énergie à transférer dépasse très largement la capacité de diffusion de chaleur de l’eau, et donc l’essentiel du transfert de chaleur est opéré par la convection, reliant surface et profondeur. Cette Circulation ThermoHaline (THC) a été mise en évidence par W. Broecker en 1987. Il la compare à un tapis roulant tridimensionnel à d’échelle planétaire (cf. § E.3.e). Les paramètres clefs de ce transfert sont donc ceux qui (à une pression donnée, ou à une profondeur donnée) sont susceptibles de modifier le poids volumique de l’eau océanique, ce sont : 1 - sa température ; 2 - sa salinité. On parlera alors de circulation thermohaline. Son rôle dans la mise en place de la circulation profonde est tributaire de la topographie et sera donc évoqué plus loin (§ E.3.f) Fig. 36a : gradient de pression horizontal A a - Température et thermocline. B θ ∆x ρ 16/10/12 ∆z La pénétration de la lumière dans l’océan n’excède pas les 100 premiers mètres de l’océan, et c’est elle qui fournit sa chaleur à l’eau de surface, principalement sous les basses latitudes. La distribution des eaux chaudes de surface, T°>25 (en rouge dans la Fig. 37) est donc largement dépendante de la saison. On constate en - 130 - ENSM-SE, 2° A : axe transverse P N 16/10/12 hautes montagnes, sont bien évidemment des barrières infranchissables pour les courants océaniques. La morphologie du plancher océanique joue elle aussi un rôle primordial dans la circulation des eaux. Fig. 37: Température versus profondeur et latitude : -1 : Coupe verticale Sud-Nord de l’Atlantique 2 : a) b) c) Coupes verticales d’océans ouverts, à différentes latitudes ; Noter la couche d’eau de surface plus froide que les eaux profondes dans les hautes latitudes ; d) Coupes verticales au long de l’année en Atlantique Nord revanche que la latitude de l’isotherme 10°C (moyenne mensuelle) est globalement stable au cours des saisons autour des latitudes 40°N et 40°S. La pénétration de la lumière dans l’océan n’excède pas les 100 premiers mètres de l’océan, et c’est elle qui fournit sa chaleur à l’eau de surface, principalement sous les basses latitudes. La distribution des eaux chaudes de surface, T°>25 (en rouge dans la Figure 37) est donc largement dépendante de la saison. On constate en revanche que la latitude de l’isotherme 10°C (moyenne mensuelle) est globalement stable au cours des saisons autour des latitudes 40°N et 40°S. On observe aussi que dans l’Atlantique Nord cet isotherme 10°C occupe une latitude beaucoup plus haute qu’ailleurs (elle peut y dépasser 60°N), et on remarque enfin des incursions en région tropicale d’eaux froides venues de hautes latitudes le long des côtes Est des bassins océaniques, dans les deux hémisphères. Ces anomalies proviennent de distribution des masses continentales qui, si elles n’influencent la circulation atmosphérique que par leurs plus La tranche d’eau de surface est brassée par les phénomènes atmosphériques, sensibles jusqu’à 80-100 m environ. Cette première tranche d’eau est donc de température relativement homogène à l’échelle régionale. En dessous, la température de l’eau décroît plus ou moins rapidement avec la profondeur, en fonction de la latitude et de la saison (Fig. 37). Vers 500 à 800m, on atteint les eaux profondes ; elles sont homogènes, marquées par une décroissance lente et régulière avec la profondeur, décroissance qui diminue avec la latitude. On appelle thermocline la tranche d’eau qui organise la transition entre les eaux chaudes de surface et les eaux froides des profondeurs. Il est important de noter que dans les régions arctiques, la température passe par un minimum provoqué par la formation de la banquise (qui consomme de la chaleur latente de cristallisation). Ce processus de cristallisation augmente donc la densité de l’eau liquide par refroidissement. En outre, il extrait de l’eau douce de l’océan et provoque en corollaire direct une seconde augmentation de densité de l’eau liquide par accroissement de la salinité. Il s’en suit une disparition de la thermocline sous les hautes latitudes qui permet aux eaux très denses de surface de plonger vers les fonds océaniques, alors qu’inversement, sous les latitudes basses et moyennes, la stratification remarquable de l’eau interdit les échanges par convection entre la surface chaude et la profondeur froide. C’est donc seulement au niveau des hautes latitudes, avec des isothermes verticales ou presque et une densité renforcée que l’océan peut être brassé sur toute sa hauteur. On note cependant sur la coupe de l’Atlantique dans la figure 37 une remontée spectaculaire des isothermes sous l’équateur, montrant une remontée d’eau froide. Cet « upwelling » équatorial est observable dans tous les océans ouverts, il est provoqué par un couplage océan-atmosphère sur lequel nous reviendrons au § E-3. b - Salinité et halocline Le sel de l’océan provient de l’accumulation des solutés transportés en faible quantité par les eaux douces des rivières, solutés qu’elles ont elles-mêmes empruntés aux roches continentales par altération chimique. Ces solutés sont transportés conjointement avec les matériaux solides directement arrachés à la roche (sables, graviers, galets) ou hérités de l’altération chimique de cette roche (argiles, oxydes, hydroxydes insolubles essentiellement). L’océan fournit à l’ensemble de ces matériaux, solides et solutés, un milieu beaucoup plus confiné qui va déplacer les équilibres chimiques qui s’étaient établis dans les eaux continentales. Ce milieu étant aussi beaucoup moins énergétique que le milieu continental, le dépôt des matériaux solides imbibés de la solution océanique est inéluctable. Les sédiments marins vont ainsi contribuer avec la vie aquatique à soustraire une fraction des solutés apportés au système océanique. Un nouvel équilibre est donc rapidement atteint dans le milieu marin, dont la composition moyenne (Tableau 3) semble avoir été globalement stable autour de 34.5 grammes par kg depuis plusieurs Ga. En fonction de leur solubilité, les sels - 131 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Tableau 3 : Composition moyenne de l’eau de mer Fig. 38a : Salinité des eaux de surface de l’océan Anions Chlorure ClSulfate SO42Bicarbonate HCO3Bromure BrBorate H2BO3Fluorure FCations Sodium Na+ Magnesium Mg2+ Calcium Ca2+ Potassium K+ Strontium Sr2+ précipitent par évaporation de l’eau de mer, dans l’ordre suivant : 1) le carbonate de calcium (CaCO3) précipite le premier ; 2) lorsque l’on atteint 19% du volume d’eau initial l’Anhydrite (CaSO4) ou le Gypse (CaSO4.2H2O) commencent à précipiter ; 3) vers 9.5%, c’est le tour du chlorure de Sodium (NaCl) ; 4) les autres sels (chlorures, bromures ou iodures) commencent à précipiter lorsqu’il reste moins de 4% du volume initial. La carte de la salinité des eaux de surface de l’océan est relativement différente de la distribution des températures. On observe les concentrations en sel les plus fortes en premier lieu loin des embouchures des grands fleuves, dont la distribution n’est pas homogène à la surface des continents, et en second lieu dans les zones où l’évaporation maximum agit conjointement avec un régime de précipitations minimum (Fig. 38a). 0 /00 poids 19.0 2.65 0.15 0.065 0.025 0.001 10.6 1.3 0.4 0.35 0.01 Total 21.9% 12.6 (Fig. 38b, et Fig. 51a AABW = Antarctic Bottow Water). Cette symétrie radiale au Sud est provoquée par la position centrée sur le pôle du continent Antarctique. 2 - Partant de l’équateur vers le Sud, on observe en surface vers 40-45° une chute brutale de la concentration en sel. Celle-ci ne remonte qu’à proximité immédiate du continent Antarctique. Ces eaux peu salées (en bleu <34.5, mg in Fig. 38b, et Fig. 51a ; AAIW = Antarctic Intermediate Water) constituent une langue dont la profondeur n’excède pas 2000m, mais qui s’étend jusqu’au delà de l’équateur dans l’Atlantique. Les eaux profondes du Pacifique et de l’océan Indien apparaissent globalement homogènes. 3 - Dans l’hémisphère Nord, il existe une langue à faible salinité quasi symétrique nettement dessinée dans le Pacifique Nord (Fig. 38b), prenant naissance elle aussi vers 40° ; par contre on n’observe pas de Fig. 38b : Coupes verticales Sud-Nord de la salinité des océans. En résumé : 1 - L’océan s’évapore beaucoup sous l’équateur, mais il pleut aussi beaucoup (Pot au noir); en outre des eaux profondes moins salées viennent se mêler aux eaux de surface. La salinité n’y est donc pas maximum 2 - Il pleut rarement sous les Horses latitudes et l’évaporation y est encore très intense. C’est donc vers 30° de latitude que les eaux de surface sont les plus salées. 3 - Il pleut beaucoup au voisinage du Front polaire et cette eau douce abaisse la salinité de l’océan . En outre, la température moyenne y est beaucoup plus basse (10° environ) et limite l’évaporation. Néanmoins, dans l’Atlantique Nord, les eaux de surface apparaissent considérablement plus salées que leurs homologues du Pacifique Nord ou des latitudes Sud. 4 - Sous les hautes latitudes, les précipitations neigeuses qui viennent épaissir la banquise n’ont plus aucun effet diluant pendant l’hiver. Par similitude avec la thermocline, on appelle halocline le gradient de concentration important qui sépare les eaux chaudes de surface rendues plus salées par l’évaporation, des eaux profondes. Cette notion doit néanmoins être utilisée avec prudence car, comme nous venons de le voir, les causes de variation de salinité sont multiples, et donc la distribution de la salinité complexe : 1 - La salinité des eaux froides et profondes apparaît très comparable dans les trois océans dans l’hémisphère sud - 132 - ENSM-SE, 2° A : axe transverse P N langue symétrique peu salée au nord de l’équateur dans l’Océan Indien, immédiatement limité au nord par le continent indien. 16/10/12 Fig. 39a : Carte des courants et de la surface topographique de l’océan (dressée les 23-24 septembre 1993). On voit clairement dans ce dernier point le rôle que joue la position des masses continentales dans la circulation thermohaline, en limitant ici l’océan Indien vers le Nord et en interdisant ainsi la formation d’une masse peu salée. C’est aussi la distribution des continents autour de l’océan Atlantique Nord qui interdit la formation d’une langue peu salée, océan qui se continue pourtant jusqu’au pôle par l’océan Arctique. La raison en est double : 1 - les eaux chaudes et salées du Gulf-Stream remontent très au nord ; 2 - La Méditerranée déverse dans l’Atlantique une eau sur-salée (en rose in Fig. 38b) qui renforce en profondeur la masse des eaux salées de surface de la région chaude des latitudes 10-30°N. Cette langue gagne l’équateur et constitue une strate plus salée sous la langue sous-salée en provenance des hautes latitudes Sud. 3 - Rôle de la topographie et de la latitude. Soumises à la force de Coriolis et limitées dans leur déplacement par les continents, les eaux de surface des océans subissent la poussée des vents. Le nombre des paramètres est petit, pourtant leurs effets sont multiples (fig. 39a) et conduisent à une circulation superficielle constituée de cellules en rotation plusieurs milliers de km de diamètre, dénommées gyres. Elles sont grossièrement symétriques par rapport à l’équateur sous l’action de la force de Coriolis, (Fig. 39b). a - Gyres océaniques et de SE en NO tournent dans le sens horaire sous l’effet de la force de Coriolis. En outre elles viennent buter sur les Antilles et l’isthme Centre américain (Fig.39b), et amorcent ainsi la grande gyre Nord-Atlantique subtropicale du Gulf Stream (Fig. 40a). Ce courant très fort fut reconnu très tôt, en 1513, par Spaniard Ponce de Leon ; ses bateaux en route directe depuis Porto Rico vers ce que l’on nomme aujourd’hui la Floride avaient eu beaucoup de difficulté à le traverser. Il faudra néanmoins attendre B. Franklin (1777) pour disposer d’une première carte portant la trajectoire de ce courant et ce n’est qu’avec l’avènement des modèles simplifiés des océans (seconde moitié du XX°) que l'origine physique du Gulf Stream sera comprise. Dans l’océan Atlantique tropical Sud, l’alizé du SE engendrent de façon symétrique la grande boucle de l’Atlantique central, entre le Brésil et les côtes africaines (Fig.39). Comme dans une simple rivière, les écoulements Fig. 39b : Carte de grandes gyres océaniques En Atlantique-Nord on observe ainsi une gyre subtropicale, entre 15°N et 45°N environ, et une gyre subpolaire plus au nord. L'échange de masse et de chaleur entre ces deux gyres est influencé par la circulation thermohaline reliant surface et profondeur. Dans l’océan Atlantique tropical Nord, sous l’effet de l’Alizé du NE, ces eaux déplacées d’Ouest en Est - 133 - ENSM-SE, 2° A : axe transverse P N Fig. 40a: Image de la T° de surface du Gulf-Stream au contact des eaux froides en provenance du Labrador . La ligne noire représente la bordure du plateau continental. géostrophiques sont turbulents et incorporent à leur périphérie des eaux contrastées, donnant naissance ainsi à de grands tourbillons observables par les mesures de température de surface (Fig. 40a) et par l’altimétrie satellitaire (anomalies positives de rotation normale, et négatives de rotation inverse (Fig. 40b), les taches rouges sont les tourbillons anticycloniques de rotation normale dextre, et les bleues appelées Cyclones, tournent en sens inverse). L’affaiblissement du Gulf Stream est considéré de nos jours comme un évènement hautement probable lié au changement climatique, par un enchaînement en cascade de phénomènes : 1 - réchauffement climatique des eaux polaires, 2 - fonte de la banquise et refroidissement faible de l’océan Arctique en hiver, 3 - densité faible des eaux de surface de l’océan polaire. Le résultat ultime en serait le non plongement de ces eaux et les conséquences climatiques pour l’Europe de l’Ouest en seraient considérables. Située à la même latitude que le Canada, les côtes européennes sont actuellement réchauffées par le Gulf Stream. Nous y reviendrons au paragraphe E.3.f. 16/10/12 Fig. 40b : Altimétrie satellitaire de surface du Gulf-Stream au contact des eaux froides en provenance du Labrador . décrits par B. Moitessier dans « la longue route » (Arthaud 1971), organisent la circulation océanique de surface en un courant circum-Antarctique puissant que durent affronter, bien avant les Moitessier et autres J. Slocum, les marins en route vers Valparaiso, jusqu’à l’ouverture du canal de Panama en 1914. Le passage du Horn avec des voiles carrées, par 50° de latitude contre vent et courant pouvait alors durer deux à trois mois ! Ces eaux de surface qui franchisse le détroit de Drake sont partiellement incorporées à la gyre Atlantique-Sud. Pour C. Wunsch (in D. Swingedouw, 2006), la turbulence liée au forçage éolien au niveau des 40ièmes rugissants et des 50ièmes hurlants et la force de marée (qui déplace des volumes d’eau considérables) ont pour conséquence la diffusion des eaux profondes et denses, qui sont ainsi tirées vers la surface. Pour l’auteur, l'appellation circulation thermohaline prête donc à confusion car ce n'est pas le gradient de densité qui nourrit la circulation mondiale mais plutôt cette diffusion dans l'océan profond. Pour autant, les eux profondes circum-Antarctiques restent largement isolées (cf. § E.3.f, Fig. 51a). c - « Upwellings » Les vents alizés convergent du NE et du SE vers Fig. 41 : Courants péri-Antarctiques. b – Westerlies ou Quarantièmes et les cinquantièmes Les vents de secteur Ouest des latitudes plus élevées, comme les Westerlies de l’Atlantique Nord, poussent l’eau de surface devant eux en amorçant un virage vers l’équateur (Coriolis oblige). Ils participent ainsi avec les alizés à la constitution des grandes gyres océaniques subtropicales, bien identifiables dans l’Atlantique Nord et Sud (e.g. carte des courants observés les 23-24 septembre 1993, Fig. 39a et Fig. 39b). L’océan mondial Sud est largement fermé par l’étroit goulet (Passage de Drake) entre la Terre de Feu de l’Amérique et la Péninsule Palmer du continent Antarctique (fig. 41). La circulation des vents d’Ouest du Pacifique Sud, « Quarantièmes rugissants » et « Cinquantièmes hurlants » - 134 - ENSM-SE, 2° A : axe transverse P N Fig. 42 :Alisés et upwelling équatorial ; Pointillé = équateur l’équateur. En soufflant, ils poussent vers l’Ouest une masse d’eaux équatoriales de surface. Dès lors que l’on quitte l’équateur, la force de Coriolis dévie cette masse d’eau de surface de part et d’autre de la ITCZ (courants d’Ekman vers le NO et le SO) et laisse remonter ainsi des eaux plus profondes et froides. On parle de courant de “upwelling” équatorial (fig. 42). Au voisinage des continents sous le vent des alizés, (côtes Ouest des Amériques et de l’Afrique) et en situation normale d’équilibre de l’atmosphère, les alizés écartent la masse d’eau de la côte laissant émerger un upwelling côtier. Vers des latitudes plus élevées, les eaux froides de ces upwellings côtiers se mêlent aux eaux froides de surface des branches orientales des grandes gyres, N-S ou S-N (selon l’hémisphère). Leur rotation, dextre dans l’hémisphère Nord et senestre dans l’hémisphère Sud, est bien visible dans la figure 39. Les masses d’eaux de surface ainsi transférées vers l’équateur le long des côtes orientales des océans sont bien entendu déviées par la force de Coriolis. Ceci tend à éloigner l’eau de la côte, située dans l’Est du courant dans les deux cas. Il s’en suit un appel d’eaux profondes, tout le long de la côte du Maroc (ex-Sahara occidental) et de la Mauritanie, ou le long des côtes du Chili, qui viennent renforcer l’upwelling côtier. Fig. 43a : 16/10/12 situation La Niña sur le Pacifique ; observée par altimétrie satellitaire ; Fig. 43b : situation El Niño sur le Pacifique observée par altimétrie satellitaire ; Dans l’Atlantique-Nord, en raison de la topographie SW-NE des côtes américaines qui infléchit singulièrement le Gulf-Stream à son départ51, et de celle des côtes afroeuropéennes aux latitudes moyennes sur l’autre rive, une part importante du Gulf-Stream est déviée vers les hautes latitudes dans le NE et donne le courant Nord Atlantique. Il est à l’origine de l’anomalie >0 de température (Fig. 37) et de salinité (Fig. 38a-b) observée dans l’atlantique Nord, qui interdit la formation d’une langue peu salée et peu profonde comme dans le Pacifique Nord (Fig. 38b en bleu). 4 - Les couplages océan-atmosphère. a- El Niño / Southern Oscillation system (ENSO) Couplage Océan-atmosphère, Dans le Pacifique, les alizés très réguliers du SE 51 Observez à cet égard le contrôle exercé par le talus continental Nord-américain sur le mélange avec les eaux froides sur la figure 25. - 135 - accumulent donc dans la région indonésienne une grande quantité d’eau chaude en provenance des côtes de Colombie – Equateur – Pérou - Chili (Fig. 43a). La thermocline apparaît ainsi plus profonde dans la région indonésienne (Fig. 44 à gauche), et permet à des eaux plus froides et plus riches en nutriment (phosphates) de remonter vers la surface (Fig. 44, à droite en rouge) donnant la langue bleue de la figure 43a. Les eaux chaudes (en rouge) sont massivement stockées à l’Ouest, entre 180° et 150° de longitude. Poussée à son paroxysme, cette situation est appelée “La Niña” ; elle correspond à la période faste de bonne pêche en mer et de climat très sec sur la bordure continentale Sud-américaine. Cette situation stable que connaît l’océan Pacifique durant des mois résulte d’un phénomène de couplage océan-atmosphère centré sur le Pacifique tropical, mais qui intéresse en fait plus de la moitié de la surface terrestre. ENSM-SE, 2° A : axe transverse P N Fig. 44 : Coupe W-E de l’océan Pacifique: T°, 0-25°C Teneur en phosphate 0-3 µM/l On appelle ENSO, pour El Niño Southern Oscillations, cet ensemble à grande échelle de fluctuations cohérentes de la température de l’air et de l’eau, de la pression atmosphérique, de la direction et de l’intensité des vents et des courants marins. Ces fluctuations se traduisent dans la météo de toute cette région et perturbent fortement le monde vivant. Les épisodes chauds « El Niño » (Fig. 43a), constituent avec les épisodes froids « La Niña » (Fig. 43b) les deux termes extrêmes du cycle ENSO. Observé du point de vue océanique, un épisode El Niño (aux alentours de Noël, d’où son nom de petit Jésus) se traduit dans l’océan tropical Est Pacifique par une augmentation brutale de 2 à 5°C au dessus de la température moyenne de l’eau (jusqu’à 28°C, en particulier le long des côtes Sud-américaines). La température devient alors quasi uniforme sur l’ensemble du Pacifique équatorial. Du point de vue atmosphérique, on observe l’effondrement des vents alizés, et le déplacement vers le Sud de la Zone de convergence Intertropicale (ITCZ52, Fig. 45). Les eaux chaudes stockées dans l’Ouest Pacifique reviennent avec El Niño sur les côtes Sud-américaines (Fig. 43b, en rouge) avec un courant équatorial très fort. Celui-ci bloque les 2 courants nutritifs : en profondeur le courant d’upwelling53 ; en surface le courant côtier froid (venant du Sud du Chili, cf. § précédent). La pêche côtière devient alors très peu productive, à tel point que lors des Fig. 45 : Variations saisonnières de la ITCZ 16/10/12 épisodes El Niño les plus sévères, la population des oiseaux de mer subit des pertes extrêmement lourdes. Cette onde d’eau chaude diverge ensuite vers le Nord et le Sud, elle est réfléchie par la Côte Nord américaine et repart vers le Japon à travers le Pacifique Nord. Il s’en suit des pluies orageuses très abondantes sur le Pacifique Est et sur les côtes de Bolivie - Pérou - Chili. Des régions ordinairement désertiques de ces pays se couvrent momentanément de prairies ; inversement, le Nord de l’Australie, l’Indonésie, les Philippines subissent une intense sécheresse. Ailleurs un temps plus humide que la normale est souvent observé pendant la période Décembre à Février, citons le long des côtes de l’état d’Equateur, ou bien le Sud-Brésil, l’Argentine, ou enfin l’Afrique équatoriale. Un climat plus chaud que la normale est observé sur le Japon, l’Asie du Sud-Est, et sur le Sud du Canada Central. Cette période pluvieuse s’étend sur les mois de Juin à Août en se déplaçant sur les chaînes Andines du Chili et Rocheuses des USA. Un temps anormalement sec règne au contraire sur l’Amérique Centrale et le Sud de l’Afrique de décembre à Février, et plus froid sur le Golfe du Mexique, puis sur l’Est Australien entre Juin et Août. A l’opposé, durant la même période de Décembre à Mars, la température de l’océan Pacifique Est tropical peut descendre jusqu’à 4° sous la température moyenne, caractérisant alors un épisode La Niña (l’Infante). On voit donc que le phénomène El Niño, s’il est bien saisonnier, n’est pas annuel ; il apparaît irrégulièrement, entre 3 et 7ans en général. Dans le contexte d’élévation de la température moyenne qui caractérise la fin du XX° siècle et ce début de XXI°, la température accrue de la surface de l’océan conduit à un rapprochement des épisodes ENSO. Dans les conditions ordinaires de fonctionnement, les alizés forts qui caractérisent le Pacifique et refoulent les eaux chaudes superficielles vers l’Ouest traduisent un gradient de pression atmosphérique élevé entre la région des Galápagos - Tahiti et celle de l’Australie – Indonésie. On appelle Southern Oscillation Index SOI, ce gradient mesuré entre Tahiti et Darwin en Australie. En général, la courbe de variation dans le temps du SOI Fig.46a : Corrélation négative entre variation du SOI et variation de température 52 Responsable du cycle de la mousson dans l’océan Indien, la ITCZ est normalement installée au nord de l’équateur dans l’océan Pacifique Est pendant l’été. 53 la pente de la thermocline de la Figure 27 s’inverse et plonge vers l’Est. - 136 - ENSM-SE, 2° A : axe transverse P N Fig. 46b : Pont atmosphérique ENSO 16/10/12 Sud sous le nom d’interdecadal Pacific oscillation (IPO ou ID). La PDO affecte aussi le continent américain ; F. Biondi et al. 2001 ont montré qu’une reconstruction de cette oscillation est possible à travers l’étude des anneaux de croissance des arbres (Baja California) sur la période 1661 à nos jours. http://en.wikipedia.org/wiki/File:Atmospheric_bridge.png (Fig. 46a) est étroitement corrélée (négativement) avec celle des températures de l’océan Pacifique équatorial ; les pics prolongés positifs coïncident avec les épisodes La Niña alors que les périodes prolongées de SOI négatif, coïncident avec les évènements El Niño. Contrairement à ENSO, processus équatorial répondant à une seule sollicitation physique, la PDO apparaît comme une réponse à une sollicitation physique complexe, basée en premier lieu sur une influence immédiate (concomitante) des évènements El Niño, et en second lieu sur une influence différée et extratropicale de ceux-ci. Cette influence extratropicale est la réponse à la convection profonde que les évènements El Niño engendrent dans l’atmosphère. Elle se traduit par l’apparition d’une anomalie de température de la surface du Pacifique sous les latitudes moyennes, durant l’hiver qui suit les évènements El Niño. Interviennent en outre sur la PDO des ENSO influence la circulation globale de l’atmosphère lors modifications de la gyre Nord Pacifique et du cycle d’un évènement El Niño, via un transfert de chaleur saisonnier que constituent i) la « réémergence des eaux important dans l’atmosphère au dessus de la zone chaudes » en surface aux latitudes moyennes (voir anormalement chaude et une convection profonde de celui-ci, explication ci-après) et ii) les transferts de chaleur décrits qui va se propager à des milliers de kilomètres de l’équateur, au § ENSO (de l’océan vers l’atmosphère et pont sous forme d’ondes de chaleurs réfléchies par le pôle. On appelle « pont atmosphérique » (Fig. 46b) cette influence atmosphérique). La présence d’eaux chaudes en surface d’un hiver à l’autre mais pas durant l’été entre les 2, est ENSO à distance sur la zone Aléoutienne via la troposphère. Fig. 47b : « mixed layer » b - PDO / Pacific Decadal Oscillation, Couplage OcéanAtmosphère Depuis longtemps, il a été observé sur le Pacifique Nord sous les latitudes moyennes des anomalies de températures qui sont soumises à des variations à longue période (pluridécennales, 50-60 ans). En 1976 et 1977 déjà, C. Frankignoul et K. Hasselmann du Max-Planck-lnstitut fur Meteorologie, expliquaient ces variations par leur concept de « modèles stochastiques aléatoires du climat », pour lesquels ces variations sont une réponse de la tranche océanique de surface à des sollicitations atmosphériques de période courte. http://www.locean-ipsl.upmc.fr/~cdblod/mld.html C’est dans le cadre d’une étude de la production des saumons de N. Mantua et al. 1997 qu’apparut le nom de Pacific Decadal Oscillation (PDO), pour décrire le fait que la température de surface de l’océan (SST) augmente à l’Est pendant qu’elle diminue à l’Ouest (phase dite positive ou chaude, Fig. 47a gauche) ; puis le phénomène s’inverse (phase dite négative ou froide Fig. 47a droite) sur les échelles de temps de 20 à 30 ans. Cette oscillation sous les latitudes moyennes est actuellement décrite pour les Pacifiques Nord et Fig. 47a : cartographie de la SST, Sea surface temperature ; Phase chaude Phase froide http://jisao.washington.edu/pdo/ - 137 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Fig. 48a-1: Structure spatiale de la NAO d'hiver. L'incrément entre contours est de 0,5 millibar et les points représentent la localisation des stations météorologiques Lisbonne (Anticyclone des Açores) et Stykkisholmur (Dépression Islandaise) dont les relevés sont utilisés pour construire l'indice NAO. Fig. 47c : Index PDO 1- Variation de l’index PDO depuis 85 ans http://www.nwfsc.noaa.gov/research/divisions/fed/oeip/ca-pdo.cfm 2- Fig. 48a-2 : Impacts des deux phases de la NAO (from Martin Visbeck, Lamont-Doherty Earth Observatory). Comparaison de l’index avec la hauteur de l’océan http://www.esr.org/pdo_index.html causée par le cycle saisonnier que subit la tranche supérieure de l’océan. On nomme « mixed layer » cette tranche supérieure turbulente, soumise au vent et donc aux courants d’Ekman, dont la température est verticalement homogène, (Fig. 47b). La profondeur du mixed layer atteint 100 à 200 m de plus en hiver qu’en été dans cette zone du Pacifique Nord. Il en résulte une moindre importance de la température (basse en hiver, chaude en été) des eaux de surface. Durant l’été, la majeure partie de cette tranche reste piégée sous les eaux surchauffées de surface, et réapparaît l’hiver au suivant, d’où le nom de "reemergence mechanism" donné par M.A. Alexander et C. Deser 1995. 48a-3 : déplacement du jet stream avec la NAO Enfin, le processus inventé par Frankignoul et Hasselmann résiderait naturellement dans le passage de tempêtes qui modifient le niveau d’énergie contenu dans le mixed layer, via les vents et courant d’Ekman induits. L’implication du pompage d’Ekman dans le phénomène apparaît clairement dans la superposition des courbes de l’index PDO et de l’altitude de la surface de l’océan dans cette zone (Fig. 47c-2). On notera la coïncidence des périodes positives chaudes avec les périodes d’élévation de la température durant le XX° siècle (Fig. 47c1). Cet index, résultat d’une combinaison de paramètres dont bien sûr la SST, est considéré par certains auteurs comme discutable dans la mesure où les auteurs introduisent la soustraction d’une quantité liée au réchauffement global afin de s’en affranchir. Reste la courbe de hauteur de l’océan et la variation de la taille des cernes des arbres de Baja California, qui ne peuvent être entachées du même défaut, pour attester de la réalité physique du phénomène PDO. c - NAO / North Atlantic Oscillation ou AO/ Arctic Oscillation, un même couplage Océan-Atmosphère L'Atlantique Nord est caractérisé en hiver par l'existence de 2 structures, i) une dépression centrée sur l'Islande et ii) un anticyclone centré sur les Açores et la Péninsule Ibérique. http://www.newx-forecasts.com/nao.html Ces 2 structures bien définies (Fig. 48a-1) présentent un mode de variabilité caractérisé par une forte cohérence spatiale à grande échelle, qui représente une redistribution des masses atmosphériques entre les régions arctiques ou subarctiques et les régions subtropicales de l'Atlantique. Cette variation est appelée Oscillation Nord Atlantique (NAO). On parle de phase positive (NAO+, - 138 - ENSM-SE, 2° A : axe transverse P N Fig. 48 à gauche) lorsque les deux centres d'action se renforcent — creusement de la 16/10/12 Fig. 48c : D'après le National Snow and Ice Data Center, l'AO et la NAO sont 2 façons de décrire le même phénomène" dépression d'Islande, gonflement et intensification de l'Anticyclone des Açores — et de phase négative (NAO-, à droite) lorsque les deux s'affaiblissent simultanément. Ces fluctuations ont des conséquences directes sur le climat, depuis la côte Est des Etats-Unis à l'Eurasie, et de l'Afrique du Nord et du Moyen-Orient jusqu’en Arctique, que l'on peut résumer comme suit : 1 - Un indice NAO+ correspond à une pression plus élevée que la moyenne en hiver sur les Açores — l'anticyclone (A) y est plus fort que la normale — et une pression plus faible que la moyenne sur l'Islande — avec une dépression (D) plus creuse — (Fig. 48a-2 gauche). L'impact d'un NAO+ est un courant-jet direct (Fig. 48a-3) et un renforcement des vents d'ouest à sud-ouest entre les deux structures. Cela conduit à plus de douceur, plus de pluie et à des tempêtes plus fréquentes (et plus violentes) sur l'Europe du Nord à partir du nord de la France. La moitié sud de la France connaît alors un climat hivernal méditerranéen, sec et doux. Sur le nord du Canada et le Groenland, l'hiver est alors froid et sec et l'est des États-Unis subit un temps doux et humide. 2 - Un indice NAO- (Fig. 48a-2 droite) correspond à la situation inverse — l'anticyclone des Açores (A) est plus faible que sa valeur normale d'hiver et la dépression d'Islande (L) est faiblement marquée — imposant au courant-jet de contourner le Groënland (Fig. 48a-3). Par conséquent, les vents d'ouest ne sont pas très forts, les tempêtes sont rares sur l'Europe du nord qui passe sous l'influence de l'Anticyclone de Sibérie, générant un hiver froid et sec. Les trains de perturbations circulent au niveau de la Méditerranée ; l’hiver est humide aux latitudes sud-européennes et nordafricaines, plutôt doux au Groenland et la côte Est des États-Unis est soumise à des épisodes froids et neigeux. La NAO étant caractérisée classiquement par le champ de pression au niveau de la mer — pour lequel on dispose de longues séries chronologiques des moyennes mensuelles Fig. 48 b: valeurs annuelles de l'indice NAO depuis 1830 (barres rouges NAO+ ou bleues NAO-). La courbe en trait plein noir correspond à une moyenne glissante filtrant les fluctuations inférieures à 4 ans. On observe clairement des périodes de plusieurs années où l'indice moyen est plutôt positif (1980-1998), et d'autres où il est plutôt négatif (1955-1974). http://www.ifremer.fr/lpo/cours/nao/nao3.html http://nsidc.org/arcticmet/patterns/arctic_oscillation.html — on peut rechercher la signature de la NAO (Fig. 48b) dans l'histoire. Son évolution temporelle présente une forte variabilité sans échelle de temps caractéristique contrairement aux phénomènes ENSO ou PDO. C. Cassou et L. Terray notent que la fin du XX° siècle est dominée par l'alternance de périodes décennales qui privilégient les phases négatives dans les années 50 à 60 et positives depuis. Pour les auteurs, ces 30 dernières années se rapprochent du début du siècle, où une certaine persistance en phase positive était également décelable, mais contrastent par les fortes valeurs de l'indice (7 parmi les 10 valeurs les plus élevées au cours des 150 dernières années ont été enregistrées depuis 1980). Les modèles de circulation générale atmosphérique (dans lesquels on impose les températures de surface de la mer) dessinent des structures de pression évoluant de façon similaire à la NAO, suggérant que celle-ci est en fait un mode de variabilité intrinsèque à l'atmosphère. Les mécanismes en reposeraient seulement sur l'interaction entre l'écoulement ordinaire de l’atmosphère (courant-jet de haute altitude, ondes atmosphériques stationnaires etc.) et des tourbillons transitoires (ou tempêtes). Ainsi, le modèle d'atmosphère n'a pas « besoin » de la variabilité océanique ou des autres sous-systèmes climatiques pour reproduire le mode spatial NAO (contrairement à l'ENSO) ; Cassou et. Terray notent en revanche que les fluctuations temporelles de la NAO simulées ne privilégient aucune période caractéristique, et n’expliquent pas les fluctuations décennales observées. Pour les auteurs, une possibilité est l'influence d'un autre sous-système climatique capable de modifier l'occurrence et/ou la persistance de phases spécifiques de la NAO. L'océan est le principal candidat. On observe en effet des anomalies des températures océaniques de grande échelle sur le bassin Atlantique étroitement liées aux phases de la NAO (Fig. 48a-2). Pour Cassou et Terray, c'est à travers la modification des échanges airmer (chaleur latente et sensible) que l'atmosphère « imprime » ses anomalies à l'océan de surface, y dessinant une structure à trois branches en phase NAO +: 1 - Le renforcement des vents d'Ouest sur le nord du bassin Atlantique, associé à la course plus septentrionale des tempêtes tend à refroidir davantage l'océan par augmentation de l'évaporation de surface ; les descentes d'air froid et sec d'origine - 139 - ENSM-SE, 2° A : axe transverse P N polaire sur le Nord-Ouest du bassin tendent également à refroidir la Mer du Labrador ; 2 - Aux moyennes latitudes, règnent alors des conditions plus clémentes qui tendent à réchauffer anormalement l’eau de surface (diminution de l'évaporation) ; les remontées d'air plus chaud (régime de Sud-Ouest dominant) tendent à réchauffer l’océan médian le long des côtes américaines et européennes. 3 - Sous les tropiques, l'intensification des alizés due au renforcement de l'Anticyclone des Açores induit un refroidissement du bassin tropical de l'Atlantique Nord en réponse à une évaporation de surface plus intense. En période NAO-, c'est la structure inverse qui se dessine. D'après le National Snow and Ice Data Center, la NAO et l'AO (Arctic Oscillation, Fig. 48c) sont 2 façons de décrire le même phénomène. L'AO est une variation d'une année à l'autre de la différence de pression atmosphérique au niveau de l'océan, entre le pôle et la latitude 20°N. Cette variation se traduit bien sûr dans la position et l'intensité des dépressions arctiques et des anticyclones au Sud. A la différence de la NAO qui n'intéresse que l'Atlantique ou de la PDO qui ne s'applique qu’au Pacifique, l'AO couvre tout Fig. 49: Atlantic multidecadal oscillation (AMO) a) évolution temporelle de l'index AMO depuis 1860 16/10/12 l’hémisphère Nord. L'AO est en phase AO+, comme en NAO+, lorsqu'une plus grande différence de pression existe entre les basses pressions polaires et les hautes pressions des latitudes tempérées. Elle est en AO- comme pour la NAOlorsque les différences de pression entre les 2 structures sont faibles. Cette situation à la surface du globe est intimement liée au comportement de la haute troposphère et de la stratosphère. En phase AO+, la stratosphère se refroidit. Le contraste Nord-Sud renforce alors les vents Ouest-Est tournant autour du pôle Nord et creuse profondément un vortex polaire, responsable d'un pôle Nord stratosphérique très froid en phase AO+. d - AMO Oscillation Atlantic Multidecadal L'AMO est une oscillation des températures de surface de l'océan qui fut observée pour la première fois en 2000. En 2001, D.B. Enfield, A.M. Mestas-Nuñez et P.J. Trimble montrent que l'AMO est en relation avec les pluies et les débits des fleuves US. L'index AMO est défini comme l'anomalie de température résiduelle après soustraction (de la valeur brute annuelle) de la moyenne glissante de la variation (trend) sur 10 ans. Les températures utilisées sont celles de l'Atlantique Nord, entre les latitudes 0 et 70. En 2008 G.P. Compo et P.D. Sardeshmukh — du Climate Diagnostics Centers, University of Colorado, et de la Physical Sciences Division, Earth System Research Laboratory, NOAA — ont publié dans Climate Dynamics une nouvelle http://en.wikipedia.org/wiki/File:Amo_timeseries_1856-present.svg b) comparaison de l'AMO avec la pluviométrie de la Floride depuis 1900 étude selon laquelle le réchauffement global est une réponse au réchauffement des océans, bien plus qu'une réponse directe à l'accroissement des GES. La courbe oscillante de l'AMO, dont la période de 70ans environ, gouverne l'ensemble des variations climatiques dans cette région. Elle coïncide avec les périodes de réchauffement et de refroidissement observées (Fig. 17 et 49). Elle est très comparable à celle des pluies en Floride (Fig.49b) et à celle de l'énergie dissipée par les cyclones en Atlantique Nord (ACE Fig. 49c). Pour les auteurs, plusieurs études récentes suggèrent que la représentation des températures de surface de l'océan dans les modèles couplés océanatmosphère utilisés pour les rapports du GIEC présentent des erreurs substantielles sur les échelles interannuelles et pluridécennales. 5 - Le modèle du Tapis Roulant c) comparaison de l'AMO avec l'énergie dissipée par les cyclones en Atlantique, depuis 1860 Nous avons remarqué que l’ensemble des trois océans montre une grande similitude dans la distribution des masses d’eau sous les hautes latitudes Sud, mais que cette ressemblance s’estompe vers le Nord, particulièrement pour l’Atlantique, en particulier à cause des eaux provenant de la Méditerranée. Mer quasi fermée aujourd’hui, et qui le fut quelques temps au Messinien (durant 6 Ma environ), la Méditerranée est soumise à une forte évaporation ; son bilan de masse déficitaire est équilibré par des échanges - 140 - ENSM-SE, 2° A : axe transverse P N Fig. 50a: Circulation océanique Nord Atlantique Fig. 50b: Plongement des eaux froide le long de l’Islande avec l’atlantique, à travers le détroit de Gibraltar, qui est parcouru en surface par un courant rentrant, de salinité plus faible que les eaux méditerranéennes. Cette eau de surface s’alourdit avec l’évaporation, et vient finalement alimenter les eaux profondes du bassin. L’excédent d’eaux profondes, sur-salées et denses, déborde du bassin méditerranéen dans l’atlantique par un courant de fond important, qui marque nettement les eaux de l’Atlantique profond, et les eaux de surface par mélange à un moindre degré (en rose dans la coupe NS de l’Atlantique, Fig. 38b, latitude 30°N profondeur maxi 2500 à 3000m ces eaux arrivent perpendiculairement à la figure). Les volumes d’eau des grands fleuves qui se déversent en Méditerranée sont tellement insuffisants à combler le déficit de masse lié à l’évaporation que, lorsque Gibraltar se ferma au Messinien, le niveau de la mer est descendu de quelques 2000m sous le niveau actuel. En attestent par exemple l’incision d’un canyon du Rhône, comblé depuis mais connu par sismique et sondages jusqu’à Valence, ou celui du Nil, connu jusqu’à Assouan. La Méditerranée presque asséchée, sursaturée, s’est transformée Fig. 50b: Circulation océanique Arctique ; fonds <2000 m en gris bleu Limites schématiques plancher océanique continent 16/10/12 en d’énormes dépôts de sel, reconnus eux aussi par sondage et affleurant maintenant au plancher de la méditerranée. Cet épisode n’a semble-t-il duré que quelques dizaines de milliers d’années et nous n’étions pas là quand l’Atlantique se mit à cascader furieusement pour remplir « notre mer ». En Atlantique-Nord, c’est la branche nord du GulfStream (courant Nord-Atlantique in Fig. 50a) qui marque les eaux. Une part essentielle de ce courant, qui s’est déjà partiellement refroidi, vient buter sur les fonds élevés du seuil Islandais (en grisé sur la figure 50b) entre Islande et Iles Britanniques. L’Islande est située sur la ride médioocéanique et elle est en même temps un point chaud, ce qui conduit à une production importante de laves créant le seuil plateau en question (<2000m54 ). La partie du Gulf Stream qui ne franchit par le seuil (détroit du Danemark dans la figure 50c) s’écoule au fond de l’Atlantique. Le reste du courant Nord-Atlantique pénètre dans l’Arctique par la Mer de Norvège, en longeant l’Ecosse et la Norvège (Fig. 50b), avec une température et une salinité anormalement élevées pour ces latitudes. Ses eaux se mêlent ensuite à celles de l’Arctique, et elles cèdent leur chaleur à l’atmosphère et à la banquise en hiver. Toutes Fig. 51a : répartition des masses d’eau dans l’Atlantique, coupe NS 54 ; dans la figure, les fonds océaniques sont pour une large partie les marges continentales d’Eurasie et d’Amérique-Groënland. Dans le seuil Islandais, l’essentiel des haut-fonds sont d’origine volcanique océanique - 141 - ENSM-SE, 2° A : axe transverse P N 16/10/12 L’océan Antarctique est parcouru indéfiniment par un courant circum-Antarctique qui isole le continent polaire et ses eaux périphériques froides du reste de l’océan mondial (Fig. 51a, AABW). Fig. 51b : schéma simplifié de la MOC Meridional Overturning Circulation http://www.bodc.ac.uk/about/news_and_events/rapid_watch.html les conditions sont alors réunies pour que ces eaux plongent dans les bassins profonds de l’Arctique. L’exutoire de ces eaux froides et denses est constitué par deux courants franchissant le seuil de l’Islande entre Islande et Groenland principalement (Fig. 50b), mais aussi le long de la côte Est Islandaise. Elles s’écoulent ensuite au fond de l’Atlantique (NADW, North Atlantic Deep Water in Fig. 51a) avec celles de la première branche refoulée par le seuil ; elles vont parcourir le fond de l’Atlantique et atteindre ainsi les hautes latitudes Sud. L’ensemble de cette boucle plongeante, qui recycle les eaux de surface vers les profondeurs océaniques est unique. Les études paléoclimatiques ont montré que la latitude de la boucle plongeante Nord-Atlantique a joué un rôle clef dans le climat européen (actuellement chaud pour la latitude considérée). On sait aujourd’hui qu’elle n’est pas fixe, elle peut descendre jusqu’au 30° parallèle et le climat européen devient alors beaucoup plus froid. La question posée actuellement est de savoir si le Gulf Stream et la Meridional Overturning Circulation (MOC, recirculation dans la Fig. 51b) sont en train de s’arrêter, elle est encore largement débattue55. 55 La topographie du fond des océans fait le reste. L’étroit passage de Drake impose au courant d’eaux froides et profondes sortant de l’Atlantique de se diriger vers l’océan Indien et le Pacifique. L’ouverture de ce passage est récente. Dans le cadre du programme Relief (de l'Institut National des Sciences de l'Univers), Y. Lagabrielle et al. 2009 ont montré (Fig. 53a) que l’histoire chaotique de l’ouverture du passage de Drake coïncide remarquablement avec l’histoire climatique du Tertiaire (Fig. 53b) que nous avons évoqué au début de ce chapitre (§ B.1.c, Fig. 9). Elle se situe entre 43 Ma. et 10 Ma., date de la fin de la séparation de l’Antarctique et de l’Amérique du Sud. Préalablement, alors que l’Antarctique dérivait déjà vers le pôle Sud, l’Australie (Tasmanie) et l’Antarctique s’étaient séparés, commençant à créer les conditions d’une circulation circum-Antarctique (Antarctic Circum Current ACC (Fig. 52). Il apparaît donc clairement maintenant comment la Terre est passée d’un régime chaud, pendant lequel les eaux profondes étaient chaudes, (sans doute plus de 10°C, 14-15°C ?) au régime actuel où leur température est de 2°C. Reprenant Y. Lagabrielle, nous pouvons affirmer que « ce courant est donc un acteur majeur du système climatique actuel car il isole thermiquement l'Antarctique et empêche les eaux chaudes de surface en provenance de l'Equateur de venir lécher les côtes de ce continent » Dès lors que cette circulation superficielle d’Ouest en Est se met en place, elle subit la force de Coriolis (en rotation vers la gauche dans cet hémisphère) et il en résulte un courant d’Ekman important dirigé vers le nord. Ce courant de surface, froid, plonge un peu vers 45° de la latitude Sud, sous les eaux de surface atlantiques, constituant la couche appelée intermédiaire AntarctiqueAtlantique (Antarctic-Atlantic Intermediate Water, Le schéma est largement médiatisé par notre crainte évoquée plus avant (§ E.3.a) de voir le Gulf Stream s’arrêter en raison du réchauffement climatique. Cette question est largement reprise par la presse car, deux articles de H. Bryden, H. Longworth et Stuart A. Cunningham d’abord puis Cunningham et al. ensuite, concluaient que la dérive méridionale atlantique (Meridional Overturning Circulation, MOC) s'est ralentie de 30% entre 1957 et 2004. L’accent a été mis en 2007 par les mêmes auteurs sur la grande variabilité annuelle et de cette gyre (variation probablement couplée au cycle pluri décennal de la NAO) — moyenne annuelle 18.7 ± 5.6 sverdrups (1 Sv = 106 m3s-1) avec un débit variant avec les saisons entre 4.0 et 34.9 Sv — estimant que « fondamentalement, il faut encore 10 ans de mesures ininterrompues pour s’assurer que les variations saisonnières sont bien connues et mettre en évidence les variations interannuelles » de cette gyre. On voit donc clairement que toute annonce dans ce domaine est encore largement prématurée. Le terme de Meridional Overturning Circulation, MOC est utilisé soit pour parler de la circulation océanique dans cette région de l’océan mondial, soit en lieu et place de l’ensemble de la circulation mondiale. Plus souvent on utilise le terme de Fig. 52 : représentation schématique de la partie Antarctique – Atlantique Sud de la circulation généralisée de l’océan (convoyeur à bande) Divergence Atlantique « Circulation ThermoHaline » (THC) ou encore « tapis roulant » ou « Ocean Conveyor Belt » § E3f - 142 - ENSM-SE, 2° A : axe transverse P N AAIW). La figure 52 montre l’impact de ce courant d’Ekman sur les eaux profondes (vu vers l’Ouest). Elle complète la coupe Nord-Sud de la figure 51a. Initié par les 50iemes, et chassant l’eau de surface vers le Nord, il provoque un upwelling côtier le long de l’Antarctique, qui tire ainsi vers la surface une partie des eaux profondes et semi profondes (Upper and Lower Circumpolar Deep Water, UCDW and LCDW), issues de l’Atlantique Sud. En remontant à la surface, les eaux les plus Sud entrent en contact avec la glace antarctique ou l’atmosphère polaire glacial. Elles subissent une augmentation de densité et replongent, créant en surface la divergence Antarctique et nourrissant en profondeur les eaux périantarctiques (AntarcticAtlantic Bottom Water, AABW). 16/10/12 Fig. 53b : Ouverture de passage de Drake entre 43 et 10 Ma et modifications du climat. Noter la coïncidence de l’ouverture à 32 Ma avec les modifications du proxi de température δ18O Celles-ci viennent s’étaler en profondeur dans l’Atlantique sous les couches UDCW et LDCW lorsqu’aucun seuil topographique suffisant ne les bloque. En aspirant les eaux profondes provenant de l'Atlantique nord, le courant CircumAntarctique joue un rôle important d’activateur de la circulation thermohaline. Le courant profond et froid qui s’écoule dans la plaine abyssale atlantique ouest depuis l’Islande (bassin et plaine de Caera dans la figure 50c) longe le talus continental américain, Nord puis Sud (Fig. 54) ; cette langue d’eau est appelée North Atlantic Down Water (NADW Fig.51a). Elle vire vers l’Est lorsqu’elle rejoint, en Atlantique Sud, les eaux des Upper et Fig. 53a : Ouverture de passage de Drake entre 43 et 10 Ma Lower Circumpolar Deep Water (UCDW et LCDW, Fig. 52). Puis, elle passe le Cap de Bonne Espérance où l’ensemble se disperse dans l’Océan Indien et le Pacifique (Fig. 54, bleu). Les eaux de surface de la gyre sud de l’Atlantique (non figurée dans la Fig. 54, voir figure 39b) subissent aussi une rotation vers la gauche. Donc, leur direction Nord-Sud suivie le long de l’Argentine devient Ouest-Est avec les hautes latitudes. Elle est alors parallèle au courant Circum-Antarctique (AAC) dans la figure 52. Dans cette région Atlantique sud elles vont boucler la gyre atlantique, en s’adjoignant les eaux de surface en provenance de l’océan Indien (Fig. 54 courant rouge). Ce mix d’eaux refroidies de la gyre Atlantique Sud, d’eaux froides du Fig. 54 : Le convoyeur à bande http://forces.si.edu/arctic/04_00_16.html - 143 - ENSM-SE, 2° A : axe transverse P N courant circum-Antarctique et d’eaux chaudes venant de l’Indien est donc renvoyé vers l’équateur. Ces eaux transitent alors pour partie, après une traversée océanique Est-Ouest , vers le nord avec le Gulf-Stream et le courant Nord Atlantique. Les eaux de l’océan parcourent ainsi une sorte de tapis roulant (Fig. 54), le Great Ocean Convoyer Belt de Wallace Broeker (#1990), largement responsable de la régulation du climat planétaire et de la chimie des eaux océaniques. 6 – Eustatisme = Variations du niveau marin Nous avons vu au paragraphe §B1c sur le changement climatique que le trait de la côte est en perpétuel déplacement, en raison de changements à courte période (marées), mais aussi et surtout sous l’effet de variations climatiques. Le terme d'eustatisme fut donné par E. Suess en 1890 aux variations générales du niveau moyen des mers de même amplitude dans toutes les régions du globe. Nous venons de voir comment la dérive des continents introduit des changements essentiels dans la circulation océanique et donc comment l’activité interne de la planète peut intervenir dans les changements majeurs du climat de la Terre. Les variations du niveau marin, dont nous avons évoqué avec le changement climatique les variations infinitésimales à l’échelle de temps de la vie humaine ou de nos sociétés, ont en fait une quintuple origine si l’on change d’échelle : 16/10/12 poussant l’eau sur les plateformes continentales ou abaissant son niveau de plusieurs dizaines de mètres, variations observables à l’échelle de la planète, qu’utilise la stratigraphie séquentielle. 3 - A l’échelle de temps des changements climatiques, quelques milliers d’années à quelques dizaines de milliers, le bilan de masse des glaciers continentaux gère le niveau marin. Il est le résultat de la compétition entre précipitations neigeuses et fonte ou sublimation ; Un bilan global négatif conduit certes à un excédent d’eau, mais qui allège la bordure continentale soulagée de sa glace, et à l’inverse un bilan positif stocke de l’eau solide (cryosphère) sur des continents alourdis, voir -4. La variation brutale du bilan de masse des glaciers continentaux est à l’origine des variations brutales de forte amplitude (plus de 100m) du niveau marin comme celles que l’on a enregistré sur les côtes d’Europe ou d’Amérique du Nord lors des dernières glaciations ou déglaciations, et qui transformèrent par exemple la Manche en une large vallée couverte par la toundra durant les périodes glaciaires du dernier million d’années. La dernière déglaciation a démarré il y a 19 000 ans, et malgré une courte période froide intermédiaire (Dryas) le climat actuel est presque aussi chaud que durant les maxima interglaciaires. Nous sommes donc en présence de phénomènes rapides et discontinus (cf. § B.1.c). 4 - Conséquence du bilan des glaciers continentaux, les mouvements verticaux d’ajustement isostatique des continents, tels que les rebonds postglaciaires, se font sentir avec retard sur une échelle de temps de 10 000 à 20 000 ans. Leur influence est « locale». 5 - La variation de température de l’eau de surface (500 premiers mètres) et donc de son poids volumique, qui conduit à un gonflement - dégonflement de l’océan (dilatation thermique des eaux). 1 - A très long terme, la cause première des changements de niveau marin est la distribution des masses continentales. Dans le cycle des Pangée(s) successives et de leur morcellement, qui écartèle « aux quatre coins » du globe les continents avant de les assembler à nouveau sur un rythme de 400 ? 500 ? millions d’années, la position relative des continents commande l’activité biologique continentale et marine, ainsi que la morphologie des bassins ; leur latitude et l’échange de On observe de nos jour grâce aux mesures chaleur entre l’équateur et les pôles imposent le trajet satellitaires que la montée globale du niveau marin n’est des courants, le climat résultant gère des variations du pas spatialement homogène, comme le soulignent A. niveau marin de plus de 100m. Cazenave et C. Cabanes en 2002 ((Fig. 55a, b, c, Extrait de 2 - A une échelle de temps plus basse, entre 10 et 100 Ma la Lettre n°14 du Programme International Géosphère environ, la vitesse d’expansion des rides océaniques Biosphère-Programme Mondial de Recherches sur le Climat intervient à son tour. Le premier à avoir observé le PIGB). En 2001, en s’appuyant sur des modèles phénomène fut C. Darwin, qui déduisit de la croissance des coraux autour des îles du Pacifique Fig. 55a : Variation du niveau marin ; a) variation altimétrique que le bassin central de l'océan devait s’enfoncer moyenne pour la période 1993-1998 ; lentement, permettant ainsi aux ceintures de corail de grandir sur les anciens volcans submergés qui donnaient les atolls. Ce phénomène d’enfoncement du plancher océanique au droit des points chauds est régional et les variations du niveau marin qui l’accompagnent le sont aussi. Par contre, contrairement aux points chauds, les rides océaniques sont immenses et nous avons vu au chp. 4 qu’elles sont en équilibre hydrostatique sur le manteau terrestre ; nous avons vu aussi qu’elles sont d’autant moins denses (et donc plus larges et peu profondes) que la vitesse des plaques est importante, traduisant une intense production de magma et de chaleur. Ainsi le fond des bassins respire au rythme des rides à l’échelle mondiale, - 144 - ENSM-SE, 2° A : axe transverse P N climatiques couplant océan et atmosphère, le GIEC estimait que la montée moyenne du niveau marin était de 0,7 mm par an pour le XXe siècle, dont 0.5 mm provoqués par le seul gonflement océanique, les 0.2 mm restant résultant de la fonte des glaciers. 16/10/12 Fig. 56 : Evolution du taux annuel d’élévation du niveau marin depuis 1905 sur 9 stations fiables et 177 stations depuis 1955 environ Rappelons que seuls les glaciers de montagnes contribuent à ces 0.2 mm ; l’Antarctique (stable ou en expansion, § B1c4) et le Groenland (en régression mais beaucoup plus petit) ne contribuent que de façon négligeable à l’élévation du niveau de la mer à l’heure actuelle. Rappelons aussi que le travail du GIEC reposait principalement sur des données de marégraphes majoritairement installés dans l’hémisphère nord, à proximité des côtes européennes et nord-américaines ; leur répartition n’était donc pas idéale (fig. 55c triangles blancs). En outre, l’élévation du niveau marin apparaît depuis 2007 comme un phénomène plus complexe qu’une simple réponse à l’augmentation de la température. Pour S. J. Holgate du Proudman Oceanographic Laboratory à Liverpool, la moyenne d’élévation obtenue pour le XX° siècle à partir mesures des marégraphes considérés comme les plus fiables (anciens, situés loin de zones tectoniques mobiles dans des régions non susceptibles de rebond postglaciaire ; Fig. 55c ronds noirs) est de 17.4 mm (donc dans la fourchette haute des autres estimations moyenne) mais le taux de variation n’apparaît pas linéaire. Pour S. J. Holgate, il est cyclique (Fig. 56), avec les taux d’élévation maximum en 1939 et en 1980, déniant ainsi d’une part l’idée d’un accroissement progressif du taux d’élévation de l’océan dans la fin du XX° et d’autre part celle d’une relation simple entre élévation du niveau marin et teneur atmosphérique en CO2. Mais les choses ont changé d’une part avec la mise en orbite des satellites comme Topex-Poséidon dont les données ont été acquises en continu entre 1993 et 2001 et d’autre part avec la mise en place en 2000 du réseau de sondes dérivantes du réseau ARGO, complémentaire du satellite altimétrique Jason. Ces sondes (au nombre de Fig. 55 b-c : Variation du niveau marin ; b) variation altimétrique 3255 au 11 avril 2010, http://www.argo.ucsd.edu/index.html) calculée attribuée à la seule dilation thermique pour la période plongent régulièrement et enregistrent les courbes de 1993-1998 ; c) idem pour la période 1955-1996 , la position des température et salinité de la colonne d’eau sur environ marégraphes est donnée par les triangles blancs 2000 mètres. En 2002, Cazenave, Cabanes et Le Prevost ont mis en évidence une élévation du niveau moyen des océans de 2.5± 0.2 mm/an (Fig. 55a). Les auteurs ont estimé ensuite la contribution de l'expansion thermique en comparant les données altimétriques précédentes aux mesures directes de la température (compilées jusqu’en 1998 par la NOAA) des 500 premiers mètres d’eau. Pour la période de recouvrement (1993-1998, Fig. 55b) des deux séries d’observations sont parfaitement corrélées. Enfin, ont été pris en compte les températures moyennes des 3000 premiers mètres des océans pour les quarante dernières années. Les auteurs ont ainsi pu calculer l’évolution du niveau marin due au réchauffement des océans, soit 0.50 ± 0.05 mm/an entre 1955 et 1996, valeur comparable à celle prédite par la plupart des modèles climatiques. On pouvait donc encore conclure avec les auteurs jusqu’en 2008-2010 que si le niveau moyen des océans s’est bien vraisemblablement élevé de 0.5 à 0.7 mm/an en moyenne au cours des dernières décennies, cette élévation avait pour cause principale la dilatation thermique des océans et que celle-ci est moins forte que ne le laissent supposer les observations marégraphiques, presque toutes situées en zone chaude (rouge dans la figure 55). Nous avons vu que l’avènement de l’altimétrie satellitaire haute résolution permet de s’affranchir de cette mauvaise distribution des marégraphes. La - 145 - ENSM-SE, 2° A : axe transverse P N 16/10/12 figure 57 (Wunch et al 2008) représente les variations F - Histoire de l'atmosphère régionales autour de la moyenne mondiale d’élévation du niveau marin. Celle-ci est évaluée à 2.8±0.4 mm an-1 à partir des relevés de Topex/Poséidon pour la période 1993-2001 1 - L'atmosphère primaire de la Terre : héritage (A. Cazenave et S.R. Nerem, 2004). Pour nombre d’auteurs, des gaz piégés lors de l’accrétion une telle valeur signifie clairement que le processus Très tôt, au moment même de l’accrétion, Fig. 57 : Variation du niveau marin, période 1993-2004. la Terre s’est entourée d'une enveloppe gazeuse. Durant cette épisode, une partie de la fraction gazeuse (non condensée) de la nébuleuse mère a été capturée comme, et avec, les solides. Compte tenu de son origine, la composition de cette atmosphère primaire de notre Terre et des autres planètes telluriques devait alors être très proche de celle du soleil (Tableau 4) ; et c'est encore cette composition que nous observons de nos jours autour des planètes géantes gazeuses externes, mais ce n’est plus celle d’aucune planète rocheuse, situées en deçà du domaine des glaces dans la séquence de condensation (Chp. 2). Avec l’augmentation de pression et de température, les corps planétaires deviennent liquides, et une partie des gaz piégés avec les solides s’y dissolvent alors que le reste participe à la création de l’atmosphère de ces corps. Plus un corps devient massif, plus il devient capable de retenir cette première atmosphère. d’élévation de température, de dilation thermique et de fonte généralisée des glaciers et des inlandsis est en pleine La figure 58 montre que les rapports des accélération, la catastrophe climatique annoncée est d’ores et concentrations des gaz atmosphériques terrestres aux déjà amorcée… Mais dans un papier récent, Wunch et al concentrations solaires sont extrêmement variés, ce qui (2008) considèrent que l’essentiel des variations autour de la suggère que si l'atmosphère terrestre est issue d'une telle moyenne globale dans la figure 56 est lié aux variations atmosphère primaire, des processus sont intervenus depuis régionales de masse, salinité et température (paramètres liés), pour en modifier les rapports: deux types de processus et que cela montre qu’un lien étroit existe entre changement sont envisageables: du niveau marin et circulation thermohaline générale... Fig. 58 : abondances relatives des gaz atmosphériques par Et la discussion n’est pas close… A Cazenave et al. rapport au Soleil ont montré en 2009 que si l’affaire paraissait entendue pour l’heure pour la période ante-2003 déjà évoquée plus haut — le niveau moyen mesuré de façon très précise entre 1993 et 2003 par les satellites franco-américains Topex/Poséidon et son successeur Jason-1 était monté à un rythme relativement constant de 3 mm/an dont plus de la moitié était due à la dilatation des eaux océaniques qui se réchauffent (contribution stérique), alors que 1,2 mm/an provenait des pertes de masse des calottes polaires et des glaciers de montagne — on constate toujours depuis 2003 une hausse assez rapide (2,5 mm/an) du niveau marin, mais le réchauffement de l'océan semble faire une pause, sa contribution à la hausse du niveau des mers n'étant que de 0,4 mm/an. Les auteurs s’appuient sur un calcul de la dilatation conduit par 2 méthodes indépendantes, i) à partir du réseau de bouées Argo qui transmettent des profils de 900 m de profondeur de la température et de la salinité pour l'ensemble de l'océan mondial, ii) par mesures de la différence entre la montée du niveau des mers observée par les altimètres de Topex/Poséidon et Jason-1 et l'augmentation du stock d'eau dans les océans vue par GRACE. Les auteurs en concluent donc que l'accroissement de la masse d'eau de l'océan est majoritairement responsable de la hausse du niveau marin depuis 2003. - 146 - Tableau 4: composition du soleil ENSM-SE, 2° A : axe transverse P N 16/10/12 1 - En premier lieu, le piégeage sélectif dans la géosphère des gaz; un tel phénomène pourrait en effet avoir modifié fortement les rapports de ces gaz par rapport à la nébuleuse solaire. Cependant les gaz neutres (Néon, Argon, Krypton et Xénon), qui sont extrêmement peu réactifs, auraient dû être piégés de conserve et donc conserver les rapports initiaux… il n'en est rien (Fig. 58). dégazage que nous observons de nos jours n'en serait alors que la suite normale. 2 - En second lieu, la perte vers le cosmos d'une part importante des gaz initiaux pourrait aussi produire à une grande diversité des concentrations. Une fois encore les gaz neutres nous apportent un élément de réponse. Puisque non réactifs, s'ils avaient subi des pertes vers le cosmos, celles-ci auraient dû se faire simplement en raison inverse de leurs poids moléculaires. La figure 58 montre encore qu'il n'en est rien. Le rapport entre un isotope radiogénique et un des isotopes stables du même élément va donc évoluer dans le temps avec la désintégration de son parent, jusqu'à épuisement de ce dernier. En se concentrant tôt ou tard dans l'atmosphère, ces isotopes peuvent alors être utilisés pour en décrypter l’histoire. En effet On peut donc en conclure que l’atmosphère terrestre ne porte plus la signature de la nébuleuse solaire, confortant l’hypothèse d’un Soleil jeune sans doute passé comme n’importe quelle étoile de la séquence principale par la période de forte activité dite T. Tauri, plus lumineux qu’aujourd’hui de 10%, et dont le vent solaire plus violent aura expulsé à cette époque les atmosphères des planètes telluriques vers des régions plus lointaines. 2 - L'atmosphère secondaire de la Terre : fille des volcans Les planètes internes se sont donc constituées une seconde atmosphère. Vénus et la Terre, suffisamment massives, ont conservé jusqu’à nos jours cette seconde enveloppe gazeuse. Mercure et Mars n’y sont pas parvenues, en raison de leur faible masse, et, pour Mercure, en raison aussi de la proximité du Soleil. Mars conserve toutefois une atmosphère très ténue (10-3 atm.), dont la composition est très comparable à celle de Vénus. Cette ressemblance témoigne de la similitude des processus qui ont présidé à la naissance des atmosphères des planètes internes. Parmi les composés volatils qui sont arrivés à la surface figuraient le CO2 (le premier en masse, 95%), N2 (2-3%), les oxydes de soufre, H2S, HCl et les gaz rares, Hélium, Argon, Xénon, Krypton et Néon. Dans une telle atmosphère, la proportion d’oxygène était < 1%. Cette atmosphère secondaire est “ fille des volcans ”. Elle résulte du dégazage de leur manteau, dont la constitution date du fractionnement des corps rocheux en un noyau dense et métallique et un manteau silicaté. L'origine des gaz contenus initialement dans le manteau est encore très controversée. L'hypothèse première est que ces gaz ont été acquis lors de la phase d'accrétion à froid. Mais la géochimie et l'observation récente de systèmes stellaires à disques de poussières et de gaz suggèrent que l'essentiel des éléments volatils des planètes pourrait provenir du bombardement cométaire sur les planètes jeunes déjà formées. Nous allons voir que l'histoire du dégazage de la Terre apparaît compatible avec une origine mantellique de notre atmosphère. Cela suggère que si l'origine de nos volatils est cométaire, leur acquisition fut suffisamment précoce pour qu'il se soit établi un équilibre avec le manteau terrestre. Le Son étude nous est accessible à travers l’étude de la composition isotopique des gaz rares. Ceux-ci ont un double intérêt. Par nature ils sont peu susceptibles de réagir avec leur environnement, et certains de leurs isotopes sont produits par la radioactivité naturelle. Nous allons ainsi nous intéresser à 3 réactions56 : 56 Rappel -1: tous les éléments ou presque possèdent des isotopes. Certains sont stables, d'autres ne le sont pas. Au-delà du bismuth (Z=83), il n’existe aucun noyau parfaitement stable. Les interactions nucléaires de ces énormes atomes deviennent trop faibles au regard de leur taille ; cela favorise leur dégradation spontanée en espèces plus légères. Rappel –2 : la composition isotopique de notre système est une donnée initiale, fixée au moment ou notre nébuleuse gazeuse, considérée comme homogène, va s'effondrer en un soleil et son système planétaire ; les rapports des isotopes stables de ce système homogène sont alors fixés. Par contre, le chronomètre de la décroissance des isotopes radioactifs est démarré à cet instant dans notre système. Certains, comme 26Al, ont totalement disparu de nos jours. D'autres, comme 238U, dont la période est de l'ordre de grandeur de l'âge de la Terre ont épuisé seulement la moitié de leur stock initial. Inversement les produits de ces désintégrations voient (ou ont vu) leur quantité croître durant la même période de temps. Les rapports isotopiques de ces éléments ont donc évolué depuis la création du système solaire. Rappel –3 : dans notre système sont apparus des sous systèmes que l'on peut considérer chacun comme homogène en première approximation. Ces sous-systèmes, ou réservoirs, sont reliés entre eux par des flux de matières, gérés par des processus physico-chimiques ou biochimiques; la Terre peut ainsi être considérée globalement comme un sous-système, avec ses flux d'échanges avec le reste du système solaire; elle est aussi "découpée" en sous-systèmes (Manteau, croûte, hydrosphère, atmosphère), autant de réservoirs "homogènes" qui échangent des flux de matière. Rappel –4 : si les processus physico-chimiques sont susceptibles de modifier les rapports de teneurs entre des éléments différents, ils agissent de manière plus subtile sur les rapports isotopiques d’un élément donné, puisque les isotopes d’un même élément ont un comportement chimique identique qui dépend du cortège électronique de l’élément, et ils diffèrent par leur masse. D'une manière très générale la constante d’équilibre isotopique K est peu différente de 1, de sorte que les variations isotopiques détectées dans la nature dépassent rarement quelques 10-3. Cette constante d'équilibre K est thermo-dépendante (fonction inverse de T°); elle tend vers 1 aux températures élevées. - 147 - ENSM-SE, 2° A : axe transverse P N 1) 129 2) 40 3) 3 I ⇒ 129Xe +e-, K +e- ⇒ 40Ar + γ, réaction βdemi-vie λ = 17 Ma. capture électronique demi-vie λ = 1.2 Ga. H (Tritium) ⇒ 3He + e-, réaction βdemi-vie λ = 12 ans et 4 mois. Les rapports 129Xe/130Xe ou 40Ar/36Ar, vont évoluer dans le temps avec la désintégration de le129I et de 40K, jusqu'à épuisement du parent. a - le dégazage du manteau terrestre a-til été précoce ou tardif? Comment a pu se produire le dégazage du manteau terrestre ? A-t-il été précoce ou tardif? Supposons pour simplifier qu’il ait été instantané et unique. Au moment où il se produit, il opère une différentiation entre les éléments : 1) Il regroupe alors tous les volatils, tous disponibles à cet instant dans le manteau (dont le Xénon ou l'Argon), et constitue l’atmosphère; le manteau ne contient plus de gaz à cet instant; 2) l’Iode (moins volatil), et le potassium, restent préférentiellement dans le manteau. Deux cas peuvent alors se présenter: 1- tout 129I ou tout 40K sont déjà consommés à cet instant, et il ne peut plus y avoir de production ultérieure de 129 Xe ou de 40Ar dans le manteau; 2- il reste de l'129I ou du 40K à cet instant, et il y aura à nouveau production de 129Xe ou de 40Ar dans le manteau. La figure 59 retrace l’évolution des compositions en 129 Xe et 130Xe dans le manteau. 129 I, 1- Bien évidemment, la teneur en 129I est décroissante dans le manteau, que celui-ci subisse ou pas de dégazage. 2- Avant et après cet événement, les teneurs en 130Xe sont constantes puisque cet isotope est stable; par contre la teneur en cet élément volatil chute dans le manteau pendant le dégazage, considéré comme quasiinstantané. Considérons maintenant l’évolution de la teneur en Xe et du rapport 129Xe/130Xe dans les deux réservoirs, manteau et atmosphère. Dans le manteau avant le dégazage, la concentration en 129Xe augmente tant qu'il reste de l'129I à désintégrer, et le rapport 129Xe/130Xe aussi. Dans 129 Fig. 59 : évolution des compositions dans le manteau en 129I, 129 Xe et 130Xe 16/10/12 l'atmosphère, qui prend naissance au moment où le manteau dégaze, la concentration en 129Xe et la valeur du rapport 129Xe/130Xe sont fixées par les quantités disponibles dans le manteau à cet instant. Si le dégazage est précoce, la quantité d'129I désintégré est faible, et celle de 129Xe disponible dans le manteau l'est aussi. La teneur dans l'atmosphère créée à cet instant l'est tout autant. Au contraire, elle sera maximale si l'on a attendu suffisamment (>10λ) pour que presque tout 129I soit désintégré. La différence entre les rapports 129Xe/130Xe du manteau et de l'atmosphère qui se créée (en équilibre) est négligeable (129Xe/130Xe mantellique = 129Xe/130Xe atmosphérique) au regard des variations de ce rapport provoquées par la radioactivité de 129I du manteau. Revenons au manteau dans la figure 59 et supposons que le dégazage ait eu lieu au temps Tc, avant épuisement de 129 I du manteau. La désintégration ultérieure de cet iode restant va provoquer une nouvelle augmentation progressive de la concentration en 130Xe et du rapport 129 Xe/130Xe mantellique. C'est précisément ce que les observations faites de nos jours nous enseignent. Les mesures du rapport isotopique129Xe/130Xe, effectuées sur l’atmosphère et sur des basaltes de rides océaniques (donc issus du manteau), sont respectivement de l’ordre de 7.7 et 6.5. Si les basaltes des fonds océaniques ont comparativement plus de 129Xe que l’atmosphère, c’est donc nécessairement que lorsque le dégazage a eu lieu, il restait une quantité significative de 129I dans le manteau. Or sa période de demi-vie λ n'est que de 17 Ma! Une première réflexion s’impose. Le dégazage terrestre, qui correspond à la naissance de la seconde atmosphère, a eu lieu très tôt, moins de 170 Ma. après la phase d’accrétion différenciation, située à 4.55 Ga. Une deuxième réflexion s’impose: on sait que le Soleil, depuis sa naissance jusqu’au stade géante rouge (qu’il atteindra vers 10 à 12 Ga.), ne sera pas capable de synthétiser autre chose que de l’Hélium. Par conséquent, les éléments de notre système plus lourds que H et He, y compris 129I, proviennent d’au moins un autre épisode de nucléosynthèse (de type nova) antérieur ou au mieux contemporain de l’effondrement gravitaire de la nébuleuse solaire. La présence d'iode 129I en quantité notable dans le système solaire impose donc aussi qu'il s'est déroulé très peu de temps, certainement moins de 200 Ma. entre l’explosion de la Nova qui fabrique 129I et non seulement l'effondrement gravitaire de notre nébuleuse, mais aussi l'histoire précoce de la Terre jusqu'au dégazage de son manteau... Décidément, toute notre histoire s’est jouée “ dans un mouchoir de poche! ”. Si nous nous plaçons dans l'hypothèse d'une acquisition cométaire de l'atmosphère terrestre et de son équilibrage avec le manteau, la présence de 129I du manteau qui va modifier le rapport 129Xe/130Xe du manteau par rapport à celui de l'atmosphère permet de penser que la capture du Xe à partir de comètes aurait aussi été terminée avant les premiers 170 à 200 Ma. de la vie terrestre. - 148 - ENSM-SE, 2° A : axe transverse P N b - Le dégazage du manteau terrestre at-il été Instantané ou lent? Unique ou multiple? Total ou partiel? Nous pouvons utiliser en premier lieu un autre couple d’isotopes, ceux de l’Argon, pour répondre à cette question. La réaction nucléaire 40K ⇒ 40Ar, modifie lentement dans la géosphère le rapport de l’isotope radiogénique 40Ar à l’isotope stable non radiogénique de l’argon, 36Ar. Au déclenchement du chronomètre, le rapport initial 40Ar/36Ar peut être considéré comme nul (Fig. 60) car 40Ar est exclusivement radiogénique. La période du 40K étant très longue, comparable à celle de la vie de la Terre, l’évolution du rapport 40Ar/36Ar est très lente, et contraste fortement avec l’évolution du rapport 129Xe/130Xe qui nous a permis de mettre en évidence que le dégazage du manteau fut très précoce Lors de cet épisode, le 40K est resté dans le manteau dégazé, alors que 36Ar l’a quitté pour rejoindre l’atmosphère comme les autres gaz rares. Plus ce dégazage aura été important et plus la teneur en 36Ar du manteau aura chuté lors de cet évènement. En corollaire, on peut donc attendre du rapport 40Ar/36Ar qu’il signe le degré de dégazage atteint par le manteau (Fig. 60), car après cet épisode le rapport 40 Ar/36Ar a augmenté d’autant plus vite que la teneur en 36Ar était devenue basse, c’est à dire que le manteau était dégazé. Les mesures du rapport 40Ar/36Ar, effectuées sur divers basaltes issus du manteau et dans l’atmosphère ont montré des différences significatives : 30000 environ pour les basaltes des dorsales océaniques 3000 environ pour les basaltes des points chauds 300 environ pour l’atmosphère Nous pouvons en tirer une première conclusion essentielle : ces mesures révèlent l'existence de deux réservoirs isotopiquement très différents, et confortent l’hypothèse évoquée au chapitre précédent d’un manteau à deux étages de convections, au moins relativement étanches. L'étude du processus de fractionnement de la croûte continentale à partir du manteau supérieur nous a enseigné (Chp. 4) que ce lent processus de construction de la croûte continentale et d'appauvrissement du manteau supérieur avait commencé vers 2.7 Ga et se serait poursuivi depuis57. Le dégazage de l'argon du manteau terrestre est-il un processus comparable? Fig. 60 : évolution des compositions en argon dans le manteau roche issue d'un manteau à la fois très dégazé et ayant très largement contribué à la formation de la croûte continentale (typiquement le manteau supérieur). A l'opposé un point de mesure situé en bas à droite (y=3000; x=0.7050) représentera une roche issue d'un manteau à la fois très peu dégazé et n'ayant que très peu contribué à la formation de la croûte continentale, comme le manteau inférieur. On constate en premier lieu qu'il n'existe pas de roches provenant d'un manteau profond (n'ayant pas contribué à la formation de la croûte; x>0.704) et qui soit fortement dégazé (y>10000). L'étanchéité du réservoir manteau inférieur s'étendrait donc bien à son contenu gazeux. En second lieu, nombre des échantillons représentés viennent se repartir le long de l'hyperbole de mélange (vert foncé sur la figure: en représentation linéaire, la courbe de mélange de deux rapports est une hyperbole et non une droite) ce qui signifie que nombre de roches volcaniques doivent représenter soit un mélange de liquides magmatiques issus de deux sources distinctes, soit que les deux sources peuvent être mélangées, la fusion partielle du mélange produisant aussi une signature mixte. Nous pouvons en tirer une seconde conclusion essentielle :Le manteau profond, qui donne naissance au volcanisme des points chauds de rapport 40Ar/36Ar faible, et qui n'a que fort peu contribué à la fabrication de la croûte, apparaît donc nettement moins dégazé que le manteau supérieur qui donne naissance au volcanisme des dorsales à rapport élevé, et qui a déjà largement contribué à l'édification des continents. Nous pouvons enfin tirer de tout cela une troisième conclusion essentielle. Grâce au volcanisme qui amène en surface des laves d'origine mantellique, le dégazage lent du manteau se poursuit sur Terre… Fig. 61: Diagramme 40Ar/36Ar versus 87Sr/ 86Sr Les chronomètres Rb ⇒ Sr et K ⇒ Ar étant du même ordre de grandeur et commensurables avec l'âge de la Terre, il apparaît intéressant de confronter ces deux systèmes. Dans la figure 61, on a porté en abscisse le rapport 87 Sr/ 86Sr comme indicateur du degré de fractionnement du manteau; en ordonnée, le rapport 40Ar/36Ar constitue l'indicateur du dégazage mantellique. Un point de mesure situé en haut à gauche (y=30000; x=0.7025) représentera une 87 87 40 16/10/12 40 57 L'évolution du rapport 87Sr / 86Sr de la croûte terrestre augmente inexorablement plus vite que celui de la moyenne terrestre alors que celui du manteau voit sa croissance d'autant plus ralentie. - 149 - ENSM-SE, 2° A : axe transverse P N Fig. 62: Coupe verticale de l'océan au droit de la ride Est-Pacifique, montrant le panache d'3He en provenance des sources thermo-minérales 16/10/12 continuent encore à le faire. Il convient don d’admettre que si notre atmosphère actuelle porte les traces d’une filiation mantellique, elle porte aussi celles d’une origine extraterrestre riche en eau, en carbone et en azote. 3 - L'atmosphère tertiaire de la Terre : le sceau de la vie ? A cet égard, le comportement de l'isotope 4 de l’hélium, 4He, est particulièrement intéressant. L’origine de ce gaz est double : 1- Il entre continuellement dans l’atmosphère, sous forme de particules alpha (4He) du vent solaire, mais en très faible quantité. 2- Il est aussi et surtout produit par la désintégration du Thorium et de l'Uranium terrestres; l’Hélium ainsi formé dans la géosphère chemine jusqu'à l’atmosphère, à moins qu'il ne reste piégé quelque part dans la géosphère, dans les poches de gaz naturels par exemple. De masse très faible, l'hélium peut échapper partiellement à l’attraction de la Terre. Il s’est donc établi un équilibre entre pertes et gains d’hélium dans l’atmosphère, où sa concentration est constante: 5,2 ppmv. Dans l'atmosphère, son isotope stable 3He présente lui aussi deux origines possibles: 1- Il provient forcément pour partie du stock initial de la Terre; 2- Il provient aussi de la désintégration de 3H (tritium). Mais le tritium terrestre, lui, n'a qu'une seule origine. Il est formé dans la haute atmosphère, entre 10 et 30 km d’altitude, par la réaction des neutrons cosmiques (n) sur l’azote: 14N + n ⇒ 3. 4He + 3H, et sa période de demi-vie (12 ans) est courte. Une partie se trouve piégée dans la vapeur d'eau, et le reste, très léger tend à quitter l'atmosphère terrestre rapidement, de même que son élément fils, 3He. On peut donc considérer l'influence de 3He radiogénique comme négligeable dans la basse atmosphère ou l'hydrosphère, et dire que les concentrations en 3He y sont le reflet du stock initial terrestre. Or on constate que le rapport 3He/4He dans l’eau de mer est très variable géographiquement, et constitue un marqueur remarquable des sources sous-marines liées au volcanisme des rides océaniques (Fig. 62). Il faut donc en conclure que, lorsque le manteau terrestre fond partiellement pour donner des liquides magmatiques qui vont alimenter le volcanisme de ces rides, une partie de l'hélium initial terrestre est encore contenue dans le manteau et se sépare de ce dernier pour venir rejoindre l'atmosphère. L’empreinte du dégazage du manteau terrestre est donc encore bien visible, et celui-ci apparaît même encore actif. Toutefois nous avons souligné plus avant (Chp2.A.1.a) que l’eau océanique porte la même signature isotopique D/H que les chondrites carbonées hydratées qui ont bombardé la Terre de façon très intensive à l’Hadéen (4.56 Ga à 3.8 Ga.), et qui Vénus présente encore de nos jours cette atmosphère très peu évoluée depuis le dégazage de son manteau. Son enveloppe épaisse et dense exerce une pression de quelques 92 atm. Dominée par le CO2 (95%) qui engendre un effet de serre très important, elle présente une température au sol de 470°C. Tout conduit à penser que l’atmosphère terrestre fut comparable, avec une pression au sol de l’ordre de 260 atm. Mais l’atmosphère de notre hôte allait subir deux événements majeurs durant son histoire : 1 - la précipitation de l’océan, épisode que Mars a dû connaître elle aussi, mais sous quelle forme ? L’étude des écoulements (Fig. 63), des figures sédimentaires et l’analyse des sédiments commencent à peine et ne nous permettent pas encore de préciser la nature et la forme de l’hydrosphère Martienne. 2 - l’apparition de la vie, qui a complètement bouleversé la composition de l’atmosphère terrestre. a – La précipitation de l’océan sur Terre Y. Paccalet décrit la naissance de l’océan terrestre comme « sublime ». Après 300 à 400 Ma. d’existence, peut-être même moins, la Terre s’est suffisamment refroidie pour atteindre le point de condensation de l’eau, soit 375°C à 260 atm. L’atmosphère se condense en nuages, et pour la première fois, il pleut! La signature isotopique 18O/16O élevée de zircons datés de 4.3 à 4.4 Ga.. (Mojzsis et al 2001) témoigne d’une hydratation conduisant à la formation d’argiles recyclées dans le manteau, ce qui suggère qu’un cycle hydrologique existait dès cette époque. La forte solubilité du CO2 et de HCO3dans l’eau liquide enrichit corrélativement l'atmosphère en azote. Les pluies contiennent aussi beaucoup d'acides, HCl, H2SO4, HNO3. Elles vont changer la face du globe. Les acides attaquent les roches magmatiques et volcaniques terrestres, entraînant plus encore que de nos Fig. 63 : réseau hydrographique de type désertique sur Mars - 150 - ENSM-SE, 2° A : axe transverse P N jours les éléments dissous, Si4+, Al3+, Mg++, Fe++, Ca++, Na+, K+, vers quelque flaque qui se transforme rapidement en un océan qui couvre suppose-t-on 95% de la planète. Dans cette eau vont naître de nouvelles espèces minérales, résultant de l’hydrolyse des roches : 1 - des argiles, fabriquées à partir des ions les moins solubles (Si4+, Al3+, Mg++, Fe++) ; 2 - des sels tels que les chlorures, NaCl ; 3 - des carbonates, qui vont jouer un rôle fondamental dans la composition de l’atmosphère. La spéciation des espèces en solution montre en effet que les espèces CO2 et H2CO3 sont présentes en faible quantité seulement dans l'eau de mer, et que les ions carbonates HCO3-, CO32- sont par contre très dominants. Deux équilibres en solution sont donc essentiels dans cet océan primordial: HCO3- + H+ → H2O + CO2 CO32- + 2H+ → H2O + CO2 Ils vont gérer le stockage du CO2 atmosphérique dans l'océan qui vient de se former. L'ion Ca2+ étant très abondant dans l'océan et le carbonate de calcium (CaCO3) peu soluble, l’apparition de l’océan planétaire soustrait du CO2 de l’atmosphère et le stocke sous forme solide dans la géosphère. Ces premiers sédiments archéens montrent la texture caractéristique (texture “Lazarus”) des carbonates précipités par saturation. Avec eux, l’effet de serre peut enfin diminuer Pour H. Holland, la décroissance du CO2 atmosphérique fut sans doute rapide, et cet auteur considère que le niveau actuel est atteint à 3.5 Ga. environ (Fig. 67 § ,F.3.c). Pourtant les carbonates recensés de nos jours sont presque tous d'origine biochimique. Plus encore, c'est avec l'explosion de la vie pluricellulaire vers 700 Ma., que les coquilles et les calcaires abondent. Pour J. Lovelock, auteur de la théorie Gaïa, selon laquelle l'équilibre à la surface le la Terre s'établit entre la géosphère, l'atmosphère plus l'hydrosphère, et la biosphère, l'élimination du CO2 atmosphérique est biologique. Le premier relevé de la composition chimique de l'atmosphère martienne a été réalisé par l'américain G.H. Kuiper (1952). Il compara les spectres de la lumière renvoyée par la Lune et par Mars et certifia la présence d'un pourcentage élevé de CO2 dans l'atmosphère martienne. On sait depuis les missions Mariner 4, 6, 7 et 9 que l'atmosphère de Mars contient 95.3 % de CO2, 2,7 % d'azote et 1,6 % d'argon, des traces d'oxygène (0,13 %), de CO (0,07 %) et d'hydrogène. L'oxygène proviendrait de la décomposition du CO2 des calottes polaires. Mars a-t-elle subi le même déluge vital que la Terre? Des traces de réseau hydrographique comparable à ce que l’on peut observer dans des régions désertiques terrestres (Fig. 63) tendent à prouver que Mars a bien eu, elle aussi, sa période faste. Depuis, le manque de masse de la planète a joué son rôle et Mars a perdu presque totalement son atmosphère. L’eau existe toujours sur Mars, mais en raison de la pression très basse qui y règne, de l’ordre de celle du point triple de l’eau, c’est un rythme à 2 temps qui s’y joue actuellement : sublimation; cristallisation (Fig. 64). Mars a-telle connu la même décarbonatation de son atmosphère? Si oui, fut-elle strictement chimique, ou biochimique? Nombre 16/10/12 de questions sont encore débattues. b – La précipitation de l’océan sur Mars ? On espérait donc trouver de nombreux affleurements de roches carbonatées sur Mars, d’autant que la plupart des météorites martiennes trouvées sur Terre contiennent des carbonates dans les fissures. C’est d’ailleurs dans de telles fissures de la météorite ALH84001 que des structures filamenteuses comparables au vivant ont été observées en 1996 (Chp. 2, C2). Toutes les données dont nous disposons actuellement sur Mars, collectées par spectrométrie IR tant en orbite qu’au sol, suggèrent que les carbonates sont absents de la surface de Mars. Nos spectromètres ne sont certes pas très adaptés au sol rugueux de Mars et peut-être, dans ces conditions vaudrait-il, mieux choisir la mesure d’autres bandes spectrales, dans le proche IR ? Nombre de scientifiques en doute, qui considèrent que l’absence de carbonate sur Mars et à l’inverse l’abondance des sulfates, doivent être admis comme des faits. Cette absence actuelle ne signifie d’ailleurs pas que les carbonates n’ont jamais été présents. Peut-être le sont-ils encore en profondeur, ou dans des anfractuosités des roches ? L’atmosphère actuelle très tenue de Mars et l’absence d’ozone ne protègent pas son sol des UV solaires. Ceux-ci semblent en mesure de dissocier tout carbonate qui serait présent de nos jours à la surface de Mars. Qu’en était-il de Mars jeune ? Elle possédait une atmosphère proche de celle de la Terre ou de Vénus à cette époque, mais en quantité plus faible en raison de sa taille et d’un dégazage probablement limité par son refroidissement plus rapide. Sur Mars encore plus éloignée du Soleil que la Terre, l’eau liquide n’a pu exister qu’avec un effet de serre suffisant pour dépasser le point de congélation de l’eau. Les conditions furent très probablement réunies sur Mars, avec une atmosphère post dégazage qui devait dépasser les 2 atmosphères de pression de CO2. Si la précipitation de l’eau s’est produite, et avec elle celle des carbonates, pourquoi la surface de Mars n’en montre-t-elle plus aujourd’hui ? Les UV ont-ils fait disparaître tout carbonate de sa surface ? Pourquoi Mars a-t-elle perdu son atmosphère ? Il semble que la réponse se trouve dans le fonctionnement interne de la planète. Lors de la précipitation de l’eau vapeur en océan le stockage du CO2 atmosphérique sous forme de carbonate a fait s’effondrer l’effet de serre, sur Mars comme sur la Terre. Mais notre planète est dotée d’une quantité d’énergie suffisante pour que son manteau convecte, alors Fig. 64: diagramme de phases de H2O ; le trait bleu, P = 1 bar, montre que sur Terre les 3 états de l’eau sont possibles ; le trait vert montre qu’à la pression partielle en eau de l’atmosphérique martienne (0.7 mbars ) l’eau ne peut être liquide. - 151 - ENSM-SE, 2° A : axe transverse P N que sur Mars ce processus a dû s’arrêter très tôt. Or cette convection est indispensable au recyclage du carbone58. Dans les zones de subduction, une partie des carbonates CaCO3 précipités au fond de l’océan est injectée dans le manteau. La transformation en profondeur du carbonate de calcium en silicates calciques libère le carbone qui est ensuite réinjecté dans l’atmosphère par les volcans sous forme de CO2. C’est probablement ainsi que la Terre a pu garder un effet de serre en équilibre et donc son eau liquide, quand Mars allait inexorablement voir disparaître son eau liquide. A partir de là tout concourt pour lui faire perdre son atmosphère : 1 - Chaque impact de météorite qui confère aux molécules atmosphériques une vitesse supérieure à leur vitesse de libération contribue à appauvrir une atmosphère qui n’est plus renouvelée. Comme sur Terre, l’épisode de bombardement intensif a cessé très tôt et ce phénomène a dû devenir rapidement peu significatif ; 2 - L’échappement continu des gaz dans la région externe de l’atmosphère, définie au début du chapitre 5, l’exosphère. Ce mécanisme a lieu tout au long de la vie de la planète. Il fonctionne selon deux modes : l'échappement thermique est comparable au mouvement brownien, et ne concerne sur Mars comme sur Terre que les atomes de H, très légers et suffisamment accélérés par le rayonnement de basse fréquence du soleil jusqu'à atteindre la vitesse de libération de la planète; l'échappement non thermique met en jeux le rayonnement solaire de haute fréquence, dont la grande énergie permet de casser (photodissociation) les molécules H2O, CO2 ou CH4 O2, N2. L’hydrogène peut alors acquérir une énergie cinétique suffisante pour s'échapper dans l'espace. L’atmosphère externe des planètes est soumise au vent solaire, qui transporte avec le plasma une fraction du champ magnétique solaire gelé. Les atomes ionisés de cette région de l’atmosphère des planètes sont accélérés par ce champ, et précipités vers la planète. Sur une planète possédant un champ propre actif, comme la Terre, ces particules n’atteignent pas l’atmosphère dense. Mars est une planète de petite taille et donc refroidie rapidement, qui a donc perdu rapidement sa convection mantellique et la protection de sa magnéto hydrodynamique59 (vers 4 Ga.). Très tôt, elle s’est vue criblée par ces ions à haute vitesse dont les collisions avec les molécules de l’atmosphère communiquent aux atomes une vitesse souvent supérieure à la vitesse de libération de la planète. Sans eau liquide, sans protection magnétique, et sous 58 L'étude isotopique menée sur la météorite en provenance de Mars QUE 94201 a montré que le rapport initial D/H de l'eau sur Mars est similaire à celui des comètes alors que celui de la Terre est de l’ordre de 2. L’eau martienne serait donc quasi exclusivement d’origine cométaire, quand celle de la Terre résulte sans doute d’un mélange d’eau cométaire et d’eau mantellique. 16/10/12 une atmosphère de plus en plus ténue, les carbonates martiens ont peut-être eux aussi totalement disparu de la surface de la planète sous l’effet du bombardement des UV? Les rapports isotopiques (tableau 5) que nous avons utilisés précédemment pour étudier l’atmosphère terrestre nous apportent pour Mars des enseignements du même ordre. Certains sont d’ailleurs similaires (12C/13C, 16 O/18O et 36Ar/38Ar). Le rapport deutérium/hydrogène (D/H) est par contre beaucoup plus élevé dans l'atmosphère martienne que sur Terre, suggérant bien que 'hydrogène plus léger que le deutérium s'est donc échappé plus largement au cours du temps sur Mars que sur Terre. Sa valeur actuelle suppose qu'une énorme fraction de l’hydrogène a quitté Mars. Le rapport 14N/15N est lui aussi très différent de celui de notre atmosphère, traduisant encore un échappement référentiel de isotope léger, 14N. Un tel enrichissement relatif en 15N (60% par rapport à la Terre) est généralement considéré comme le résultat d’une fuite significative en azote. Il en va de même pour le rapport 40 Ar/36Ar Par contre, les rapports isotopiques de l'oxygène (16O/18O) et du carbone (12C/13C) montrent moins de 5% de différence avec les valeurs de l'atmosphère terrestre. La perte apparaît ici minimale, laissant à penser qu’en interagissant fortement avec les roches le CO2 et la vapeur d'eau (H2O), auraient subi des pertes très faibles. Le rapport 129Xe/132Xe suppose à l’inverse un enrichissement relatif en isotope léger dans l’atmosphère martienne par rapport à celle de la Terre, or il s’agit là d’isotopes d’un élément lourd, et normalement se sont les atomes les plus légers qui s’évadent en plus grand. Rappelons que 129Xe provient de la décomposition de l’iode 129I, et que lors de l’épisode de dégazage, cet iode moins volatil que le xénon est resté préférentiellement dans le manteau. Nous avons vu qu’après cet épisode de dégazage, précoce dans l’histoire des planètes, le 129Xe était progressivement relargué par les volcans, faisant augmenter le rapport 129Xe/132Xe. Si le même phénomène s’est produit sur Mars, l’excès de 129Xe ne peut s’expliquer que par un déficit du xénon strictement atmosphérique, 132Xe. Si celui-ci fait défaut c’est sans doute qu’une part importante de l’atmosphère martienne avait disparu AVANT le relargage du 129Xe par le manteau dans l’atmosphère. Pour les « nirgalogues » (Nirgal est à Mars ce que Gaïa est à Geo) un tel phénomène conduit à penser qu’une violente collision aura pu dépouiller très tôt Mars de son atmosphère fille des volcans. Cet épisode violent s’est sans doute passé très tôt dans l’histoire de Mars, car la fameuse météorite ALH 84001, formée il y a 4.5 Ga. présente dans les gaz qu’elle contient un rapport 129Xe/132Xe comparable à celui de l’atmosphère actuelle de Mars. L’abrasion de Tableau 5 : Rapports isotopiques des l'atmosphères 59 Mars Global Surveyor a découvert les traces d’un magnétisme rémanent fossile dans les hauts plateaux de l'hémisphère sud, régions les plus anciennes de la planète et qui correspondraient à un gigantesque continent sur Terre. Ces reliques magnétiques prouvent que Mars possédait alors dans un champ magnétique actif global. - 152 - Rapport Mars Terre D/H 12 C/13C 16 O/18O 14 N/15N 0,00077 90 (+/- 5) 490 (+/- 25) 170 (+/- 15) 0,00015 89 489 272 36 5,5 (+/- 1,5) 3000 (+/- 500) 2,5 5,3 296 0,97 Ar/38Ar Ar/36Ar 129 Xe/132Xe 40 ENSM-SE, 2° A : axe transverse P N l’atmosphère martienne est donc antérieure ou contemporaine de la formation de cette météorite. Par contre le rapport 14N/15N des gaz de ALH 84001 est beaucoup plus fort que celui de l’atmosphère actuelle, ce qui démontre qu’à l’époque ou cette météorite a quitté Mars, les effets du vent solaire sur son atmosphère n’étaient pas encore identifiables, la planète étant sans doute encore tectoniquement et magnétiquement active. c - L’apparition de la vie et l’apparition des conditions oxydantes De « notre » point d’observation, êtres vivants, le rôle essentiel de cette précipitation primordiale en océans, lagunes ou étangs aux eaux tièdes aura été d’apporter à la vie l’eau liquide indispensable qui lui manquait pour se développer. Solvant essentiel, elle allait en outre constituer l’abri la soustrayant aux UV solaires qu’aucune ozone stratosphérique ne venait contrecarrer à l’époque. Au-delà, les imaginaires vont bon train : certains se calent sur nos chroniques de la naissance du monde, déplaçant la main des dieux au gré des découvertes de la cosmochimie et de la biologie; d’autres se font l’inventeur du lieu où la première association de composés est devenue biotique, et leurs schémas d’apparition sont complexes… Dans une première voie endogène (vie apparue sur Terre) les chercheurs se sont tournés vers la chimie prébiotique. Ainsi les briques qui constituent le vivant sont sorties du chaudron de S. Miller, qui fut dans les années 50 le remarquable expérimentateur des idées d’ A. I. Oparin et J. Haldane (soupe de composés carbonés, azotés, phosphatés soumise à des décharges électriques). Cette voie expérimentée pendant plus de trente ans a toujours donné naissance à des acides aminés, mais elle n’a jamais été susceptible de produire les macromolécules du vivant, ni bien sûr l’ARN indispensable à toute vie… Aucune expérience n’a jamais vu non plus se constitue une cellule, même en partant de protéines et/ou d’acides nucléiques déjà présents. Dans ses expériences, Oparin a montré que le dipôle hydrophile et hydrophobe des macromolécules conduit à fabriquer des membranes qui peuvent se fermer sur elles-mêmes et constituer ainsi un milieu intérieur séparé du milieu extérieur. S. Fox a montré dans les seventies que ces microsphères peuvent échanger avec le milieu extérieur, absorber de l’eau et des petites molécules ; au-delà d’une certaine taille elles peuvent même se diviser en 2. Mais ces structures ne présentent aucune des caractéristiques métaboliques et reproductrices du vivant. Cette voie, souvent reprise, est pour l’heure sans issue. Cairns-Smith , ou Wächtershäuser, proposent une autre voie endogène qui prend le relai de la précédente au stade où les premières briques du vivant sont formées. Pour ces auteurs, la structures répétitive et les liaisons faibles présentent sur certaines des faces des minéraux (les argiles pour Cairn-Smith et la pyrite pour Wächtershäuser) sont à l’origine d’une part de la sélection des molécules sélectionnées par le vivant avant que celui-ci ne soit autoreproductible, et d’autre part le lieu de naissance des macromolécules indispensables au vivant. Nombre d’auteurs acceptent aujourd’hui l’idée que la chiralité gauche de 16/10/12 molécules du vivant soit le fruit de la géométrie électrique de surface des minéraux. Ainsi, alors que les expériences de la chimie prébiotique fabriquent autant de molécules carbonées gauches et droites (ceci est également vrai pour les molécules carbonées contenues dans les météorites), le piégeage d’une forme plutôt que l’autre par les minéraux aurait permis une sélection par le vivant de la forme gauche. On sait en effet que l’homochiralité est un caractère nécessaire à la vie car les propriétés des molécules (enzymatiques en particulier) dépendent de leur forme. La présence de deux formes, gauche et droite d’une même molécule n’est donc pas compatible avec le vivant. En outre, plusieurs chercheurs ont montré que les argiles offrent un support privilégié aux briques constitutives de l’ARN, ouvrant peut-être ainsi la voie à la fabrication des protéines ? Pour Wächtershäuser, les premières entités vivantes furent des revêtements moléculaires adhérant aux surfaces de la pyrite (sulfure de Fe, FeS). De fait on constate que certaines enzymes métaboliques contiennent des atomes de Fe et de S ? Les réactions biologiques font intervenir l’ammoniac NH3 qui pouvait être produite dans l’océan primordial au niveau des rides océaniques. La réaction d’hydratation de l’olivine du manteau [SiO4](Fe, Mg)2 +H2O l’oxyde en et serpentine libère du dihydrogène H2, Olivine + H2O → Serpentine + H2 Par réaction avec le CO2 et l’azote dissous, apparaissent le méthane et l’ammoniac libérés par les fumeurs noirs des sources hydrothermales, fumeurs noirs construits essentiellement en pyrite. Somme toute, les constituants des réactions pouvant conduire à la vie étaient ici réunis, et l’on peut écrire : {210CO2 + H2PO4- + (Fe, Mn, Ni, Co, Zn)2+}océan + {427H2 + 10NH3 + HS-}fumeur noir {C70H129O65N10P (Fe, Mn, Ni, Co, Zn) S}proto-vie + {70H3C-COOH + 219H2O}déchet . Cette voie est intéressante dans la mesure où la Greigite (Fe5NiS8) est un sulfure aux propriétés catalyseur reconnues, qui aurait pu accélérer la production du premier ARN, formé à partir de 3 ATP, molécule facilement disponible dans les conditions physicochimiques des fumeurs noirs, en les associant en un premier triplet simple AAA à la surface de la pyrite... La voie exogène suppose que les briques de la vie ont été fabriquées dans le cosmos, puis transportées et déposées par les météorites, en particulier celles du type chondrites carbonées hydratées de Murchison, ou les comètes qui ont croisé notre chemin comme le propose la panspermie de H.E. Richter puis de S. Arrhénius à la fin du XIX°-début XX°, et comme le montrent les observations actuelles de la cosmochimie… Si une telle origine présente un intérêt certain au plan philosophique, la vie sur Terre devant alors être considéré comme un processus très ordinaire au-delà d’un certain degré de complexité, son intérêt strictement scientifique est mince ; cela peut s’appeler « reculer pour mieux sauter » ! En outre, pour l’heure, cette voie n’apporte rien en matière de chiralité ni d’obtention des macromolécules indispensable - 153 - ENSM-SE, 2° A : axe transverse P N Une chose est certaine, la vie est apparue très tôt sur la Terre, probablement dès que les conditions physiques l’ont permis, c'est-à-dire sans doute dès la précipitation de l’océan et c’est une des raisons fondamentales qui poussent à imaginer que la vie fut aussi possible sur Mars. Sur Terre, les roches sédimentaires (seules susceptibles de contenir des fossiles) les plus anciennes reconnues sur Terre sont celles d’Isua au Groenland. Elles datent de 3.8 Ga. Mais il s’agit de roches transformées par métamorphisme ; la pression et la température atteintes auront alors effacé toute trace morphologique de vie que ces roches pouvaient contenir. Mais le métamorphisme ne transmute pas les éléments chimiques et ne modifie pas les rapports isotopiques des éléments. Or, le rapport isotopique 13 C/12C, d’échantillons de ces roches anciennes est dit non minéral, c'est-à-dire qu’il est différent de celui que l’on mesure d’ordinaire en chimie minérale. On observe en effet que le vivant prélève plus de 12C que de 13C sur son Fig. 65 : stromatolithes actuelles 16/10/12 environnement pour se développer. Si l’on se réfère à l’âge attribué au bombardement cométaire et météorique très intense subi par les planètes internes — Chp. 4, §D-1-b, 700 Ma. après la formation du système solaire soit environ 3.9 Ga. — qui a sans doute stérilisé complètement la surface terrestre, le rapport 12C/13C non minéral d’Isua montre qu’il aura fallu très peu de temps pour atteindre la complexité biologique nécessaire pour que le métabolisme signe sa présence sur la Terre (3.8 Ga.). On imagine que ces formes de vie primitives, dans les conditions très réductrices qui régnaient alors, sont très probablement des bactéries anaérobies. Les premières concrétions carbonatées produites par le vivant ont été identifiées dans des roches d’Australie à peine plus récentes (3.5 Ga.). Leur texture, bien différente de la texture Lazarus évoquée plus haut, est similaire à celle des stromatolithes actuels (Fig. 65). Il s’agit de voiles bactériens, produit de l’activité d’algues unicellulaires (algues bleues ou cyanobactéries). L'accroissement du taux d'oxygène dans l'air est lié en premier lieu à l’activité des cyanobactéries. L’existence de la chlorophylle vers 2.7 Ga. est semble-t-il attestée par l’observation de petits prismes dénommés pristanes, qui miment la chlorophylle dans quelques échantillons rocheux. La présence de formations sédimentaires appelées BIF (Fig. 66; Banded Iron Formations), constituées par l’alternance de lits de grains de quartz et de lits d’oxyde de fer Fe2O3, suggère fortement qu’il y ait eu de l’oxygène libre dans l’océan pour rendre possible leur formation et cela renforce l'idée que la photosynthèse était déjà à l'œuvre à cette époque. En effet, l'atmosphère née des volcans étant principalement constituée de CO2, N2, SO2 et H2O, ni l'océan ni elle, ne sont oxydants. Le Fer arraché aux roches par les pluies acides est donc transporté et stocké sous sa forme réduite (Fe2+), qui est très soluble. Dans l'hypothèse où les BIFs résulteraient de la précipitation du Fe2+ en Fe3+ en présence d'oxygène libre, il aura donc fallu dans un premier temps que les algues saturent en oxygène tous les minéraux de l’océan. Cependant, il existe des BIFs à 3.5 Ga., qui sont bien antérieurs aux pristanes. S'agit-il simplement d'un manque de fossiles de cette époque? Stromatolithe fossiles (Australie-Plbara 3.5 Ga. Filament fossile 3.5 Ga. (taille quelques dizaine de microns) Lame mince Existe-t-il un autre mécanisme possible pour fabriquer ces BIFs? Peut-être n'a-t-il pas fallu attendre la saturation en oxygène de l'océan pour transformer Fe2+ en Fe3+? Le rôle joué par la chlorophylle dans la photosynthèse est d'arracher des H+ de l'eau (ce qui libère de l'oxygène), car en effet la construction du vivant réclame une quantité importante d'hydrogène. Fig. 66: banded Iron formation - 154 - ENSM-SE, 2° A : axe transverse P N Prenons la composition moyenne du vivant, soit à peu près C60O40N2H100, et tentons de le construire à partir des molécules dissoutes dans l'océan à cette époque: 1- les 60.C viennent du CO2 ou du HCO3- et le bilan est, pour 60.C: 0 ≤ H ≤ 60; 120 ≤ O ≤ 180 On connaît en effet de part le monde un type de série de faciès rocheux qui laisse à penser que des conditions très dures sont réapparues qui ont pu mettre en péril la vie sur Terre, à plusieurs reprises, d’abord vers 2.3 Ga. puis à quatre reprises entre 1Ga et 550 Ma. Cette association est la suivante : 2- Les 2.N viennent du NO2 ou du NO3, ce qui ne compense pas le déficit d'au moins 40.H 1- la base de la série est constituée d’un sédiment identique aux dépôts glaciaires marins actuels, provoqués par la fonte les icebergs ; Il nous manque donc une source d'hydrogène, et c'est peut-être le Fe2+ qui a alors joué ce rôle, de façon indirecte. On sait que Fe2+ peut être oxydé sous l'effet des UV, selon la réaction: Fe2+ + hν (UV) → Fe3+ +eL'électron ainsi éjecté va, en se combinant à un proton, donner un H+ qui sera immédiatement capté par la vie. L'effet d'un tel mécanisme est donc d'une part de déplacer l'équilibre en faveur du Fe3+ qui, beaucoup moins soluble que Fe2+, précipite en BIF, et d'autre part de favoriser la vie en lui cédant les hydrogènes qui lui manquent. Selon David C. Catling et al 2001, la concentration basse en O2 dans l’atmosphère archéenne implique que le méthane était 100 à 1000 fois plus abondant qu’aujourd’hui. On sait le rôle positif du CH4 dans l’effet de serre et sa capacité à absorber la lumière solaire, mais il pourrait avoir eu un autre rôle dans l’histoire de notre atmosphère. Soumis au rayonnement solaire UV, le CH4 est aisément dissocié et, comme nous l’avons vu à propos de Mars, l’hydrogène ainsi libéré atteint aisément la vitesse de libération de la planète, celle de Mars bien sûr, mais aussi celle de la Terre. Cette perte est celle d’un puissant réducteur, ce qui revient de facto à oxyder la planète Terre. L’apparition de la photosynthèse aurait, selon ces auteurs, favorisé ce processus. En effet, en dissociant l’eau en O2 et H2, la photosynthèse favorise les processus méthanogènes qui associent H et C en CH4. Dès lors la perte irréversible d’hydrogène vers le cosmos devient possible, et l’on peut exprimer ce processus comme suit : CO2 + 2H2O ( CH4 + 2O2 + CO2 + O2 + 4H cosmos) En résumé, les voies de l’oxydation de l’atmosphère terrestre ont sans doute été multiples, et elles concourent à élever brutalement et définitivement le taux d’oxygène libre dans l’atmosphère vers 2.5 à 2 Ga. (Fig. 67). La période des BIFs ne s’étend pas au delà de 1.7 Ga. 16/10/12 2- la série continue avec des dépôts de fer identiques à ceux des Banded Iron Formations ; enfin la série se termine par un dépôt de carbonates de type archéen, à texture Lazarus . Enfin la série se termine par un dépôt de carbonates de type archéen, à texture Lazarus . Leur extension quasi généralisée jusque vers les basses latitudes (au moins jusqu’aux tropiques) a fait dire à Joseph L. Kirschvink en 1992 que le globe a dû être « a Snowball Earth », conformément au modèle de Mikhail Budyko (1964), qui prédit que l’accroissement de l’albedo lié au pouvoir réflecteur de la glace et de la neige pourrait, par emballement, entraîner l’englacement total de la planète. La surface croissante de la glace réfléchit une grande partie des rayons solaires, qui sont alors plus renvoyés dans l'espace sans réchauffer la Terre, et le refroidissement s'accélère. La glace gagne ainsi les tropiques, peut-être même l’équateur ? D’autres parlent de « Planète Igloo ». Totales ou pas, les glaciations ont bien eu lieu durant cette période, leur durée aurait été à chaque fois de 10 Ma. environ et les conditions très froides qu’elles imposent paraissent bien avoir provoqué une diminution considérable de la biomasse assurant la photosynthèse et que pourrait traduire le rapport 12C/13C très abaissé de ces sédiments d’après certains auteurs. Inversement la biomasse anoxique, en particulier méthanogène, pourrait avoir proliféré, augmentant PCH4 d’équilibre entre l’atmosphère et l’océan et favorisant la précipitation d’hydrate de méthane dans les sédiments. La présence de BIF témoigne d’un abaissement important du potentiel redox juste avant ou au début de la précipitation des carbonates. Ceux-ci, parce qu’ils coiffent les dépôts glaciaires, témoignent d’un retour des conditions chaudes, mais aussi du déplacement de la PCO2 d’équilibre entre l’atmosphère et l’océan. On imagine alors que, la glaciation généralisée ayant fait chuter la biomasse photosynthéthique, la part du CO2 volcanique dans l’atmosphère remonte. Ce nouvel emballement, de l’effet de serre cette fois, conduirait alors à la fusion brutale de CO2Cette explosion de la vie implique une surconsommation du carbone, et l’on a vu que le CO2 est une denrée qui s’est raréfiée dans l’atmosphère dès 4 Ga.. Dans une atmosphère devenue oxydante, la photosynthèse soustrait une fraction du CO2 qu’elle stocke dans les végétaux (fussent-ils unicellulaires), mais à leur mort, la dégradation du vivant renvoie le CO2 à l’atmosphère, et il Fig. 67 : évolution de la composition de l'atmosphère s’établit un équilibre entre le réservoir atmosphérique et la biosphère. C’est ainsi que de nos jours, une forêt mature, en équilibre, présente des bilans de consommation de CO2 et de production d’O2 globalement nulle. Mais à cette époque ancienne, l’équilibre ne sera atteint que vers 2 Ga. et le bilan en oxygène apparaît très largement positif. L’effet de serre a donc probablement continué à décroître durant cette période. Est-il le seul responsable de l’apparition des premières glaciations ? C’est en tous cas vers 2.3 Ga. que l’eau solide apparaît sur la Terre pour la première fois. - 155 - ENSM-SE, 2° A : axe transverse P N la glace et à la précipitation du carbonate. La vie reprenant ses droits sous des auspices plus cléments, un nouvel équilibre serait atteint. L’explication de ces formations reconnues et caractérisées depuis 40 ans environ est encore très controversée aujourd’hui. Quel rôle la tectonique des plaques joue-t-elle dans la régulation du climat ? Mars nous montre qu’avec l’arrêt de la tectonique globale cesse le recyclage du CO2 et avec lui l’effet de serre. Le cycle des « Pangée(s) » a-t-il pour effet de ralentir ce recyclage du CO2 ? Nous avons vu au chapitre 1 §B qu’un supercontinent agit comme un couvercle sur le manteau et que les modèles suggèrent qu’il s’en suit une augmentation de la taille des cellules convectives? Toujours est-il que les quatre épisodes successifs de boule de neige 1Ga-550 Ma. sont à peu près contemporains de la première Pangée reconnue, Rodinia (cf. Chp. 3 § E1b) et qu’ils cessent avec le morcellement de Rodinia. Faut-il voir dans la glaciation carbonifère correspondant à la Pangée un bégaiement de l’histoire? Les causes ne sont jamais uniques, et la glaciation carbonifère est très différente des précédentes, sans Lazarus et sans BIF. Mais cela signifie-t-il que la Pangée n’a joué aucun rôle ? L’époque de la première glaciation, il y a 2,3 Ga. correspond semble-t-il à une baisse d'intensité lumineuse reçue du Soleil. Le système solaire serait passé à travers des régions poussiéreuses de l'espace qui aurait diminué l'énergie solaire reçue par la Terre ? Cause unique là encore ? d - L’explosion de la diversité, un scénario très mal documenté Si l’impact des conditions géotectoniques sur l’apparition et le maintient de la vie est fondamental, celui de la vie sur l’atmosphère terrestre fut et reste considérable. Il ne fut pas immédiatement visible, et ce n’est que lorsque la saturation en oxygène de l'océan aura été atteinte que la composition de l’atmosphère aura pu aussi changer et que le cycle de l’ozone aura pu démarrer. Dès lors, les UV solaires très énergétiques n’auront plus atteint le sol terrestre, et la vie continentale sera devenue possible. On a longtemps pensé que le premier eucaryote est apparu dans les océans peu après la saturation de l’eau en oxygène; il est âgé d’environ 1.5 Ga. On disait alors qu’il aura donc fallu plus de 2 Ga. pour voir le code génétique s'individualiser dans la cellule! Si le maximum de complexité a bien été atteint (de nos jours) par les eucaryotes, rien n'est venu prouver la supériorité des cellules à noyau, en termes d'adaptation de la vie aux conditions extérieures. Et il va d'ailleurs se passer 1 Ga. pendant lequel nous ne connaissons pas de changements significatifs. Selon ce schéma, l’'apparition des premiers pluricellulaires remontait aux environs de 670 Fig. 68 : Fossile de Franceville (Gabon) Ma., et la première faune connue (Ediacara, en Australie) était datée de 600550 Ma., c’est à dire peu après le dernier snowball connu. 16/10/12 Fig. 69 : La faune d’Ediacara a) les fonds océaniques au temps d’Ediacara b) On y observe des organismes ressemblant à des méduses (a), à des coraux mous (b, Rangea), à des arthropodes ou à des vers annélides (c, Spriggina). Par contre, (d, Parvancorina et e, Tribrachidium) ne ressemblent à aucune forme animale connue. c) distribution mondiale des site de faunes d’Ediacaria Mais en 2010 la découverte au Gabon de plus de 250 fossiles de formes et de dimensions diverses, dans des terrains datés de plus de 2.1 Ga, apporte la preuve de l’existence d’organismes pluricellulaires à cette époque. D’après l’équipe de A. El Albani la morphologie de ces fossiles ne peut s’expliquer par des processus purement physico-chimiques. Leur taille (jusqu’à 12 cm) est trop grande et leur structure interne (Fig. 68, image obtenue par tomographie de rayons X) trop complexe pour que l’on soit en présence de procaryotes ou d’eucaryotes unicellulaires. La reconnaissance du caractère « vivant » de ces fossiles pyriteux dans leur gangue argileuse été conduite en s’appuyant sur la distribution des isotopes du soufre, dont les rapports dans la matière organique transformée en pyrite sont différent du soufre minéral de l’argile. La distribution relative de la matière organique a été précisément cartographiée. Cette matière est ce qu’il reste de l’organisme vivant, qui s’est transformé en pyrite (un minéral formé de disulfure de fer) au cours de la fossilisation. La faune d’Ediacara, datée de 600-550 Ma. est constituée d’invertébrés variés (fig. 69a-b-c) qui apparaissent à peu près partout dans le monde à la même - 156 - ENSM-SE, 2° A : axe transverse P N 16/10/12 chausse pied, sur les branches basses d’un cône de diversité représentant les embranchements connus, et dont la base inconnue se perd dans les terrains azoïques du Précambrien. Fig. 70: Faune tommotienne: Elle contient certains organismes d'aspect moderne (D), et de petits élément considéré par les auteurs comme des lames, tubes, aiguilles, calottes ou coupoles d'affinité incertaine (A-C) époque. Cette faune témoigne donc d’une adaptation efficace puisque largement conquérante (Fig. 69b), mais elle est sans descendants ? Aucun des organismes présents à cette époque ne paraît être en mesure de représenter l’ancêtre d’une espèce animale vivant de nos jours… surprenant ? En fait Burgess représente une disparité considérable dont l’iconographie en arbre ne peut rendre compte. Ce phénomène sera de très courte durée dans l’histoire de la vie. Il sera rapidement suivi d’une décimation des formes créées. Parmi elles, un petit nombre de formes sont les fondateurs de tous les embranchements que nous connaissons aujourd’hui, auxquels il faut ajouter celui des éponges déjà présent dans la Faune tommotienne. Le caractère unique de l’évènement, qui s’est déroulé en quelques dizaines de Ma. au plus (Fig. 72 ; NB la faune tommotienne, entre Ediacara et Burgess n’est pas représentée, celle de Franceville non plus) n’avait pas échappé à Darwin, mais toutes ses patientes observations convergeaient vers l’idée que la diversité, en fidèle représentante de l’évolution des espèces, reflète des modifications trop lentes sur un Fig. 72: datation des premières faunes fossiles. Une étape importante de l'évolution après l'apparition des métazoaires à corps mou est la minéralisation des squelettes. La découverte récente d'organismes à squelette minéralisé dans des couches de la fin du Précambrien et du début du Cambrien (entre 550 et 540 Ma.) démontre que l'apparition de la minéralisation des squelettes est quasi contemporaine de la faune d'Ediacara. La Faune observée d’abord à Tommot, une petite ville de Sibérie (faune tommotienne, Fig. 70), puis un peu partout dans le monde est à peine postérieure, 530 Ma. Elle aussi fut de courte durée (quelques millions d'années seulement). Néanmoins, cette faune tommotienne est importante parce qu’elle marque l'apparition d'un groupe d'organismes, les archéocyathes, qui n'a vécu que jusqu'à la fin du Cambrien, mais qui appartient très probablement à l'embranchement des éponges. C’est donc à cette période qu’apparaît le premier des plans d’organisation qui ont encore des descendants de nos jours. nombre de branches trop constant pour qu’elle ne fût pas régulièrement décroissante en reculant dans le temps, et qu’elle n’aille se perdre en un rameau unique dans les temps protérozoïques. Pour Stephen Gay-Gould (« La vie est belle » page 48) A ce stade, l'évolution de la vie va subir une diversification mieux vaut utiliser le terme de « disparité » pour foudroyante dont témoigne la faune de Burgess Pass souligner la distance entre les plans d’organisation des (Colombie Britannique), d’abord décrite par Sir Charles organismes appartenant à des embranchements différents, Doolittle Walcott lors de sa découverte en 1909. L’erreur de et parler de « diversité » au sein d’un même Wallcott et de ses suivants fut de considérer que la Faune de embranchement pour souligner le nombre des espèces de Burgess se situant début de la vie animale connue ou ce groupe. Il prend les cas suivants « une faune comprenant presque, la diversité que l’on y observe obéit aux mêmes lois trois espèces distinctes de taupes » et « une faune comprenant que tous les organismes que l’on rencontre depuis ; les un éléphant, un escargot et une fourmi » donc trois formes de Burgess sont donc nécessairement embranchements. On sera d’accord avec des ancêtres du monde vivant actuel. Or ils sont l’auteur pour dire que la diversité est faible Fig. 71 : cône de déjà diversifiés et doivent donc s’inscrire dans dans la première faune et forte dans la diversité croissante le cône de diversification (Fig. 71), seconde, et pourtant, il n'y a dans chaque cas représentation prêtée à C. Darwin60, reprise que trois espèces. La faune du Schiste de ensuite par Thomas H. Huxley et développée Burgess a montré que celle-ci recelait de la surtout par Herns Heackel Les fossiles de diversité, dans le sens de disparité des plans Burgess devaient donc se ranger, fusse avec un d'organisation anatomique. Appréciée en tant que nombre d'espèces, la diversité de la faune de Burgess n'est pas très élevée. Ce fait souligne un «paradoxe capital 60 La représentation de C. Darwin de l’évolution était celle propre aux premières formes de la vie. Comment une telle d’un corail buissonnant (voir couverture du poly), beaucoup disparité des organisations anatomiques a-t-elle pu ' ' plus proche de la représentation sphérique qu’on en donne apparaître, alors même qu il n y avait pas de grande diversité dans le nombre des espèces? ». aujourd’hui - 157 - ENSM-SE, 2° A : axe transverse P N L’époque est donc exceptionnelle en effet, et en totale contradiction avec l’image communément admise de la diversité aux embranchements de plus en plus touffus. Contrairement Stephen Jay Gould. à ce que l’on a longtemps [http://scienceblogs.com/worldsfair/200 7/11/what_do_you_think_of_stephen_j. pensé les premiers php] pluricellulaires que nous avons évoqués ont pu avoir un règne très long (1.5 Ga.) L’apparition de la coquille puis, très rapidement, celle de tous les embranchements connus de nos jours plus bien d’autres plans d’organisation mis en évidence sur le site de Burgess Pass, suggère une accélération brutale du foisonnement du vivant. Les 25 embranchements qui y sont représentés sont tous aussi différents les uns des autres qu'un chordé (être à squelette interne comme l'homme et le poisson) et un arthropode (être à squelette externe comme le crabe). Les plans d’organisation de ces êtres vivants sont si déroutants, si différents de ceux que nous connaissons qu’il est parfois difficile, voire impossible, d’attribuer des fonctions à leurs appendices. Il apparaît de nos jours que l’évolution des espèces ne traduit rien d’autre que la réponse de plans d’organisation variablement diversifiés aux sollicitations de leur environnement. Il semble bien que Charles Darwin ai déjà compris, lorsqu’il écrit « il est probable que les périodes pendant lesquelles elle a subi des modifications, bien que longues, si on les estime en années, ont dû être courtes, comparées à celles pendant lesquelles chacune d'elle est restée sans modifications » que l’évolution des espèce n’a pas le caractère linéaire qu’on lui confère souvent (gradualisme phylétique) et il revient à Stephen Jay Gould, figure importante du darwinisme contemporain, d’avoir formulé en 1972 avec Eldredge la théorie des équilibres ponctués, selon laquelle les transitions évolutives entre les espèces au cours de l’évolution se font brutalement et non graduellement. Ainsi l’évolution ne traduit aucune direction préférentielle vers quelque que ce soit et, reprenant le « corail de la vie » de Darwin, sa meilleure représentation actuelle est sphérique (voir 4° de couverture). Mais revenons un instant au zoo d’exception de Burgess, dont si peu de membres eurent une descendance : Marella est un petit animal de 2cm maximum. Sa tête porte 2 antennes et 2 pattes spécifiques, 2 cornes latérales tournées vers l’arrière et une protection dorsale en forme de lyre; son corps segmenté comprend 25 articles biramés, une patte articulée et un appendice branchial ; un telson termine le corps Yohoia est très particulier. Sa tête porte 3 paires de pattes uniramées classiques pour la marche chez les trilobites plus une paire de pattes pour la nutrition se terminant par quatre piquants, une morphologie inconnue chez tous les autres arthropodes depuis. Les 10 premiers segments du corps portent un seul appendice, en éventail. 16/10/12 Opabinia est un être extraordinaire, de 5 à 7 cm, équipé de 5 yeux, d’une trompe terminée par une sorte de double mâchoire équipée d’épines en guise de dents ? Un must dans le bestiaire de Burgess Pass. Son corps comporte 15 segments biramés, avec 1 lobe majeur et 2 petits lobes latéraux portant la rame branchiale. Odontogriphus, l’énigme édentée, est un petit animal très plat, équipé de deux organes (sensoriels ?) latéro-frontaux et d’une sorte de bouche à 25 « dents », petit cônes qui ne sont sans doute que des petits tentacule ? Dinomischus est un organisme fixé et sans doute immobile, assez semblable aux coraux dont il n’a pas la symétrie 6 ou 8. Il ressemble aussi aux crinoïdes, mais sans la symétrie 5 des échinodermes. Equipé de lames ressemblant à des pétales, il montre 2 orifices reliés entre eux, bouche et anus sans doute. Amiskwia est peut-être l’un des rares organismes ne vivant pas sur le fond marin. En effet ses appendices (latéraux et caudal) suggèrent la nage. Par ailleurs sa tête semble équipée un double organe sensoriel et de 2 tentacules. Hallucigénia ! comme le dit S.G. Gould, comment peut-on décrire une forme vivante dont on ne comprend pas où est l’avant et l’arrière, le haut et le bas. La bouche serait le tube en bout ? Les épines des béquilles ? des pattes ? une paire par segment. Sur le dos( ?) une sorte de tentacule placé en quinconce avec les « pattes ». Si hallucinant que l’on se demande encore s’il ne s’agirait pas d’un fragment d’un autre animal, non trouvé à ce jour. Mais Hallucigénia n’existe pas qu’à un seul exemplaire ? Une énigme… Odaraia ressemble à un arthropode, à carapace bivalve, sans antennes, avec une queue d’avion pour faire bonne mesure. Vivait-il sur le fond ? se propulsant avec la queue ? Pas d’antennes, pas d’appendices buccaux, encore une fois un organisme très différencié et rien qui indique un caractère primitif. Wiwaxia est un petit animal de 5 cm en moyenne, couvert de rangées de plaques dont deux en forme de lignes d’épines. Pas de segmentation, Wiwaxia n’est pas un - 158 - ENSM-SE, 2° A : axe transverse P N annélide, ni un arthropode. Sa bouche est équipée d’un outil qui rappelle la radula des gastéropodes (sorte de râpe). Fautil dès lors le ranger dans les mollusques ? Anomalocaris mesure 60 cm, un monstre pour l’époque. Il est le plus grand prédateur de cette faune. Actuellement les paléontologues s’accordent à le ranger dans les arthropodes, dont il constitue l’une des formes ancestrales présentes à Burgess Pass. Fig. 73 : La vie est Belle, taxons connus de nos jours : a) Canadapsis, un pré-crabe b) Ottoïa, ancètre des priapilien modernes c) Canadia, un annélide, d) Pikaïa, l’ancètre de tous les chordés, notre aieul, e) Aysheïa, le précurseur possible de deux phyla, les annélides et les arthropodes. Voilà pour les espèces restées sans descendance, ce qui ne signifie pas que le nombre des individus de chacune d’entre elles était petit ou qu’elles étaient inadaptées. Par voie de conséquence, nous sommes incapables des classer dans les phyla contemporains. Mais bon nombre d’autres espèces présentes à Burgess Pass se rangent dans des phyla qui portèrent descendance, dont notre ancêtre Pikaia (Fig. 73 page suivante), Pourquoi tant de diversité dans cette période charnière pour les pluricellulaires? Bien sûr, la pression démographique est probablement encore faible et la concurrence entre tous ces embranchements qui viennent d'apparaître n'est sans doute pas aussi rude qu'elle ne le sera par la suite, mais pourtant tous ces organismes très différents paraissent déjà très adaptés à leur milieu, et il semble de plus en plus évident avec la multiplicité des sites de fouilles qu'ils étaient bien déjà partis à la conquête de tout l'océan. A notre schéma de cône de diversité il faut substituer un schéma de disparité – décimation – diversification (fig. 74). Pourquoi une telle décimation se produit-elle parmi des formes qui viennent de conquérir les océans du monde entier ? Quels hasards auront, 40 Ma. plus tard au Cambrien (560 Ma.), réduit le panel des formes de vie sur la Terre à ce que nous connaissons aujourd’hui. Comment s'est opérée la sélection ? Dire que les formes qui subsistent ont survécu parce qu’elles étaient les plus adaptées en partant du principe darwinien que c’est la pression de l’environnement qui préside à la sélection confine à la tautologie, puisque l'on identifie les plus aptes comme ceux qui ont survécu. Mais ce n’est pourtant pas une raison de suivre les créationnistes, qui ont récemment brandi cet argument, prétendant ainsi réfuter la notion même d'évolution. Une difficulté majeure que présente Burgess pour la communauté scientifique est que rien dans cette faune ne permet de prédire lesquelles, parmi les espèces présentes, sont celles qui sont, A PRIORI, les plus adaptées aux conditions que l’on sait devoir régner d’ici peu. Ainsi, rien ne nous dit que si le film des évènements pouvait être rejoué, notre ancêtre Pikaïa, moins de 5 cm et seul chordé de Burgess Pass, serait au nombre des élus à la loterie de l’évolution… Considérant la théorie de Darwin, et suivant Gould, on peut dire que la faune de Burgess « pose deux Fig 74: schéma de grands problèmes au sujet de Décimation - diversification l'histoire de la vie. Ils se situent symétriquement par rapport à la faune de Burgess elle-même, l'un avant, et l'autre après : 1 - comment, étant donné 16/10/12 notre vision traditionnelle d'une évolution extrêmement lente, une telle disparité a-t-elle pu surgir aussi rapidement ? 2 - si la vie actuelle est le résultat de la décimation de la faune de Burgess, quelles particularités anatomiques, quels caractères physiologiques, quels changements d'environnement départagèrent ceux qui allaient gagner de ceux qui allaient perdre ? » Suivant Gould, trois types de mécanismes évolutifs sont susceptible de rendre compte de l'explosion du Cambrien ayant conduit à la disparité rencontrée à Burgess. 1 - Le remplissage initial du tonneau écologique. « Selon la théorie darwinienne conventionnelle, l'organisme propose et l'environnement dispose. Les organismes fournissent un matériau brut sous forme de variation génétique exprimée dans des différences morphologiques. Au sein d'une population, ces différences sont toujours petites, et ce qui est plus 61 important dans la théorie, non dirigées . Le 61 « Les manuels de biologie parlent souvent de variations «au hasard ». Ce n'est pas vrai au sens strict. Les variations ne se font pas au hasard, dans le sens littéral où elles seraient également probables dans toutes les directions ; chez les éléphants, il ne se produira jamais de variations génétiques déterminant la formation d'ailes. Mais l'emploi du terme «hasard» a pour but de faire ressortir une notion cruciale : sur le plan génétique, rien ne prédispose les organismes à varier dans des directions - 159 - ENSM-SE, 2° A : axe transverse P N changement évolutif (par opposition à la simple variation) est produit par le jeu de la sélection naturelle émanant de l'environnement externe (les conditions du milieu, aussi bien que les interactions entre les organismes). Les organismes ne fournissant que le matériau brut et celui-ci ayant été jugé presque toujours suffisant pour produire toutes sortes de changements selon des rythmes darwiniens extrêmement lents, l'environnement est donc considéré comme le facteur qui contrôle la vitesse et l'ampleur de l'évolution. Par conséquent, selon la théorie conventionnelle, les grandes vitesses atteintes lors de l'explosion cambrienne signalent que quelque chose d'inhabituel a dû se passer dans l'environnement à cette époque… …lorsqu'on cherche en quoi pouvait consister cet « inhabituel » dans l'environnement, ayant pu engendrer l'explosion cambrienne, la réponse est évidente et saute aux yeux. Cet événement a représenté le moment du remplissage initial du tonneau écologique par la vie multicellulaire. Ce fut une époque où les places disponibles pour des modes de vie variés abondaient, à un point qui n'a jamais plus été égalé depuis. Presque n'importe quoi pouvait trouver sa niche écologique. La vie multicellulaire opérait une radiation dans un espace totalement libre et elle put donc proliférer à une vitesse exponentielle… Dans le remueménage et l'agitation de cette période unique en son genre, l'expérimentation régnait, le monde était pratiquement libre de toute compétition pour la première et la dernière fois… … Pratiquement toute la littérature sur Burgess fait appel à cette vision traditionnelle. Le maître mot des interprétations a été : compétition moins rigoureuse ». 2 - Le changement des systèmes génétiques au cours du temps. Gould écrit : « Dans le cadre de la vision darwinienne traditionnelle, les morphologies subissent des processus de vieillissement, mais non le matériel génétique. Si le changement évolutif connaît des variations de rythme, c'est que des modifications de l'environnement redistribuant les pressions de la sélection naturelle évoquent de nouvelles réponses de la part d'un substrat matériel (les gènes et leur action), mais celui-ci ne change pas au cours du temps. Or, il se pourrait que les systèmes génétiques « vieillissent », dans le sens où ils « deviendraient moins capables de restructurations majeures » (J.W. Valentine). Les organismes modernes ne peuvent peut-être plus engendrer rapidement de nouvelles gammes d'organisations anatomiques, quelles que soient les niches écologiques qui s'ouvrent ». Gould ajoute : «Je n'ai pas vraiment de suggestions à faire concernant la nature de ce vieillissement, mais je demande simplement que l'on prenne en considération une telle alternative… ... Les génomes de l'époque cambrienne étaient-ils plus simples et plus flexibles ? ». adaptatives. Si l'environnement change de telle sorte qu'il favorise les organismes plus petits, les mutations génétiques ne se mettent pas à produire des variations orientées dans le sens d'une diminution de la taille. En d'autres termes, la variation elle-même n'a pas de composante directionnelle. La sélection naturelle est l'agent du changement évolutif ; la variation organique est seulement le matériau brut. » 16/10/12 3 - Diversification initiale et ultérieure, en tant que loi générale des systèmes. Stu Kauffman, a mis au point un modèle pour montrer que le développement maximal rapide de la disparité suivi d'une décimation, observés à Burgess, sont une loi générale des systèmes qui n’a pas à recourir à une hypothétique faiblesse initiale de l’intensité de la compétition ou un « vieillissement » du matériel génétique. Reprenons Gould dans le texte : « Considérons la métaphore suivante. Le cadre dans lequel se déroule l'évolution est un paysage complexe comprenant des milliers de pics, chacun de hauteur différente. Plus le pic est élevé, plus est grand le succès évolutif de l'organisme qui y figure… …Saupoudrez ce paysage d'un petit nombre d'organismes pris au tout début de leur évolution, et laissez-les se multiplier et changer de place: Les changements peuvent être petits ou grands, mais nous ne nous intéresserons pas ici aux premiers, car ils permettent seulement aux organismes de monter plus haut sur leurs pics particuliers et ne conduisent pas à de nouveaux plans d'organisation. Ceux-ci n'apparaissent qu'à l'occasion de grands bonds, plus rares……Les grands bonds sont extrêmement risqués ils réussissent rarement mais rapportent beaucoup. Si vous atterrissez sur un pic plus élevé que celui sur lequel vous' étiez vous prospérez et vous vous diversifiez ; si vous atterrissez sur un pic moins élevé, ou dans une vallée, vous êtes perdu. Maintenant, nous nous posons la question : quelle est la fréquence des grands bonds qui réussissent (donnant un nouveau plan d'organisation) ? Kauffman a montré que la probabilité de succès est d'abord très élevée, puis chute rapidement et atteint bientôt le niveau zéro tout comme l'histoire de la vie. Ce scénario est assez conforme à nos intuitions. Les premières espèces, peu nombreuses, sont localisées au hasard dans le paysage. Cela signifie qu'en moyenne la moitié des pics sont plus hauts, l'autre moitié plus bas que les localisations initiales. Par suite, les premiers grands bonds ont grosso modo 50% de chances de réussir (les autres concurrents sont éliminés, note JLB). Mais ensuite, l'espèce qui a réussi se trouve sur un pic plus élevé donc le pourcentage de pics plus élevés qui lui restent offerts est moindre. Après un petit nombre de bonds réussis, très peu de pics plus hauts restent disponibles, et la probabilité de pouvoir même se déplacer chute brutalement. En fait, si les grands bonds se produisent assez souvent, tous les pics les plus élevés seront occupés dès les premières phases du jeu, et personne n'aura plus de place où aller. Alors les vainqueurs vont s'implanter et se doter de systèmes de développement si étroitement liés à leur pic, qu'ils ne pourront plus changer, même si l'occasion s'en présente ultérieurement. Par la suite, ils ne pourront donc plus que s'accrocher fermement à leur pic ou mourir. Le monde est rude, et beaucoup vont connaître ce second destin… …parce que même des extinctions au hasard vont laisser des places vides, qui ne pourront plus être occupées par personne. » On sait maintenant que la vie a essuyé par la suite de nombreuses crises, parmi lesquelles cinq crises - 160 - ENSM-SE, 2° A : axe transverse P N terribles qui ont dépeuplé la Terre. Chacun de ces coups du sort ont entraîné la disparition de 40%, voir même 60% de la diversité dans chacun des embranchements, mais il est toujours resté assez d’espèces en chacun de ces rescapés du cambrien pour que la diversité donne dans chaque intervalle toute sa mesure. Mais la disparité de Burgess ne sera plus égalée. Toujours est-il que même si la suite peut paraître somme toute monotone, “ la vie est belle ” et c’est tant mieux ! 16/10/12 excentriques venus du nuage de Oort. Dans la glace du forage européen EPICA, deux couches de micrométéorites, espacées d’environ 50 000 ans (481 et 434 Ka.), ont été observées. Leur concentration en particules extraterrestres est 10 000 à 100 000 fois supérieure à la concentration moyenne observée dans l’Antarctique. S'agit-il de deux pluie de micrométéorites issues de l'explosion de bolides extraterrestres ? Pour d’autres chercheurs, le passage du plan de la Voie Lactée, qui survient tous les 30 à 40 millions d'années, constituerait pour le Système Solaire une région dangereuse à franchir car plus denses en gaz et poussière. Ceci provoquerait des instabilités gravitationnelles à l'intérieur de l’ensemble du Système Solaire augmentant le risque de collision entre la Terre et un des petits corps, astéroïde ou comètes, qui le peuplent. La dernière collision majeure ayant eu lieu il y a 35 Ma. environ, sachant notre position actuelle proche du plan galactique, nous découvrons là une belle occasion de nous procurer quelques sueurs froides médiatiques ! D’origine volcanique, météoritique, climatique ou les trois peut-être comme il y a 65 Ma., ce sont ces crises observées dans le vivant qui ont imposé au géologue le découpage des temps fossilifères (Fig. 75a). Sans doute ontelles créé à nouveau des espaces favorables à la diversité, pourtant aucun foisonnement similaire à celui de la fin du Protérozoïque n'est venu les combler. Les deux premières crises majeures se situent au sein de l’ére Primaire (ou Protérozoïque) et séparent d’une part l’Ordovicien du Silurien (A), et d’autre part le Dévonien du Carbonifère(B); elles résultent de glaciations certes très importantes, mais plus comparables aux glagiations modernes (quaternaires) qu’à un épisode de type snowball. Les autres coupures 4 –L’ultime évolution de l’atmosphère-biosphère, introduites dans le Primaire témoignent de l’évolution des Le sceau de l’homme espèces et de leur diversité. La troisième grande crise, la plus Mais les phénomènes géologiques ou grande, se situe à la fin du Permien (C); elle inaugure l’ère Secondaire. Elle coïncide cette fois avec un épisode astronomiques ne sont plus les seuls capables de générer volcanique majeur, qui met en place les trapps de Sibérie, et de telles crises. L’Homme se révèle être le plus précède de peu la crise de la fin du Trias (D). La crise de la formidable prédateur que l’évolution des espèces ait limite Crétacé Tertiaire (E) est sans doute beaucoup moins jamais engendré. La pression qu’il exerce sur son importante en nombre d’espèces disparues que celle du environnement est si forte que beaucoup d’espèces Permien, mais la médiatisation de son origine au moins vivantes n’y résistent pas, au point que de nos jours, le partielllement météorique et ses effets partiels sur la nombre des espèces qui disparaissent de la surface de la disparition des dinosaures en ont fait un best seller. Certains Terre par unité de temps est comparable à ce qui s’est auteurs, Raup et Sepkoski (1986) ont attiré l'attention sur passé durant ces épisodes de crises majeures. Ferons-nous l'aspect périodique des extinctions. Ils estiment qu’il disparaître nous aussi 60 à 90% des espèces vivantes ? existerait une fréquence autour de 1 crise par 26 Ma. environ Notre espèce résistera-t-elle aux dommages qu’elle (Fig. 75b), et qu’une telle périodicité pourrait témoigner de la engendre dans son environnement? traversée de l’orbite terrestre par un groupe d’objets très La question doit être posée car au-delà de la pression que sa nature lui fait exercer sur le vivant, Fig. 75: a) évolution du nombre des familles denombrées l’Homme moderne (celui de la révolution industrielle et en paléontologie, Les 5 grandes crises du vivant, A à E, de l’ère post industrielle) est peut-être en train de modifier organisent les coupures géologiques le climat terrestre dans des proportions telles qu’elles puissent elles aussi contribuer à bouleverser la biodiversité terrestre. Nous avons tenté de montrer au paragraphe troposphère (§ B2b) combien il est difficile d’établir une relation univoque entre augmentation de la teneur en GES et la température moyenne de l’atmosphère terrestre, et pour nous y aider nous avons commencé à regarder le passé historique de notre atmosphère. Mais ce recul de quelques siècles instrumentés est très insuffisant pour étayer une analyse prédictive du comportement de b) Extinctions (familles et genres) depuis le Permien. notre atmosphère. Aussi nous faut-il maintenant mettre ces résultats historiques en perspective avec les archives paléoclimatiques terrestres enregistrées par les glaces et les sédiments. a - Le décryptage des archives glaciaires L’étude des gaz emprisonnés dans les bulles de la glace des calottes polaires, tels que CO2 ou CH4 donne la composition de l’atmosphère ancienne, car leur temps de résidence dans l’atmosphère est court, environ 10 ans, mais suffisant pour permettre à l’atmosphère d’être - 161 - ENSM-SE, 2° A : axe transverse P N homogénéisée à l’échelle de la planète. En outre la géochimie des poussières minérales permet de remonter aux régions désertiques qui les ont émises ou aux volcans qui ont explosé, faisant des calottes glaciaires de formidables archives. Outre les teneurs en gaz, 3 rapports d’isotopes stables constituent des traceurs géochimiques très efficaces et très utilisés dans le décryptage de ces archives. Pour l'eau, le rapport 18O/16O est modifié significativement lors de l'évaporation et de la précipitation; l'eau du réservoir atmosphérique est ainsi déprimée en 18O par rapport à l'eau du réservoir océanique, et l'eau de pluie est enrichie en 18O par rapport à l'eau atmosphérique. Avec le transport de l'air à travers les cellules convectives (Hadley, Ferrel, et cellule polaire) et les précipitations successives qu'il peut subir pendant son transport, cet air voit ainsi son rapport 18O/16O décroître, et lorsqu'il précipite finalement en neige sous les hautes latitudes, il constitue du réservoir solide (apparenté à la géosphère) aux propriétés isotopiques très différentes de celles de l'océan (18O/16O plus bas de quelques %0). Durant les périodes glaciaires, le stockage d'un énorme volume de glace provoque un enrichissement de l'eau océanique en 18O par rapport à 16O, et inversement pendant les périodes chaudes, il s'opère un déstockage de 16O. On peut suivre ces évolutions dans la composition isotopique de l'oxygène dans la composition des glaces, dont les archives les plus anciennes, carottées à 3600m de profondeur dans la calotte Antarctique (Vostok), remontent à 420 Ka.. On peut remonter beaucoup plus loin en étudiant la composition isotopique de l'oxygène des carapaces des organismes vivants (CaCO3 par exemple). Mais cette lecture est rendue complexe par deux phénomènes: 18 (à composition isotopique assez constante) qui en définit le rapport 13C/12C. Toutefois, les réactions du métabolisme cellulaire s’accompagnent le plus souvent d'un fractionnement isotopique du 12C au détriment du 13C, et l'on constate ainsi que, lorsque le CO2 provient surtout de l’activité bactérienne dans les sols et les vases, les carbonates diagénétiques 62qui en résultent ont une teneur en 13C beaucoup plus basse. C'est en analysant ce rapport 13 12 C/ C que l'on a pu affirmer que certains sédiments vieux de 3.8 Ga. portent la signature isotopique du vivant. Inversement, les variations de 13C/12C sont aussi un excellent marqueur de l’évolution diagénétique de la matière organique. b - Les changements cycliques du climat Les quatre époques les plus récentes de glaciations mondiales, bien connues des géologues alpins (tableau 6) Les calottes polaires de l’Antarctique et du Groenland constituent la majeure partie de la cryosphère (90 % Vol de l’eau douce de la planète). La transformation de la neige en glace est rapide, mais l’évolution de cette glace en profondeur (recristallisation progressive en cristaux de grande taille) est lente, jusqu’à 2000 ans. Les calottes épaisses, jusqu’au delà de 3000 m, enfoncent le continent sur lequel elles reposent. Matériau granulaire, la glace présente des propriétés mécaniques de fluide visqueux anisotrope qui provoque son fluage sous Tableau 6 : périodes glaciaires du Quaternaire Période glaciaire 1ère période Günz 2e période Mindel 16 1 - en premier lieu, le rapport O/ O est thermodépendant; il existe donc une stratification du rapport 18 O/16O avec la température et donc la profondeur de l'océan en région intertropicale, mais ce phénomène sera peu ou pas notable en région polaire; on ne peut donc utiliser ce rapport qu'en établissant un bilan (à travers les concentrations mesurées dans des coquilles, souvent du plancton), entre des organismes vivant sur le fond de l'océan (benthiques) et des organismes nageurs vivant en surface (pélagiques), et en interrogeant des organismes vivant sous des latitudes très différentes. 2 - en second lieu, les organismes vivants opèrent une sélection de 18O, et leur rapport 18O/16O est donc différent de celui de l'océan contemporain. Ces mécanismes doivent être pris en compte dans le calcul des paléo températures océaniques. On exprime généralement ce rapport sous la forme δ18O, qui représente l’écart de ce rapport à la valeur moyenne de l’eau de mer, son unité est le 0/00. De la même manière on utilise beaucoup le rapport du Deutérium 2H (ou D) à l’hydrogène, et là encore on définit un δD, exprimé en 0/00. Pour les carbonates, les compositions isotopiques sont déterminées par le système CO2-HCO3 -CO32 en solution. Outre la température, l’origine du CO2 entrant dans la constitution des carbonates est le paramètre essentiel de leur composition isotopique. Ainsi lorsqu'un organisme vivant dans l'océan se constitue une coquille de calcite (CaCO3) en pompant des ions de l'eau, c’est le stock océanique de HCO3- 16/10/12 Âge Période interglaciaire 600 000 540 000 1ère période interglaciaire, de Günz-Mindel 480 000 430 000 2e période interglaciaire, de Mindel-Riss 240 000 3e période Riss 180 000 3e période interglaciaire, de Riss-Würm 120 000 4e période Würm 10 000 http://fr.wikipedia.org/wiki/Glaciation 62 La diagenèse est la suite des transformations qui transforment une vase sédimentaire née dans l'hydrosphère en roche de la géosphère. Elle se produit là où la minéralogie de la roche devient instable en raison du changement soit des conditions (P,T) soit de la chimie du sédiment. Elle transforme le sable en grés, la boue en argile en marne ou en calcaire, etc. Elle se déroule en plusieurs étapes dont les principales sont la compaction, l'authigénisation et la cimentation: La compaction résulte de l'évacuation de l'eau sous le poids du squelette solide du sédiment. Elle peut conduire des phénomènes de dissolution partielle de ce squelette aux points de contact entre les grains L'authigénisation est la production par précipitation ou réaction de substances minérales dissoutes dans l’eau interstitielle (quartz = SiO2, calcite = CaCO3, hématite = Fe(OH)3nH2O ; Argile = silico-aluminate complexe et de composition variable) La Cimentation utilise les minéraux authigènes pour souder entre elles les particules, d’un sable par exemple. Es principaux ciments observés sont : calcaire (CaCO3) ; dolomitique (CaMg(CO3)2) ; siliceux (SiO2) - 162 - ENSM-SE, 2° A : axe transverse P N Fig 77a : Paramètres orbitaux influant sur le climat terrestre Tableau 7 : Sites Vostok (Antartica) GRIP (Greenland) Taylor Dome (Antartica) GISP2 (Greenland) Byrd (Antartica) Dome C (Antartica) Dye3 (Greenland) 16/10/12 Profondeurs 3310 m 3000 m 554 m 3040 m 2142 m 900 m 2035 m son propre poids et son écoulement lent. Points froids de la Terre, les calottes interagissent avec le climat global. Elles sont susceptibles de se développer en quelques siècles (peut-être même quelques décennies) grâce à un effet de feed-back positif entre précipitation neigeuse et albédo. Inversement elles peuvent disparaître en moins de 10 000 ans (cas de la dernière période glaciaire), en libérant de grandes quantités d’icebergs (vêlage) qui viennent perturber la circulation océanique et le climat. Les carottages dans la glace (tableau 7) nous fournissent donc des enregistrements continus de l’environnement passé au cours des derniers cycles climatiques, dont la représentativité géographique n’est pas limitée à la région. Au début des années 70, les Américains ont atteint 2138 m de profondeur avec le forage de Byrd, mais dans une glace très déformée au delà de 50 000 ans par l’écoulement et donc difficilement exploitable. En Antarctique encore, les Russes atteignaient 2082 m en 1982 avec le forage de Vostok. Dès 1983, le profil isotopique de Vostok étudié par Claude Lorius révéla sans ambiguïté une histoire continue du climat sur plus de 140 000 ans, montrant la fin de la dernière glaciation vers -15 000 ans, son maximum vers -25 000 ans, et la glaciation précédente vers 140 000 ans. La progression des forages nous a permis d’étendre notre connaissance de l’évolution de l’atmosphère à 4 cycles climatiques, en s’appuyant sur les concentrations en CO2 et CH4 qui ont oscillé depuis 400 000 ans Fig. 76 : CO2,CH4 et T°C calculées depuis 400 000 ans 1 - L’excentricité de l’orbite terrestre (Fig.77a ) passe d’un stade circulaire à un autre en passant par un maximum d’allongement de l’ellipse selon deux périodes 100 000 et 413 000 ans ; 2 - L’inclinaison de l’axe de rotation terrestre par rapport à la normale au plan de son orbite oscille entre 22° et 24.5° avec une période de 41 000 ans (Fig. 77b) ; 3 - La précession des équinoxes, qui résulte du fait que l’axe de rotation terrestre est en rotation lente autour de la normale au plan de l’écliptique et décrit un cercle sur la sphère céleste en 25 800 ans. Ce faisant notre équateur céleste subit aussi un lent déplacement sur la même période. Par définition l’équinoxe correspond au moment où dans sa rotation autour du Soleil la Terre fait coïncider son plan équatorial avec le plan de l’écliptique. Partant de cette coïncidence, 1 an plus tard la Terre retrouve sa position mais son axe de rotation s’est légèrement déplacé, et le point d’équinoxe est déjà dépassé. Fig 77b : Paramètres orbitaux influant sur le climat terrestre respectivement entre 200-280 ppmv et 350-700 ppbv (Fig. 76). Outre le calage somme toute satisfaisant avec les datations classiques souvent délicates à conduire, et l’allure très similaire des courbes de variations du volume des glaces tirées de l’étude des sédiments marins (non figuré ici), la cyclicité de ces variations de grande amplitude autour d’une période de 100 000 ans est remarquable. Autre observation, le signal climatique de Vostok contient des périodes de 20 000 et 40 000 ans caractéristiques elles aussi des variations de l’orbite terrestre. Ceci accrédite la théorie mise au point par Milutin Milankovitch entre 1920 et 1941 associant les modifications des climats aux paramètres orbitaux terrestres. Trois paramètres jouent un rôle fondamental : - 163 - ENSM-SE, 2° A : axe transverse P N Fig 77c : Paramètres orbitaux influant sur le climat terrestre 16/10/12 Fig. 77e : extrêmement brutal. c - Les oscillations rapides du climat Cela se traduit par le déplacement des équinoxes dans le plan de l’écliptique, avec une période de 19 000 ans (Fig. 77c) La variation des paramètres orbitaux fait osciller la Terre entre deux extrêmes : 1 - forte excentricité de notre orbite, forte inclinaison (comme de nos jours) et faible distance Terre-Soleil en été sont propices à des saisons très contrastées 2 - orbite quasi circulaire, faible inclinaison et une grande distance Terre-Soleil en été sont au contraire propices à des saisons peu contrastées. Ces variations des paramètres orbitaux conduisent donc à des variations de la quantité de lumière solaire captée par la Terre, et si l'insolation globale annuelle change peu, les modifications de l'insolation aux hautes latitudes en été (la seule période recevant de l’énergie solaire) apparaissent relativement importantes (Fig. 77d). La situation 2, aux saisons peu contrastées, est vraisemblablement favorable aux périodes glaciaires car si les conditions sont telles que l’enneigement d’hiver ne se résorbe pas ou mal en été, les conditions du déclanchement d’un feed-back positif entre précipitation neigeuse et albédo sont peut-être réunies. Inversement, la situation 1 aux étés chauds et hivers rigoureux paraît très défavorable à une période glaciaire (Fig. 77e). Il est enfin très intéressant de noter sur les courbes de la figure 76 la pente très forte des indicateurs et de la température calculée lors de l’installation de chacun des épisodes interglaciaires, signe d’un réchauffement Fig. 77d : Insolation entre 60 et 70° de latitude Nord au mois de juillet L'apparente stabilité du climat durant la dernière période glaciaire a été régulièrement interrompue par des oscillations rapides, d'une durée comprise entre la décennie et le millénaire. On avait bien observé le coup de froid brutal du « Younger Dryas » vers la fin de la dernière déglaciation, mais il demeurait une exception. On sait maintenant que cette apparente stabilité a été régulièrement interrompue par des oscillations rapides du climat, d'une durée comprise entre la décennie et le millénaire. Ces oscillations mémorisées dans les carottes de glace, appelées « cycles de Dansgaard-Oeschger », ont été mises en évidence par Dansgaard et al en 1994. Elles débutent par un refroidissement rapide de 5 à 10°C en quelques siècles, suivis d’un réchauffement encore plus rapide, en quelques décennies ; La fréquence de ces évènements serait approximativement de un tous les 1500 ans (Fig. 78a, page suivante). Ces oscillations ont aussi été observées dans les sédiments océaniques de l’Atlantique Nord (entre 40 et 60°N) par Heinrich en 1988, mais on y observe aussi la présence d'autres événements froids, se traduisant par des arrivées brutales et massives de sables et débris grossiers transportés par des icebergs. Appelés « événements de Heinrich », ces épisodes froids se produisent avec une relative périodicité de 7 000 à 8 000 ans. Les glaces du Groenland montrent que les changements climatiques sont amples, rapides, et largement étendus. Les refroidissements se produisent en plusieurs temps, alors que les réchauffements ont lieu en une seule étape. Les réchauffements les plus forts ont atteint 8°C. Ils se traduisent par un doublement des précipitations neigeuses, un effondrement de la quantité des poussières apportées par les vents, témoignant de conditions atmosphériques nettement plus humides. L’augmentation de la teneur en CH4 est interprétée comme le résultat de l’accroissement de la masse végétale et conforte les observations précédentes. Le réchauffement qui termine vers 11500 ans l’épisode le mieux documenté à ce jour, celui du Young Dryas (YD sur la figure 78b) s’est probablement opéré en moins de 20 ans. Le taux d’accumulation de la neige a doublé en moins de 5ans. Le méthane augmente plus - 164 - ENSM-SE, 2° A : axe transverse P N Fig. 78a : Succession des événements de Dansgaard/Oeschger. Quelle a été l'extension géographique des événements Dansgaard/Oeschger durant les derniers 100000 ans ? Sur le continent, les enregistrements climatiques de tels événements abrupts sont rares : citons la séquence palynologique des lacs des Echets, du Bouchet et des Maars du Velay (Massif Central) observée par Reille et Beaulieu (1988) ou par Guiot et al (1993. Mais, au-delà de la limite de datation du 14 C, les échelles de temps présentent des incertitudes considérables. Les cahiers du CNRS (www.cnrs.fr/cw/dossiers) résument l’étude des archives continentales contenues dans une stalagmite (Vil-stm9, Fig. 79) de Dordogne entre 83 et 32 ka.. On dénomme spéléothèmes les cycles climatiques enregistrés dans la croissance des carbonates karstiques. Sur les 7 hiatus visibles sur la stalagmite, 3 correspondent à des périodes où les conditions empêchaient toute croissance ; ces arrêts sont de 2 types : 1 - le climat était suffisamment froid et sec pour empêcher toute infiltration et précipitation de calcite dans la grotte entre 61,0 ka. et 67,4 ka.; c’est le cas de la discontinuité la plus importante, elle coïncide avec l'événement de Heinrich H6. a) signal δ18O et signal Ca dans la glace du Groenland et des événements de Heinrich dans les sédiments marins de l'Atlantique Nord (signal IRD : «ice rafted detritus», et signal de susceptibilité magnétique. http://www.cnrs.fr/cw/dossiers/dosclim/biblio/pigb15/03_evenements.htm lentement, en quelques 30 ans et son augmentation est sensible dans les deux hémisphères, suggérant que la modification climatique est sensible sur l’ensemble de la flore terrestre. La quantité de sels dans la glace Ca2+ et Na+ montre une diminution brutale de la salinité de l’océan lors du réchauffement, suggérant une débâcle intense durant cette période. Vingt-quatre de ces événements ont été dénombrés dans les carottes de glace du Groenland depuis la fin du dernier interglaciaire. Ils ont aussi été reconnus dans les carottes marines de l'Atlantique Nord, de la Méditerranée occidentale et du Pacifique Nord (Bond et al, 1993 ; Cachot et al, 1999 ; Kiefer et al, 2001). Fig. 78b : détail de l’évènement YD (Dryas récent) : 16/10/12 2 - Les hiatus sont liés à des inondations dans la grotte lors de périodes très humides. Les effets des événements Dansgaard/Oeschger se font donc sentir au moins jusque sous nos latitudes moyennes. La figure 79 montre que le δ13C a enregistré l'événement D/O20 de façon remarquable, et sa terminaison abrupte dans l’évènement de Heinrich qui clôt ce cycle. Ces variations de δ13C sont principalement liées au développement du sol et de la végétation : le carbone dissous dans l'eau d'alimentation des stalagmites provient en majeure partie du CO2 du sol. Or, les variations d'activité pédologique et de la végétation vont conditionner la quantité de CO2 d'origine biologique dissoute dans l'eau d'infiltration. En conséquence, les événements froids, qui ralentissent l'activité végétale et bio-pédologique, sont marqués par un δ13C élevé. ¼ de l'amplitude du signal δ13C (renforcement) est produit par la température. En effet, le fractionnement isotopique du carbone dans la dissolution du CO2 dans l'eau et lors de Fig. 79 : Section polie de la stalagmite Vil-stm9 autour de l'événement D/O20. High-resolution data from the GISP2 ice core, Greenland, and the Byrd ice core, Antarctica, covering the Younger Dryas interval (YD) and adjacent times ; www.ngdc.noaa.gov/paleo/icecore/greenland/summit/index.html. - 165 - ENSM-SE, 2° A : axe transverse P N la précipitation de CaCO3 va dans le même sens. Le décalage entre le début d'un réchauffement et le minimum sur la courbe du δ13C, qui caractérise le maximum d'activité végétale varie entre 500 et 2000 ans. La remise en route du système bio-pédologique qui produit le CO2 du sol peut donc être très rapide, comme lors de l’évènement de Heinrich qui interrompt le cycle D/O 20 Avec le système bio-pédologique redémarre la dissolution-précipitation des carbonates qui amorce la chute du signal δ13C. Le temps de réponse du sol est nettement plus rapide que celui mis en jeu par les différents taxons végétaux qui vont ensuite successivement recoloniser le milieu. Les paléoclimatologues interprètent les évènements de Heinrich comme de résultat de l’effondrement de la calotte Nord-Américaine (Laurentide) sous l'effet de sa propre dynamique. La glace s'accumulant pendant plusieurs millénaires d’un épisode froid sur l'Amérique du Nord aurait atteint progressivement une épaisseur telle que la chaleur interne de la Terre ne serait plus parvenue à se dissiper vers l'atmosphère. L’eau des sédiments sous-jacents aurait alors fondu, induisant un effondrement de la calotte et le vêlage de nombreux icebergs. Leur fonte aurait alors injecté des quantités d'eau douce considérables dans les eaux de surface de l'Atlantique Nord. Cette eau de surface froide mais malgré tout peu dense parce que douce aurait stratifié l'océan et ralenti la formation d'eaux profondes aux hautes latitudes. 16/10/12 On est en droit de se demander si de tels événements pourraient intervenir dans les décennies ou les siècles à venir ? Le « petit âge glaciaire », refroidissement sur l’Atlantique nord entre le XI° et le XIV° siècle pourrait représenter la dernière de ces anomalies ? Faut-il craindre le scénario catastrophe que nous promettent les climatologues ? Le sceau de l’homme est mesurable dans la concentration GES. Doit-on lui imputer une part significative de l’augmentation de la T° au XX° siècle ? Nous avons tenté de vous faire saisir l’extrême complexité des phénomènes naturels, l’interdépendance des paramètres, l’existence d’effets de seuil, d’emballements, de boucles rétroactives… Et d’attirer ainsi votre attention sur la difficulté de dresser le bilan précis de la responsabilité de notre espèce. Afin de terminer avec une vue globale de la planète, la figure 80 nous offre en un coup d’œil sur 600 Ma, un ensemble de courbes de coévolution de quelques paramètres dont l’évolution qui nous préoccupe commence à nous être familière ; de gauche à droite dans la figure de S. Manoliu et M. Rotaru 2008 : Ralentir la formation des eaux profondes, implique de ralentir ou même de bloquer (?) la circulation globale thermohaline. Si l'implication de la circulation thermohaline est reconnue, la cause de ce basculement entre un mode froid et stable (sans convection profonde en Atlantique Nord) et un mode plus chaud et instable avec convection profonde en Atlantique Nord reste encore à déterminer. Traduit-elle une oscillation interne à l'océan ? Une oscillation couplée entre océan et calottes glaciaires ? Faut-il des forçages externes au système climatique pour les déclencher ? Ces oscillations sont-elles présentes même faiblement pendant les périodes interglaciaires ? Il reste aujourd'hui beaucoup de glace en Antarctique et au Groenland. 1 - la T° moyenne de la Terre, variant entre 15 et 25°C; 2 - la teneur en CO2 de l’atmosphère variant de jusqu’à 20 fois le niveau de teneur actuel ; 3 - le niveau de l’océan, variant de -200m à +200m, voir beaucoup plus ; 4 - les épisodes de production massive de charbon ; 5 - le nombre des espèces ayant vécu en même temps sur Terre, avec 5 creux bien identifiés ; 6 - Les impacts majeurs de bolides, pour lesquels il ne faut pas oublier que le plancher océanique qui représente 70% de la surface terrestre est perpétuellement renouvelé et ne peut donc conserver la mémoire d’un passé plus vieux que 200 Ma. environ. A suivre donc… Fig. 80 : quelques paramètres connus à l’échelle planétaire pour les derniers 600 Ma environ - 166 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Sites WEB consultés http://daac.gsfc.nasa.gov/CAMPAIGN_DOCS/ATM_CHEM/ozone_atmosphere.html http://diamant.geo.su.se/Livets_historia_SB/digr_bif_distr.html http://gershwin.ens.fr/vdaniel/Enseignement/Cours-CircuAtm/Cours-Atm-PP97/Cours-CircAtm-PPT97-1024/sld045.htm http://gershwin.ens.fr/vdaniel/Enseignement/Cours-CircuAtm/Cours-Atm-PP97/Cours-Vince-PPT97-Low/sld002.htm http://gsa.confex.com/gsa/2001ESP/finalprogram/session_186.htm http://icp.giss.nasa.gov/research/oceans/oceanchars/index.html http://nte-serveur.univ-lyon1.fr/geosciences/geodyn_ext/Cours/CoursTT1Atmosphere.htm http://image.gsc.nasa.gov/poetry/ask/aatmos.htm lhttp://www.icimod.org http://ingrid.ldgo.columbia.edu/SOURCES/.Indices/ensomonitor.html http://data.giss.nasa.gov/gistemp/graphs_v3 http://mscserver.cox.miami.edu/msc215/2002/A01-Introduction/sld029.htm http://en.wikipedia.org/wiki/File:Post-Glacial_Sea_Level.png. http://ousrvr2.oulu.fi/~spaceweb/textbook/atmosphere.html http://nssdc.gsc.nasa.gov/planetary/comet.html http://pluto.spae.swri.edu/IMAGE/ http://rcs.ee.washington.edu/rrsl/Tutorials/ionosphere.html http://satftp.soest.hawaii.edu/ocn620/coriolis/ http://tabla.geo.ucalgary.ca/~macrae/Burgess_Shale/ http://universe-review.ca/ http://theory.uwinnipeg.ca/physics/index.html http://visibleearth.nasa.gov/Atmosphere/ http://ww.biota.org/conf97/explore.html http://ww.bureaumeteo.com/elnino/ http://ww.ogp.noaa.gov/enso/ http://www.ac-rouen.fr/hist-geo/sat/elnino/windja.htm http://www.esrl.noaa.gov/gmd/ccgg/iadv/, http://www.amisdelaterre.org/publications/publications_4.html#introduction http://cr0.izmiran.rssi.ru/mosc/main.htm http://www.asahi-net.or.jp/~ny3k-kbys/contents/wonderful_life.html http://www.agu.org/pubs/crossref/2007/2006GL028492.shtml http://www.carleton.ca/~tpatters/teaching/climatechange/elninolecture/elninolect1.html http://www.cbl.umces.edu/fogarty/usglobec/news/news14/news14.LTOP-in-NEP.html http://www.cdc.noaa.gov/ENSO http://www.cdc.noaa.gov/ENSO/enso.references.html http://www.cnrs.fr/cw/dossiers/dosclim/biblio/pigb15/03_evenements.htm http://www.cnrs.fr/cw/dossiers/dosclim/biblio/pigbsom.htm http://www.cosmovisions.com/Terre.htm http://www.esrl.noaa.gov/gmd/ccgg/iadv/ http://www.cpc.ncep.noaa.gov/products/analysis_monitoring/ensocycle/enso_cycle.html http://www.earth.nwu.edu/people/craig/teach/C02-0/jasper.html http://www.educnet.education.fr/obter/appliped/circula/theme/accueil.htm http://www.egs.uct.ac.za/engeo/faq/climate-change/faq.html http://www.ems.psu.edu/~fraser/BadScience.html http://www.ens-lyon.fr/Planet-Terre/Infosciences/Climats/Rayonnement/Bilan-radiatif/bilan-energie.htm http://www.ens-lyon.fr/Planet-Terre/Infosciences/Histoire/Paleoclimats/Animations/milankovitch.html http://www.eo.mtu.edu/weather/ http://www.es.flinders.edu.au/~mattom/IntroOc/lecture05.html http://www.geol-alp.com/alpes_francaises/alpes_glaciation.html http://www.ggl.ulaval.ca/personnel/bourque/s4/explosion.biodiversite.html http://www.ggl.ulaval.ca/personnel/bourque/s4/reponsable.glaciations.html http://www.gis.nasa.gov/ http://www.ipcc.ch/ http://www.grida.no/climate/ipcc_tar/wg1/048.htm http://www.ipcc.ch/ http://www.larecherche.fr/VIEW/321/03210603.html http://www.ldeo.columbia.edu/dees/ees/climate/slides/ocean_index.html http://www.lifestudies.org/fr/apparition.PDF http://www.manicore.com/anglais/documentation_a/articles_a/palace_may2001.html http://www.nasm.edu/ceps/ http://www.ncdc.noaa.gov/paleo/pubs/flueckiger2002/flueckiger2002.html http://www.nirgal.net/atmosphere.html http://www.nodc.noaa.gov/dsdt/oisst/ http://www.ogp.noaa.gov/misc/coral/coral_paleo/coralintro.html http://www.op.noaa.gov/ http://www.scotese.com/sitemap.htm http://www.pmel.noaa.gov/toga-tao/el-nino-story.html http://www.tyrrellmuseum.com/bshale/diarama.html http://www.uea.ac.uk/~e930/e174/l5_geos.html#coriolis http://www-ccar.colorado.edu/~altimetry/applications/mapreading/ http://www2.bc.edu/~strother/GE_146/lectures/pics21/bif.html http://www-eps.harvard.edu/people/faculty/hoffman/snowball_paper.html http://www-geology.ucdavis.edu:8000/~gel3/slushball.html http://wwwmeteo.org/phenomen/ouragan.htm http:/www.microtech.com.au/daly/elnino.htm http:/www.scienceweb.org/burgess.html http://www.climat-sceptique.com/article-5654147.html http://www.insu.cnrs.fr/a2913,tectonique-plaques-change-t-elle-climat-global.html http://www.jeanlouisetienne.fr/poleairship/images/encyclo/imprimer/18.htm http://dimes.ucsd.edu/ http://www.insu.cnrs.fr/a2913,tectonique-plaques-change-t-elle-climat-global.html http://scienceblogs.com/worldsfair/2007/11/what_do_you_think_of_stephen_j.php http://www.swpc.noaa.gov/SolarCycle/index.html http://co2thetruth.e-monsite.com/rubrique,montee-des-mers,404968.html http://en.wikipedia.org/wiki/File:Post-Glacial_Sea_Level.png http://www.argo.ucsd.edu/index.html http://www.ipsl.jussieu.fr/services/Observations/fr/RAMCES/Contexte.htm#CH4 http://arctic.atmos.uiuc.edu/cryosphere/ http://www2.cnrs.fr/presse/communique/1546.htm http://co2thetruth.e-monsite.com/rubrique,montee-des-mers,404968.htm http://nsidc.org/data/seaice_index/images//daily_images/S_timeseries.pngl http://indymedia.org.au/2010/01/08/climate-tipping-point-global-atmospheric-methane-on-the-rise http://nsidc.org/data/seaice_index/images/daily_images/N_timeseries.png http://www.ijis.iarc.uaf.edu/en/home/seaice_extent.htm http://www.woodfortrees.org/plot/hadcrut3vgl/from:1900/offset:-0.15/mean:24/plot/gistemp/from:1900/offset:0.24/mean:24/plot/uah/from:1900/mean:24/plot/rss/from:1900/mean:24 http://cr0.izmiran.rssi.ru/mosc/main.htm http://geology.uprm.edu/Morelock/patterns.htm http://nsidc.org/data/nsidc-0081.html http://maps.grida.no/go/graphic/sea_level_rise_due_to_the_melting_of_mountain_and_subpolar_glaciers http://ossfoundation.us/projects/environment/global-warming/summary-docs/oss-reports/slr-research-summary-2008 http://www.cnrs.fr/Cnrspresse/n400/pdf/n400rd06.pdf http://www.sahra.arizona.edu/programs/isotopes/oxygen.html http://www.nhc.noaa.gov/sshws.shtml http://coaps.fsu.edu/~maue/tropical/historical.php http://www.risques.gouv.fr/risques/risquesnaturels/Cyclone/http://reviewipcc.interacademycouncil.net/ReportNewsReleaseFrench.html http://www.newx-forecasts.com/nao.html http://www.locean-ipsl.upmc.fr/~cdblod/mld.html http://www.nwfsc.noaa.gov/research/divisions/fed/oeip/ca-pdo.cfm http://www.esr.org/pdo_index.html http://www.ifremer.fr/lpo/cours/nao/nao3.html http://nsidc.org/arcticmet/patterns/arctic_oscillation.html http://en.wikipedia.org/wiki/File:Amo_timeseries_1856-present.svg ftp://ftp.ncdc.noaa.gov/pub/data/paleo/icecore/greenland/summit/gisp2/isotopes/gisp2_temp_accum_alley2000.txt http://www.ec.gc.ca/pdb/ghg/inventory_report/2003_report/c1_f.cfm http://www.riaed.net/spip.php?article448 http://www.esrl.noaa.gov/gmd/ccgg/trends http://www.ladocumentationfrancaise.fr http://www.esrl.noaa.gov/gmd/ccgg/about/global_means.html http://www.noaanews.noaa.gov/stories2006/s2709.htm http://www.trunity.net/weatherandclimate/articles/view/171440/ - 167 - ENSM-SE, 2° A : axe transverse P N quelques idées fortes 16/10/12 Quelques idées fortes : Composition / Stucture de L’atmosphère Terrestre actuelle Composition chimique : N2 = 78 %pds O2 = 21 %pds Ar = 0.9 %pds CO2 = 0.035 %pds Structure thermique et chimique : T° moy au sol = +13°C ; gradient vertical = –6° Km-1, 18 km à l’équateur, 10 km au pôle ; tropopause = gradient de T° s’inverse La Terre reçoit le flux solaire (Corps noir à 5770°K: émission dans l’UV le visible et le proche IR) La Terre émet dans l’IR seulement (corps noir à 256°K); Les gaz triatomiques de l’atmosphère absorbent les IR ; Donc l’énergie solaire transmise au sol en λ courtes est rendue à l’atmosphère en λ longues et non au cosmos La différence s’appelle Effet de serre ; sans atmosphère T°équilibre = -18°C ; avec, T°équilibre =+13°C Statosphère : T° croissante jusqu'à +20 °C maximum jusqu’à 50 km environ ; stratopause = gradient de T° s’inverse La concentration en ozone est maximum entre 20 et 30 Km. (elle est quasi nulle dans la troposphère) ; L’épaisseur de la couche d’ozone pur que l’on pourrait former avec ce gaz est de 2.5 mm Production de l’ozone = photo-dissociation de O2 sous l’effet des UV courts. Destruction de l’ozone : 1) recombiné à l’oxygène atomique O3 +O ⇒ O2 + O2 2) dissocié par des UV plus longs (λ<310nm) 3) cycle catalytique de destruction de l’ozone, X +O3 ⇒ XO +O2 ; XO +O ⇒ X +O2 X = H (monoatomique), NO, les composés halogènés, les CFC Mésosphère : T° décroît rapidement avec l’altitude. Vers 80 km, elle atteint -140°C mésopause = gradient de T° s’inverse Photodissociation de plus en plus rare avec l’altitude, de O2, de H2O et de CH4 Thermosphère : T° des molécules et atomes (on ne parle plus de gaz) croît très fortement, 2000°C au zénith s’étend jusqu’à 500 km ; Absorption des UV très courts ; Photo-dissociation des molécules diatomiques, N2, O2, H2, et d’atomes O, H ; Siège des aurores polaires. Troposphère : La Stratification électromagnétique de l'atmosphère Neutrosphère : 70 premiers Km ; atmosphère non conductrice Ionosphère : jusqu’à 1000 Km Augmentation non linéaire de la “ concentration ” en électrons- : D (80 Km), E (100Km), F1 (180 Km), F2 (350 Km) Magnétosphère : plasma à faible densité composé d’électrons et d’ions, Electrons piégés par les lignes de champ oscillent à haute altitude en rebondissant sur chacun des pôles Aurore polaire, flot d’électrons et rebond à basse altitude, désexcitation de N et de O après choc avec les électrons Circulation de l'atmosphère cellule de Hadley : entre basses pressions de l’ITCZ et hautes pressions des tropiques ; Coriolis faible (proche équateur), déviation Est ou Ouest faible, alizés de NE et de SE Cellule de Ferrel : entre les tropiques et le front polaire Coriolis fort, vents géostrophiques, cyclonique (tourne à Drte, converge et monte) autour des basses pressions, Anticyclonique (tourne à gauche, diverge et descend) autour des hautes pressions. Cellule polaire : entre front polaire et pôle ; Coriolis très fort ; La Circulation océanique Courants de surface liés au vent : Ekman : déplacement d’un courant provoqué par le vent perpendiculaire à la direction du vent (Coriolis) ; Courant géostrophique = déplacement d’eau perpendiculaire au gradient de pression (à droite). déplacement de la couche superficielle, remplacée par de l’eau profonde = upwelling upwelling côtier en façade ouest des continents upwelling équatorial induit par la ITCZ Courants profonds liés aux différences de densité : Causes des différences de ρ dans l’océan : T° et salinité ; on parle de circulation thermohaline. Basses latitudes : ∆T° (surf – prof)>0 fort = thermocline marquée ; ∆ρ fort ; pas de convection Tropiques : ∆T° (surf – prof)>0 fort = thermocline marquée ; salinité maxi (évaporation sans pluie) Hautes latitudes : ∆T° (surf – prof)≤0 ;pas de thermocline; ∆ρ≤0; convection (plongement Nord-Atlantique) ENSO : ensemble de fluctuations cohérentes de la T° (air et eau), de la Patm, des vents et courants ; El Niño épisode chaud de ENSO ; La Niña, épisode froid de ENSO L’histoire de l'atmosphère Atmosphère primaire, héritée de l’accrétion, n’existe plus qu’autour des planètes géantes gazeuses Atmosphère secondaire résulte du dégazage de leur manteau, elle existe encore autour de Vénus Atmosphère tertiaire résulte de la précipitation de l’eau atmosphérique en océan ; CaCO3 peu soluble stocke le CO2 L’activité biologique basée sur la photosynthèse et consomme beaucoup de CaCO3 - 168 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Epilogue Quelle décision prendre aujourd’hui pour ne pas oblitérer l’avenir? Vous n’avez bien sûr pas trouvé la réponse dans les 166 pages dont vous achevez la lecture. Elles n’ont d’ailleurs pas une telle prétention ! Il a juste été tenté de ne pas trahir dans l’écriture de ce poly combien le savoir d’aujourd’hui s’inscrit dans la pensée d’hier, comment il ne peut être indépendant de la société qui le formule, et ce faisant d’illustrer en quoi la Science est pour l’Homme le mode raisonné indispensable à se représenter son monde, celui de son époque, avec les outils de son temps, prêt à toutes les remises en question rendues nécessaires par les faits. En nous proposant « Sa vérité sur la planète » Claude Allègre (2007) clame que le consensus, maître mot de l’actualité, n’a aucun sens dans le domaine de la science. La remarque est pertinente. Toute « vérité scientifique » doit continuer à être opposable à sa falsification par les faits. Comme le soulignait Karl Popper, selon les mots du http://www.philosciences.com « L'observation d'un certain nombre de faits corroborant la théorie ne la confirme pas absolument et universellement. C'est un procédé de type inductif et il se peut toujours qu'à un moment donné un fait vienne contredire une théorie. Mais surtout, c'est la porte ouverte à la complaisance, car on trouve toujours un certain nombre de faits pour corroborer une théorie, même si elle est fantaisiste. La vérification n'est pas suffisante ». Or le raisonnement inductif est la démarche usitée en sciences de la Terre, de la vie, et de l’environnement. Nous ne devons pas ignorer la falsification par les faits. Et il est vrai que parfois la communauté scientifique a pu jeter le discrédit sur les plus novateurs de ses contemporains… Parmi ceux que nous avons rencontrés dans ce poly, citons Alfred Wegener pour le XX°, Giordano Bruno plus avant ou Anaxagore de Clazomènes dans un passé plus lointain… Raisons qui font que les arguments des « sceptiques » publiés dans les revues à comité de lecture ont été utilisés dans l’écriture du poly, et que d’une façon plus générale, elles doivent inviter à la réflexion. Il en est ainsi de l’ouvrage « Un appel à la raison » de Nigel Lawson (2008), non scientifique mais ancien secrétaire d'État à l'Énergie en Grande-Bretagne, qui vise à démontrer que la pensée dominante ne repose pas toujours sur des bases solides, que le remède proposé, la réduction des émissions de GES, est une solution inapplicable, et que l’adaptation au changement serait probablement plus féconde. Est-il raisonnable de penser que les états riches d’énergies fossiles, le charbon en particulier, vont se priver de cette ressource ? La réponse sera certainement « oui » mais pas avant que d’autres énergies, renouvelables par exemple, soient technologiquement disponibles et économiquement acceptables! Exemple d’une réussite, le remplacement des CFC ; la disponibilité de produits de substitution est arrivée à point nommé… Il n’est, pour se convaincre du rôle de l’époque dans les avancées de la science, que de revenir un instant sur l’une des plus importantes du XIX° siècle, l’évolution des espèces. On la doit à C. Darwin, bien sûr, mais combien la publication de cette découverte doit-elle à la missive qu’il reçut d’Alfred Russel Wallace ? Vingt-cinq ans après son tour du monde, C. Darwin n’avait toujours pas publié ses idées sur les implications de la variabilité des pinsons des îles Galápagos. Peut-être, lui qui un temps s’était destiné à être pasteur avant d’embarquer sur le Beagle, répugnait-il encore à publier le texte qui bousculerait si profondément les principes de son époque ? Wallace avait certainement lu le voyage du Beagle, mais avait aussi conduit de nombreuses observations en Amérique du Sud et à Bornéo. En 1855, il souhaite publier « De la loi qui a contrôlé l’introduction de nouvelles espèces ». Il envoie son manuscrit, pour avis, à C. Darwin qui était déjà reconnu par ses pairs, et lui demande de le transmettre pour publication à Charles Lyell, membre de la Royal Society, influent et déjà célèbre géologue continuiste. A la lecture de l’article, Lyell comprend que Wallace va doubler Darwin. Les idées de Wallace sont très claires, théorisant ses observations de sorte que « cette loi ne se contente pas d’expliquer tous les faits actuellement inexplicables, mais elle les rend nécessaire », quand celles de Darwin étaient encore trop touffues… La publication sera faite en 1858 en quelques dizaines de pages, en même temps que celle, en quelques centaines de pages, de la théorie de Darwin, quelque peu bousculé par son ami Lyell afin qu’il ne perdit pas l’antériorité de ses idées63… L’histoire retiendra « De l’origine des espèces » de C. Darwin ! Les idées de compétition, de lutte pour l’existence, sont présentes chez les deux auteurs, rien d’étonnant à cela car elles sont aussi dans l’air du temps. Thomas Robert Malthus a publié 50 ans plus tôt « Essai sur les principes de population », qui formule que l’augmentation de la population suit une progression géométrique (doublement à chaque pas de temps), alors que la croissance des ressources est arithmétique, conduisant nécessairement à une succession de catastrophes alimentaires. Le Darwinisme social est donc, avant la lettre, consubstantiel des idées de l’époque. Compétition et échec du faible feront florès. Il faudra attendre la théorie synthétique de l’évolution basée sur l’hérédité de Mendel et la génétique des populations, puis la théorie des équilibres ponctués de Gould et Eldredge (1972) et enfin le principe de la reine rouge de Leigh Van Valen (1973) pour que l’on abandonne l’idée de compétition des espèces et que l’on comprenne le rôle de la coévolution des espèces, rendue nécessaire par l’environnement en perpétuel changement. Et maintenant, la porte s’ouvre à l’altruisme intra-spécifique, comme moteur du succès des espèces, et à l’adaptabilité, par la transmission des caractères acquis. Lamarck (fin-XVIII°), trop tôt jeté aux orties, refait surface avec la compréhension des mécanismes cellulaires dans l’influence de l’environnement sur l’expression des gènes (épigénétique). Le XX° siècle aura eu cela de particulier qu’il est l’instant où, pour la première fois, nous aurons pris la responsabilité d’être la première espèce vivante capable d’infléchir en conscience les équilibres qui ont présidé jusqu’alors aux destinées de 63 Pour plus de détails, lire J.C. Ameisen 2008, Dans la lumière et les ombres. - 169 - ENSM-SE, 2° A : axe transverse P N 16/10/12 l’ensemble des espèces. Notre impact est réel, déterminant peut-être, crucial sans-doute pour le reste du vivant tel que nous l’observons. De ce point de vue, nous entrons incontestablement dans une autre époque. Mais en ce début de III° millénaire technocratique et hyperspécialisé, nos sociétés sont fragiles et font peur. Elles nous rendent donc irrationnels. Il est sans doute tentant de faire de la science et des techniques un Credo (« la science peut tout », « la science prouve que » …), de faire des sciences de l’environnement, des sciences de la Terre et de la Vie qui nous préoccupent ici, le shaman moderne capable de restaurer l’harmonie perdue ? Combien d’experts au chevet des politiques pour rédiger les « feuilles de route » à suivre ? Les conflits d’intérêt sont alors inéluctables, la raison n’est plus le seul argument dont le chercheur doit tenir compte, sources de désillusions pour les publics concernés. Aussi est-il tentant de se réfugier dans n’importe quel livre de la connaissance, puisque tout y sera contenu « en vérité », inspiré par la transcendance, prêt à répondre à nos attentes ! Mai il n’est pas de refuge passé, pas de paradis perdu auxquels revenir. L’effort doit être porté sur l’analyse des changements qui s’imposent, quand bien même nous en serions la cause. Nous aurons à réussir ce pari, et pour ce faire nous aurons certainement à modifier sensiblement nos modes de pensée, à passer de ce que nous pensions être le savoir, à l’intégration de savoirs multiples dans une pensée toujours plus complexe, à inscrire nos activités dans une démarche globalisée, mondialisation et finitude obligent... Il nous faut comprendre et rechercher quelles adaptations conduiront l’Homme vers la meilleure réintégration dans l’interface étroit qui nous abrite, à peine quelques kilomètres d’épaisseur vivable entre géosphère et cosmos. Si nous n’y parvenons pas, la limite Tertiaire-Quaternaire qui a été introduite en géologie par pur anthropocentrisme — alors que nous avons vu qu’il aurait été peut-être plus intelligent d’instituer une coupure majeure avec le début de l’ère glaciaire vers 32Ma — deviendra-telle finalement une vraie coupure pour les espèces à venir, en raison de l’état dans lequel la nôtre aura laissé la Terre ? Mais seront-elles préoccupées de paléontologie ? La biodiversité est une richesse absolument fondamentale que le comportement de l’espèce humaine entame chaque jour au plus profond, tant par son comportement de prédateur sans limite que par ses pratiques (agraires, déplacement d’espèces…) qui inventent des faces à faces improbables entre espèces et inaugure de nouvelles compétitions. Nous créons ainsi une sorte de Pangée64, artificielle certes, mais au nombre de niches drastiquement diminué, dont les incidences sur l’ensemble du vivant sont encore plus inquiétantes que les scénarios d’épouvante des climatologues! Les organismes les moins différenciés, les moins fragiles, se reproduisant vite, ils passeront ce cap difficile. Mais l’espèce humaine sera-t-elle gagnante à cette loterie comme le fut Pikaia en son temps ? Rappelons-nous que l’altruisme intra-spécifique est un facteur clef du succès des espèces. Ne nous indique-t-il pas que, de l’aide entre individus à l’apprentissage des plus jeunes, puis à la transmission de la culture, il n’y a que des degrés que l’homme a franchis mieux que d’autres, servons nous en pour négocier le futur. J.L.B. 64 La Pangée (du grec pan, tout ; Gaïa, identifiée à la Terre-mère) est le nom donné au super-continent que la dérive des continents à constitué à la fin de l’ère Primaire, en rassemblant l’ensemble des terres émergées. Le morcellement qui suivit est responsable d’une intense spéciation du vivant. Le caractère endémique des espèces insulaires fut bien mis en évidence par C. Darwin, et inversement, la pandémie des espèces sur plusieurs continents fut un des arguments clefs de A. Wegener dans l’établissement de sa théorie de la dérive des continents (cf. poly La dérive des continents). - 170 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Ouvrages consultés et illustrations Mesures CO2 Mona Loa (Annexe 1) ftp://ftp.cmdl.noaa.gov/ccg/co2/trends/co2_annmean_mlo.txt USE OF NOAA ESRL DATA # # These data are made freely available to the public and the scientific community in the belief that their wide dissemination will lead to greater understanding and new scientific insights. The availability of these data does not constitute publication of the data. NOAA relies on the ethics and integrity of the user to assure that ESRL receives fair credit for their work. If the data are obtained for potential use in a publication or presentation, ESRL should be informed at the outset of the nature of this work. If the ESRL data are essential to the work, or if an important result or conclusion depends on the ESRL data, coauthorship may be appropriate. This should be discussed at an early stage in the work. Manuscripts using the ESRL data should be sent to ESRL for review before they are submitted for publication so we can insure that the quality and limitations of the data are accurately represented. # Contact: Pieter Tans (303 497 6678; [email protected]) # File Creation: Wed Sep 5 10:55:32 2012 # See www.esrl.noaa.gov/gmd/ccgg/trends/ for additional details. # # Data from March 1958 through April 1974 have been obtained by C. David Keeling of the Scripps Institution of Oceanography (SIO) and were obtained from the Scripps website (scrippsco2.ucsd.edu). # # The estimated uncertainty in the annual mean is the standard deviation of the differences of annual mean values determined independently by NOAA/ESRL and the Scripps Institution of Oceanography. # # NOTE: In general, the data presented for the last year are subject to change, depending on recalibration of the reference gas mixtures used, and other quality control procedures. Occasionally, earlier years may also be changed for the same # reasons. Usually these changes are minor. # # CO2 expressed as a mole fraction in dry air, micromol/mol, abbreviated as ppm # year mean unc year mean unc year mean unc year mean unc 1959 315.97 0.12 1960 316.91 0.12 1961 317.64 0.12 1962 318.45 0.12 1963 318.99 0.12 1964 319.62 0.12 1965 320.04 0.12 1966 321.38 0.12 1967 322.16 0.12 1968 323.04 0.12 1969 324.62 0.12 1970 325.68 0.12 1971 326.32 0.12 1972 327.45 0.12 1973 329.68 0.12 1974 330.18 0.12 1975 331.08 0.12 1976 332.05 0.12 1977 333.78 0.12 1978 335.41 0.12 1979 336.78 0.12 1980 338.68 0.12 1981 340.10 0.12 1982 341.44 0.12 1983 343.03 0.12 1984 344.58 0.12 1985 346.04 0.12 1986 347.39 0.12 1987 349.16 0.12 1988 351.56 0.12 1989 353.07 0.12 1990 354.35 0.12 1991 355.57 0.12 1992 356.38 0.12 1993 357.07 0.12 1994 358.82 0.12 1995 360.80 0.12 1996 362.59 0.12 1997 363.71 0.12 1998 366.65 0.12 1999 368.33 0.12 2000 369.52 0.12 2001 371.13 0.12 2002 373.22 0.12 2003 375.77 0.12 2004 377.49 0.12 2005 379.80 0.12 2006 381.90 0.12 2007 383.76 0.12 2008 385.59 0.12 2009 387.38 0.12 2010 389.78 0.12 2011 391.57 0.12 Ouvrages consultés Encyclopaedia Universalis, thèmes variés The Interior of the Earth, M.H.P. Bott, Edward Arnold, 1971 Submarine Geology, F.P. Shepard, Harpet & Row, 1973 Phisics and geology, Jacobs, Russel & wilson, 1974 Une revolution dans les sciences de la Terre, A. Hallam, Seuil, 1976 Paleomagnetism and plate tectonics, W.B. Harland, Cambridge university press, Earth science series, 1979 Le système solaire, Collection Planète Terre, Time Life, 1988 Les volcans, Collection Planète Terre, Time Life, 1988, - 171 - ENSM-SE, 2° A : axe transverse P N 16/10/12 L’atmosphère, Collection Planète Terre, Time Life, 1988, Igneous petrogenesis, M. Wilson, London Unwin Hyman, 1989 Ocean chemisty and deep sea sediments, J. Brown et al, The Open University, Pergamon Press, 1989 Les montagnes sous la mer, A. Nicolas, BRGM, 1990 La Terre toujours recommencée, Y Rebeyrol, Ed La découverte, Le Monde, 1990 Gros temps sur la Planète, J.C. Duplessy et P. Morel, Odile Jacob, 1990 Le contrat naturel, Michel Serre, François Bourin, 1990 Les profondeurs de la Terre, J.P. Poirier, Masson, Cahiers des sciences de l'univers-1, 1991 La vie est belle, S. Jay Gould, Seuil, 1991 La Terre et la vie, Y. Paccalet, Larousse, 1991 Sea water: its composition, properties and behaviour, J. Brown et al, The Open University, Pergamon Press, 1991 Waves tides and shallow-water processes, J. Brown et al, The Open University, Pergamon Press, 1991 The ocean basins: their structure and evolution, J. Brown et al, The Open University, Pergamon Press, 1992 Comprendre et enseigner la planète Terre, J.M. Caron, 2° ed, 1992 La vérité sur l’effet de Serre, Y. Lenoir, Ed. La Découverte, 1992 La vérité sur l’effet de Serre, Y. Lenoir, Ed. La Découverte, 1992 De la pierre à l’étoile, C. Allègre, Fayard La foire aux dinosaures, S. Jay Gould, Seuil, 1993 Ocean circulation, J. Brown et al, The Open University, Pergamon Press, 1993 Océanologie, Bernard Biju-Duval, Géosciences, Dunod, 1994 Formes et mouvements de la Terre, A cazenave et K Feigl, croisée des sciences, 1994 Le noyau de la Terre, J. P. Poirier, Flammarion, Domino, 1996 Climate process at change, E.Bryant, Cambridge University Press, 1997 Sédimentologie, I. Cojan et M. Renard, 2° Ed., Dunod, 1999 Rythmes du temps, Emile Biémont, De Boeock, 2000 Pourquoi j’ai mangé mon Père, Roy Lewis, Actes Sud, 2000 La Plus belle histoire de la Terre, A. Brahic, P Tapponnier, L.R. Brown et J. Girardon, Seuil, 2001 Géologie de la Loire, G. Vittel, Pub de L’Université de St Etienne, 2001 Sismostratigraphie et structure sédimentaire en 3D d'un bassin lacustre, du retrait glaciaire à nos jours (Lac Léman, Suisse) Thèse Université de Genève, S. GIRARDCLOS The oceans and marine géochemistry, H.D. Holland & K.K. Turekian Eds, H. Hedersfield, 2004 Géologie isotopique, C. J. Allègre, Belin 2005 Sciences de la Terre et de l’univers, 2d Ed., A. Brahic, M. Hoffert, René Maury, A.Schaaf, M. Tardy, Vuibert, 2006 Géologie, bases pour l’ingénieur, A. Parriaux, Presses Polytechniques Romandes, Lausanne, 2006 Modern Celestial Mechanics; Aspects of Solar System Dynamics. A. Morbidelli, Cambridge Sci. Publ. 2006 Origine et impact climatique d'un changement de circulation thermohaline au cours des prochains siècles dans le modèle IPSL-CM4 Didier Swingedouw, 2006 Ma vérité sur la Planète Claude Allègre, 2007, Plon/Fayard New Theory of the Earth, Don L. Anderson, Cambridge University Press, 2007 Un appel à la raison, Nigel Lawson, K& B, 2008 Mon père n’est pas un singe ?, C. Grimoult, Ellipse Ed., 2008 Dans la lumière et les ombres, J. C. Ameisen, Fayard Ed., 2008 Plates vs. Plumes: A Geological Controversy. Gillian R. Foulger, 2010 Climat, Mensonges et propagande, Hacène Arezki, T. Souccar ed., 2011 La voie, Edgar Morin,Fayard Ed., 2011 Le Courrier du CNRS, Juil 1990, un regard global sur notre planète Gemoc Annual Report, 2002, ARC National Key Center, Macquarie University Sydney, Rapport de l Osbs Nat de l’ANDRA, 2002, où sont les déchets RA en France Climate change assessments Review of the processes and procedures of the IPCC, InterAcademy Committee to Review the Intergovernmental Panel on Climate Change, October 2010, pp 123 Council Science V293 3 August 2001 David C. Catling,1,2* Kevin J. Zahnle,1 Christopher P. McKay1 Geochimica Cosmochimica acta, 1995, V59-8, The age of the Earth, C. J. Allègre. 1995, V59-15, Chondrules products of collisions, H.C. Conolly Chemical Geology, May 1998, V147, 1-2, The degassing history of the Earth Comptes Rendus de l’académie des Sciences, Fev 1999, L’effet de serre, certitudes et incertitudes Nature 350, Mars 1991, 350, Mars 1991, 351, Juin 1991, Intermittent mixing of the mantle Dimensions and dynamics of co-ignimbrite eruption columns Geometry of geomagnetic reversals - 172 - ENSM-SE, 2° A : axe transverse P N 352, Août 1991, 353, Sept 1991, 357, Juin 1992, 357, Mai 1992, 358, Juil 1992, 358, Aout 1992, 359, Oct 1992, 359, Oct 1992, 360, Nov 1992, 361, Fev 1993, 361, Fevr 1993, 370, Juin 1994, 370, Août 1994, 371, Sept 1994, 377, sept 1995, 402, Nov 1999, 402, Dec 1999, 406, Jul 2000, 410, Apr 2001, 438, Dec 2005, Nature Geoscience 2008 16/10/12 Deep structure of the Northern Japan arc Tomographic imaging of subducted lithoshere Formation of an archean continent Making sense of meteoric chondrules Water in the earth's upper mantle Clues to early solar system history from Cr isotopes in carbonaceous chondrites Dipolar reversal states of the geomagnetic field The hydrological cycle and its influence on climate Deep origin of mid-ocean ridges seismic velocity anomalies Sismological mapping of fine structure near the base of the Earth mantle Merging at the magnetopause A snapshot of the whole mantle flow the role of magmas in the formation of hydrothermal ore deposits A mystery in the mantle Mantle plumes and continental breakup A polar vortex in the Eatrth’s core Sismic anisotropy of the Earth’s inner core… induced by Maxwell stress Evidence for a late chondritic veneer in the Earth’s mantle Deep-mantle highviscosity flow and thermochemical structure Slowing of the Atlantic meridional overturning circulation at 25° N Geodynamics: Layer cake or plum pudding? La Recherche 95, 1978, Le champ magnétique des planètes, 141, Fevr 1983, L’origine de l’atmosphère 210, Mai 1989, La tomographie sismologique 221, Mai 1990, L’eau 223, Juin 1991, Le noyau terrestre 246, Sept 1992, Les inversions du champ magnétique terrestre 255, Juin 1993, L'eau dans le manteau terrestre 266, Juin 1994, La convection dans le manteau terrestre 271, Déc 1994, Le coeur des comètes 274, Mars 1995, La dynamique des volcans 291, Oct 1996, La genèse volcanique des continents 296, Mars 1997,L’histoire de la vie 297, Avr 1997, Le passé sismique de la France 308, Avr1998, Le noyau de la Terre. 315, Déc 1998, Le noyau de la Terre tourne-t-il vraiment ? 317, Fevr 1999, Les frontières du vivant 323, sept 1999, La datation au 14C fait peau neuve. 330, Avr 2000, La naissance chahutée du système solaire 341, Avr 2001, Métaux précieux et Terre primitive Hors Série Avr 2003 La Terre Hors Série Avr 2004 Le Soleil 382, Janv 2005, Les profondes métamorphoses de la Terre Science Mars 2003, N.Caillon et al Science Magazine Janv 2011, Ulf Büntgen et al. 2500 Years of European Climate Variability and Human Susceptibility Pour la Science, Nov 1983, Dec 1990, Juil 1993, Sept 1994, Dec 1994, Juin 1996, Aou 1997, Avr 1999, Fevr 2000, Juil 2000, Janv 2001, Janv 2001, Mars 2001, Mai 2006 N° spécial, La planète Terre L'extinction des dinosaures La limite du noyau et du manteau La naissance de la Lune N° spécial, La vie dans l’univers N° spécial, L’atmosphère Les fonds des océans Les tettres célestes a) La surface gelée d’Europe b) Quand la Terre était gelée N° spécial, La valse des espèces N° Spécial, Il y a 3 milliards d’années Vie et mœurs des étoiles El niño - 173 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Nov 2001, Les génies de la science, Kepler Fevr 2002, Les fossiles, témoins du passé Avr/Juin 2002, Hors série, les diamants Avr 2003, Le dialogue des séismes Juil/Sept 2004, La classification des premiers organismes vivants Nov 2005, La Terre Jeune n’était pas une fournaise Janv/Mars 2007, Climat, comment éviter la surchauffe Janv/Mars 2007, L’eau, attention fragile Juil/ept 2008, Où est née la vie ? Ciel et Espace Mars-Avril-Mai 1992, Sept 1994, Dec 1994, Août 1995, Octobre 2006 Mai 2007, Octobre 2007 N° spécial, Objectif Planète Terre Jupiter, les photos de la collision Système solaire, Les routes de la diversité Le ciel peut-il nous tomber sur la tête? Pluton n’est plus une planète Pourquoi le Soleil est-il innocent ? Comment le système solaire s’est mis en place Programme International Géosphère Biosphère-Programme Mondial de Recherches sur le Climat (PIGB-PMRC) Extrait de la Lettre n°9 Avr 1999 La "calibration" des événements ENSO… L. Ortlieb Extrait de la Lettre n°10 Fevr 2000 Notre atmosphère depuis 400 000 ans. J.M. Barnola Extrait de la Lettre n°12 Juill 2001 L'océan Glacial Arctique aux avant-postes… M.N. Houssais et J.C. Gascard Extrait de la Lettre n°14 Oct 2002 L’élévation du niveau de la mer A. Cazenave et C. Cabanes Extrait de la Lettre n°15 Juin 2003 L'Oscillation Nord Atlantique C. Cassou et L. Terray Extrait de la Lettre n°15 Juin 2003 Les changements abrupts du climat F. Grousset Extrait de la Lettre n°15 Juin 2003 Variabilité climatique rapide… V. Masson-Delmotte et A. Landais Extrait de la Lettre n°16 Mars 2004 Le changement climatique enregistré… P. Wagnon et C. Vincent Extrait de la Lettre n°17 Dec 2004 Evolution de la quantité de vapeur d’eau Stratosphérique J. Ovarlez GIEC, 2007 : IPCC Fourth Assessment Report Bilan 2007 des changements climatiques. Contribution des Groupes de travail I, II et III au quatrième Rapportd’évaluation du Groupe d’experts intergouvernemental sur l’évolution du climat. Working Group I Report "The Physical Science Basis" Working Group II Report "Impacts, Adaptation and Vulnerability" Working Group III Report "Mitigation of Climate Change” Journal of Physical Oceanography Vol 125, 1995 A Mechanism for the Recurrence of Wintertime Midlatitude SST Anomalies, M.A. Alexander & C. Deser Bulletin of the American Meteorological Society, Vol 78, 1997, A Pacific interdecadal climate oscillation with impacts on salmon production. N. J. Mantua, S. R. Hare, Y. Zhang, J. M. Wallace, and R. C. Francis Geophysical Research Letters Vol 29, 2002, General characteristics of temperature variation in China during the last two millennia. Yang, B., Bräuning, A., Johnson, K.R., Shi, Y. Journal of climate Vol 14-1, 2001. North Pacific Decadal Climate Variability Since AD 1661, F. Biondi et al. Rev. Geophys V 42, 2004 Cazenave and R. S. Nerem,: Present-day sea level change: Observations and causes. Physics of the Earth and Planetary Interiors Vol 153, pp 136–149, 2005 Liquid sodium model of geophysical core convection W. L. Shewa and D. P. Lathropb Energy & Envirnment Vol 18 N°2, 2007 180 Years of atmospheric CO2 Gas Analysis by Chemical Methods Beck, E.G., , 2002. 29 (9), - 174 - ENSM-SE, 2° A : axe transverse P N 16/10/12 Physics of the Earth and Planetary Interiors Vol 162 ,256–260, 2007 Correlation of Earth’s magnetic field with lower mantle thermal and seismic structure David Gubbins, Ashley P. Willis 1, Binod Sreenivasan Astronomical Journal, Vol 134, 2007, Dynamics of the Giant Planets of the Solar System in the Gaseous Protoplanetary Disk and Their Relationship to the Current Orbital Architecture", Morbidelli, A., Tsiganis, K., Crida, A., Levison, H.F. and Gomes, R American Meteorological Society 2008 Decadal Trends in Sea Level Patterns: 1993–2004 Astronomical Society of Australia Vol 25 N°2, 2008 Does a spin–orbit coupling between the Sun and the Jovian planets govern the solar cycle? Wilson, I. R. G., Carter, B. D. & Waite, I. A.) Géophysical Research Letter Vol 28, 2001, The Atlantic Multidecadal Oscillation and its relationship to rainfall and river flows in the continental U.S., D.B. Enfield et al., 2077-2080 Vol 35, 2008, Renewed growth of atmospheric methane, M. Rigby et al., pp6 Vol 36, 2009 Observational constraints on recent increases in the atmospheric CH4 burden. E. J. Dlugokencky et al. Physical Geography, Vol 30-2, 2009, Solar Arctic-mediated climate variation on multidecadal to centenal timescales: empirical evidence, mechanistic explanation and testable consequences, Willie W.-H. Soon Climatic Change DOI 10.1007 2009 Persistent multi-decadal Greenland temperature fluctuation through the last millennium Takuro Kobashi et al. Global and Planetary Change, v. 65, iss. 1-2, 2009, Sea level budget over 2003-2008: A reevaluation from GRACE space gravimetry, satellite altimetry and Argo, A. Cazenave et al., , A. p. 83-88. J. Petrology Vol 52, 7-8, 2011, A Reappraisal of Redox Melting in the Earth’s Mantle as a Function of Tectonic Setting and Time , S. F. Foley Vol 51, 10 2010 Carbonate-fluxed Melting of MORB-like Pyroxenite at 2·9 GPa and Genesis of HIMU Ocean Island Basalts, C. Gerbode and R. Dasgupta Atmosphereic Chemistry and Physics (Open Access Journal of the European Geosciences Union) 10, 27603-27630, Source attribution of the changes in atmospheric methane for 2006–2008 Journal of Climate Vol 24, pp 4096-4108, 2011 Influence of ENSO on Tropical Cyclone Intensity in the Fiji Region S. S. Chand and K. Walsh ************************ - 175 - ENSM-SE, 2° A : axe transverse P N 16/10/12 PLAN du POLY AVERTISSEMENT AU LECTEUR Site WEB consulté Prologue Quelques idées fortes CHAPITRE 1 A - La conduction B - La Convection C - L’advection D - Les bilans énergétiques internes 1 - Les sources de chaleur de la Terre 2 - L’état thermique de la Terre 3 - L’allure du géotherme terrestre Sites WEB consultés Quelques idées fortes CHAPITRE 2 A – Classification des météorites 1 - Les aérolites : chondrites-achondrites aLes chondrites : bLes achondrites : 2 - Les sidérites, ou Fers aLes hexaédrites bLes octaédrites, cLes ataxites 3 - Les sidérolithes aPallasites : bMésosiderites : cLodranites : B - Composition chimique des météorites 1 - Aperçu de la composition du Soleil Proton-Proton Cycle Carbon-Nitrogen-Oxygen Cycle 2 - Météorites et composition solaire C - Les météorites différenciées et le fractionnement chimique dans le système solaire 1 - Relation de Titius et ceinture d’astéroïdes 2 - le fractionnement des éléments chimiques des corps massifs et les météorites différenciées 2 - le fractionnement isotopique des espèces chimiques a- Le fractionnement d’équilibre chimique b- Le fractionnement d’équilibre physique c- Le fractionnement cinétique de transport d- Le fractionnement cinétique de réaction D - Les chondrites, météorites non différenciées 1 - Les chondrites sont des objets apparus très tôt dans l'effondrement gravitaire de la nébuleuse. 2 - Les chondrite, objets primitifs, produit de la condensation de la nébuleuse 3 - Vers une contribution de plusieurs étoiles à la chimie de notre Soleil ? E - Les comètes, second type d’objets primitifs, encore plus froids 1 - Des petites boules de neige sale 2 - La chevelure des comètes Sites WEB consultés quelques idées fortes CHAPITRE 3 A - Gravimétrie et Géodésie 1 - Cavendish a mesuré la constante G, en 1798 à Paris. 2 - La mesure de la pesanteur 3 - Isostasie : comportement hydrostatique de la lithosphère 4 - Géodésie satellitaire B - La séismicité 1 - Les ondes émises par un ébranlement a - ondes de volumes b - ondes de surface 2 - Distribution des séismes - 176 - 1 2 3 10 11 11 12 14 14 15 17 18 20 20 21 22 22 22 24 24 25 25 25 25 26 26 26 27 27 27 27 28 28 28 30 32 32 33 33 33 34 34 36 38 40 40 41 42 42 43 43 43 44 45 46 47 47 48 48 49 ENSM-SE, 2° A : axe transverse P N 16/10/12 3 - La propagation des ondes 50 a - Rebroussement des ondes de volume 50 b - La fonction temps –distance des ondes de volume 51 c – Le chant de la Terre : oscillations propres 52 d – Magnitude et Intensité d’un séisme 52 4 - Hétérogénéités terrestres : le modèle PREM 53 aLa Croûte Terrestre. 55 b - manteau supérieur 55 c - manteau inférieur 56 dLe Noyau 57 C - Le magnétisme 58 1 - le champ magnétique terrestre, 58 2 - Le champ déformé de la magnétosphère 59 3 - Le champ terrestre est actif 59 4 - Un champ magnétique auto-entretenu 60 Sites WEB consultés 63 quelques idées fortes 64 CHAPITRE 4 65 A - Le Noyau Terrestre 65 1 - Le noyau liquide 65 2 - La graine solide 66 3 - Les inversions du champ terrestre 68 B - Le couplage Noyau-Manteau-Atmosphère et la couche D" 68 1 - Nature de la couche D" 69 2 - Couche D", accumulateur de chaleur 69 C - Le Manteau Terrestre 71 1 - Minéralogie du manteau 71 Minéral 71 2 - Fusion partielle du manteau 72 a - Le manteau en quelques paramètres intensifs 72 b - Le manteau : 2 paramètres externes, P & T, et La fusion partielle du Manteau 72 3 - La tomographie sismique du manteau supérieur 74 a - Zones d’accrétion 74 b - Zones de subduction 74 4 - La tomographie sismique du manteau inférieur 75 5 - Vers une convection à 1 ou 2 couches ? 76 D - La valse à trois temps, l’Adéen, l’Archéen, et les Temps Modernes 78 1 - L’Adéen, une naissance tourmentée 78 a - Scénario d’une accrétion à froid en moins de 10 Ma ? 78 b - Un vernis météoritique et cométaire tardif pour la Terre 79 c - Mise en place du système solaire 79 d - Terre-Lune, le couple infernal 80 2 – L’Archéen, une convection mantellique rapide et des komatiites, chaleur oblige… 81 3 - Le début des temps modernes vers 2 Ga. 82 E - La croûte terrestre et la lithosphère, interaction entre manteau et atmosphère 82 1 - Croûte et lithosphère continentale, une mémoire longue, mais effaçable 82 a - Des blocs ceinturés 84 b - Une hétérogénéité verticale et horizontale 84 2 – Croûte et lithosphère océanique Une mémoire courte de 200 Ma. 85 a - La lithosphère océanique est issue de la fusion du manteau dans les zones d'accrétion 85 b - La lithosphère plongeante provoque la fusion du manteau dans les zones de subduction et fabrique de la croûte continentale 88 3 - Le fractionnement magmatique 88 a - Le processus de fractionnement (cf. TP Axe GP) 88 b - Depuis quand le fractionnement de la croûte continentale à partir du manteau supérieur fonctionne-t-il? 89 Sites WEB consultés 92 quelques idées fortes 93 CHAPITRE 5 95 A - Composition de L’atmosphère Terrestre actuelle 95 B - Structure thermique et chimique verticale de l'atmosphère 96 1 - La Troposphère 97 a - Troposphère et phénomènes climatiques 97 b - Troposphère, siège de l’effet de serre 97 c – Réchauffement climatique ou « global warming ». 101 1) Le Dioxyde de Carbone 105 - 177 - ENSM-SE, 2° A : axe transverse P N 16/10/12 2) Le Méthane 3) Le Protoxyde d’Azote et le Dioxyde de Soufre 4) Impact des GES sur la T° globale 5) Le rôle des radiations solaires. 2 - La stratosphère et la protection contre les UV solaires a - Cycle de Chapman b - Quatre types de réactions rendent l'ozone formé instable: c – Impact des SAO 3 - La mésosphère 4 - La thermosphère C - Stratification électromagnétique de l'atmosphère : 1 - La neutrosphère et l’ionosphère 2 - La magnétosphère D - Circulation de l'atmosphère 1 - Force de Coriolis 2 - Cellule de Hadley, ITCZ et cyclones 3 - Cellule de Ferrel, vents géostrophiques et Cellule polaire E - Circulation océanique 1 - Coriolis : Transport d’Ekman et courants Géostrophiques 2 - la circulation thermohaline a - Température et thermocline. b - Salinité et halocline 3 - Rôle de la topographie et de la latitude. a - Gyres océaniques b – Westerlies ou Quarantièmes et les cinquantièmes c - « Upwellings » 4 - Les couplages océan-atmosphère. a- El Niño / Southern Oscillation system (ENSO) Couplage Océan-atmosphère, b - PDO / Pacific Decadal Oscillation, Couplage Océan-Atmosphère c - NAO / North Atlantic Oscillation ou AO/ Arctic Oscillation, un même couplage Océan-Atmosphère d - AMO Atlantic Multidecadal Oscillation 5 - Le modèle du Tapis Roulant 6 – Eustatisme = Variations du niveau marin F - Histoire de l'atmosphère 1 - L'atmosphère primaire de la Terre : héritage des gaz piégés lors de l’accrétion 2 - L'atmosphère secondaire de la Terre : fille des volcans a - le dégazage du manteau terrestre a-t-il été précoce ou tardif? b - Le dégazage du manteau terrestre a-t-il été Instantané ou lent? Unique ou multiple? Total ou partiel? 3 - L'atmosphère tertiaire de la Terre : le sceau de la vie ? a – La précipitation de l’océan sur Terre b – La précipitation de l’océan sur Mars ? c - L’apparition de la vie et l’apparition des conditions oxydantes d - L’explosion de la diversité, un scénario très mal documenté 4 –L’ultime évolution de l’atmosphère-biosphère, Le sceau de l’homme a - Le décryptage des archives glaciaires b - Les changements cycliques du climat c - Les oscillations rapides du climat Sites WEB consultés quelques idées fortes Epilogue Ouvrages consultés et illustrations Mesures CO2 Mona Loa (Annexe 1) Ouvrages consultés PLAN du POLY - 178 - 109 110 110 120 121 121 122 123 124 125 125 125 125 126 127 127 129 129 129 130 130 131 133 133 134 134 135 135 137 138 140 140 144 146 146 147 148 149 150 150 151 153 156 161 161 162 164 167 168 169 171 171 171 176 ENSM-SE, 2° A : axe transverse P N - 179 - 16/10/12 ENSM-SE, 2° A : axe transverse P N - 180 - 16/10/12