Changement climatique - pierre

publicité
Changement climatique
Yves Maria-Sube, ECN 1965, IEMN-IAE (Master Administration des Entreprises) 1966,
Doctorat Géosciences Université Montpellier, 2008, est consultant en services informatiques
et pétroliers. Il a été successivement chef de section d’essais structurels au sol du Concorde au
Centre d’Essais Aéronautiques de Toulouse (CEAT), cadre technique et commercial
international (Europe, Afrique, Asie, Amérique du Nord) dans les services pétroliers de
Schlumberger, directeur de division dans les services informatiques de Network Management
Inc. (USA), et directeur de projets informatiques chez Cap Gemini en France.
Le GIEC (Groupe [d’experts] Intergouvernemental sur l’Evolution du Climat) ou, en Anglais,
IPCC (Intergovernmental Panel on Climate Change) a été fondé en 1988 par l’ONU. Plusieurs
milliers de scientifiques ont participé aux études. Depuis, des rapports publiés en 1990, 1995,
2001, 2007, ont conclu avec une certitude croissante que l’émission de gaz à effet de serre
(GES) d’origine anthropique, qui a fortement augmenté depuis le début de l’ère industrielle,
avait un effet néfaste sur l’évolution du climat mondial. Fort de cette affirmation, le Président
Jacques Chirac déclara : « Notre maison brûle et nous regardons ailleurs! », en ouverture du
discours qu'il fit devant l'assemblée plénière du IVe Sommet de la Terre le 2 septembre 2002 à
Johannesburg, en Afrique du Sud. Le Prix Nobel de la Paix a été attribué au GIEC en 2007,
conjointement avec l’ancien Vice-Président des Etats-Unis Al Gore. On peut se demander en
quoi la question du changement climatique a pu contribuer à la paix dans le monde, et de plus
Al Gore a additionné tant d’insultes à la rigueur scientifique que lui attribuer un prix Nobel,
fut-il celui de la paix, pose problème. Cependant, si les médias et les politiques en général
semblent être convaincus par les rapports du GIEC, de nombreux scientifiques se sont élevés
contre ses conclusions, et considèrent que la méthodologie de publication de rapports du
GIEC (ainsi que le financement des travaux de recherche en général) sont conçus pour faire
taire les doutes émis par certains scientifiques ayant participé aux travaux du GIEC. En
France, un des « climato-sceptiques » les plus connus est Vincent Courtillot, directeur de
l’Institut de Physique du Globe (IPG) jusqu’en 2011, (dans Courtillot, 2009) ; il a été soutenu
par Claude Allègre (Allègre, 2007), ancien directeur de l’IPG, puis du Bureau de Recherches
Géologiques et Minières (BRGM). L’un et l’autre sont membres de l’Académie des Sciences.
Bien entendu, la controverse fait toujours rage entre les climato-sceptiques et
« réchauffistes », et il n’est pas question ici de se lancer dans la querelle qui fleurit
habituellement dans la « blogosphère ». Je voudrais simplement présenter, en deux parties, les
idées de méthodologie scientifique suivantes :
1. La Terre est un très gros objet, difficile à étudier,
2. Les différentes théories.
1 La Terre est difficile à étudier
La climatologie fait partie des sciences de la Terre, puisqu’elle traite principalement de
l’atmosphère et des océans, et qu’il est question ici de climat mondial, donc celui de la Terre.
De plus, au cours des temps géologiques, la Terre a subi de nombreux changements
climatiques.
Pour mieux comprendre le présent et en tirer des conclusions sur le futur, il est souvent utile
d’étudier le passé. La Terre est un très gros objet à l’échelle humaine, et donc difficile à
étudier. En effet :
1. Il a fallu très longtemps pour que les Sciences de la Terre prennent leur essor,
2. De nombreuses théories géologiques modernes ont mis longtemps avant d’être
acceptées par la communauté scientifique.
14/10/2013
1
1.1 Brève histoire des sciences de la Terre
Alors que les anciens Grecs ont été en leur temps à la pointe de la philosophie, de la
médecine, des mathématiques et de la physique, sur la géologie, ils n’ont fait aucun
avancement ou presque. Même le mot de géologie (qui dérive pourtant de deux mots grecs
signifiant science de la Terre) n’existait pas encore. La genèse du Cosmos ainsi que les
principaux évènements géologiques sont attribués par la mythologie grecque aux différents
dieux. L’Ancien Testament de la Bible, à part de diminuer le nombre de dieux, n’améliore pas
grand chose sur le plan scientifique, et servira de base aux religieux des trois grandes religions
monothéistes pour lutter contre les scientifiques.
Vers –400, Parménide de Eléa, philosophe grec de l’école pré-socratique a été le premier,
d’après Diogène Laertius, à affirmer que la Terre est ronde; il divisait tout en deux éléments:
la terre et le feu.
Aristote (-382 –324), philosophe et scientifique (physique, biologie, cosmologie) grec,
reconnaît cinq éléments: la terre, le feu, l’air, l’eau, et l’« éther ».Il faut ensuite attendre
environ 2000 ans que le célèbre peintre et ingénieur Léonard de Vinci (1452-1515),
reconnaisse que les fossiles sont les restes d’organismes autrefois vivants enfouis dans le sol
par un événement naturel; il montre l’arrangement en couches des roches; il observe que les
phénomènes présents expliquent les anciens; il reconnaît que le courant de rivière est la cause
d’un transport et en relie l’énergie à la distance de la source. Contrairement aux Grecs,
Léonard fait des observations sur site (en montagne, dans la mer) ; c’est le premier
naturaliste. Mais, comme le grand Léonard avait l’habitude de crypter ses manuscrits en
écriture inversée, ses idées ne furent pas connues avant le 18e siècle.
Georg Bauer Agricola (1494-1595), minéralogiste allemand, étudie et classifie les minéraux;
emploie le mot de fossile pour la première fois,
William Gilbert (1544-1603), médecin et philosophe de la nature anglais, publia en 1600 :
« De Magnete, Magneticisque Corporibus, et de Magno Magnete Tellure (Sur les aimants et
les corps magnétiques, et Sur le Grand Aimant La Terre) ». Dans son ouvrage, il décrit un
grand nombre de ses expériences avec son modèle de la Terre appelé Terrelle. Il conclut que
la Terre est magnétique, et que pour cette raison, les boussoles pointent vers le Nord. Avant
cela, beaucoup croyaient que c’était l’Etoile Polaire, ou une grande île magnétique du pôle
Nord, qui attirait les boussoles). Il a été le premier à argumenter, avec raison, que le centre de
la Terre est composé de fer, et il pensait que c’était une importante et dérivée propriété des
aimants qu’ils peuvent être coupés en deux et former deux aimants séparés avec un pôle nord
et sud chacun.
René Descartes (1596-1650), mathématicien, physicien et philosophe français, reconnaît que
les étoiles et la Terre sont faites de la même matière; la Terre serait selon lui un fragment
d’étoile détaché, qui aurait refroidi après avoir acquis une structure en couches.
Nicolas Stenon (1638-1687), anatomiste danois (dont le nom danois est : Niels Stensen),
redécouvre les fossiles et le dépôt en couches des roches, mais il les attribue au Déluge
biblique. Il voit que les couches de sédiments s’étendent sur une large surface et que les
roches les plus récentes devaient avoir été déposées sur les plus anciennes : c’est la Loi de
Superposition, base de la stratigraphie, et avec comme conséquence l’échelle de temps
géologique (qui sera plus tard développée à partir des observations de Darwin). C’est aussi la
première fois qu’une « loi » de géologie (qui a malgré tout ses exceptions, comme lors de
plissements en forme de chevauchement) est développée à partir de l’observation et du bon
sens, et non pas en fonction de croyances mythologiques ou religieuses. En ce sens, on a pu
dire que Nicolas Stenon a été le premier géologue.
Gottfried Wilhem Liebniz (1646-1716), philosophe et mathématicien allemand, qui écrivait
principalement en latin et en français, poursuit les idées de Descartes: la Terre primitive serait
14/10/2013
2
d’abord entrée en fusion, une cristallisation a ensuite produit une solution aqueuse, qui en se
refroidissant a produit les océans (voir plus loin la question de l’âge de la Terre).
William Smith (1769-1839), ingénieur britannique employé dans la construction de canaux,
collectionne les fossiles et note que chaque forme est restreinte à certaines couches; il trouve
que les couches sont toujours dans le même ordre et contiennent la même séquence de fossiles
où qu’elles se trouvent; il publie en 1815 une remarquable carte géologique de l’Angleterre et
du Pays de Galles; il prouve que les roches peuvent être corrélées et qu’il existe des
séquences temporelles, un avancement pour la technique de stratigraphie très employée en
géologie.
James Hutton (1726-1797), médecin écossais, publie “Theory of the Earth”, 1788, où il
développe l’idée que la formation des strates de roches est de nature cyclique et donc la
Terre doit avoir une très longue histoire: les roches magmatiques sont éjectées en surface,
elles sont lentement altérées, érodées et transportées pour être déposées et former des couches
sédimentaires ; les roches sédimentaires, sont enfouies lentement sous le poids de nouvelles
couches sédimentaires jusqu’à ce que la pression et la température les transforment en roches
métamorphiques ; certaines roches métamorphiques peuvent fondre et devenir magmatiques à
leur tour, et alors le cycle peut recommencer. Ceci est une autre idée très puissante et
constitue ce qui peut être appelé la naissance des Sciences de la Terre. Pour cette raison,
James Hutton a été appelé le « Père de la géologie ».Il a donc fallu attendre la fin du 18e
Siècle pour que la géologie devienne enfin une véritable science. Elle est alors fondée sur
l’observation accompagnée d’une logique simple, et les géologues sont appelés des
naturalistes. Bien des progrès auront encore à voir le jour, et les mathématico-physiciens ne
vont pas tarder à avoir leur mot à dire (bien que pas forcément toujours à bon escient). C’est
ce que nous allons maintenant voir sur quelques exemples.
1.2 Histoire de quelques théories géologiques
Les 19e et 20e siècles vont voir les religieux, géologues et physiciens s’affronter avec
beaucoup d’énergie sur de nombreuses théories géologiques (Hallam, 1983). Certaines de ces
théories, qui notamment prenaient appui sur la Bible, sont complètement oubliées
aujourd’hui. D’autres ont bien résisté à l’épreuve du temps, mais il a néanmoins fallu de
nombreuses années avant qu’elles ne soient acceptées. Je vais décrire ici brièvement trois
d’entre elles, parmi les plus importantes, parce qu’étant à la source de nombreuses
découvertes géologiques :
1
L’évolution,
2
L’âge de la Terre,
3
La tectonique des plaques.
1.2.1 L’évolution
La théorie de l’évolution a subit un long cheminement parmi la communauté scientifique de
l’époque, et je vais essayer de le décrire et résumer suivant les étapes suivantes :
1. La subordination des caractères,
2. La notion de transformisme,
3. Le concept d’homologie,
4. La « mort des espèces »,
5. Le concept de descendance avec modification,
6. La sélection naturelle.
14/10/2013
3
1.2.1.1
La subordination des caractères
e
Les 18 et 19e siècles ont vu s’affronter les idées des naturalistes sur la Classification
Naturelle. Ces idées ont finalement abouti avec Darwin aux théories de l’Evolution et de la
Sélection Naturelle.
Les progrès vont être très importants quand, avant la Révolution, Bernard de Jussieu (16991777) et son neveu Antoine-Laurent (1748-1836) vont définir la notion-clé de subordination
des caractères. Ils se rendent compte que, pour déterminer un taxon (en taxinomie, un taxon
est une entité conceptuelle qui est censée regrouper tous les organismes vivants possédant en
commun certains caractères taxinomiques ou diagnostiques bien définis) donné, une classe
par exemple, l’idéal est d’avoir un (ou plusieurs) caractère(s) constant(s) à l’intérieur de cette
classe et variable(s) dans toutes les autres. Un type de caractère est donc utile à un niveau
précis de la classification, certains au niveau de l’ordre, d’autres au niveau du genre... Les
caractères sont donc « subordonnés ». On peut alors faire un tri parmi les caractères issus de
descriptions détaillées, et faire surgir ceux qui sont pertinents d’un point de vue taxinomique,
en les hiérarchisant. On pensait avoir trouvé la « Méthode Naturelle » menant à la
Classification Naturelle. Si les Jussieu l’appliquent en botanique, dès la fin du 18e siècle,
Jean-Baptiste Lamarck (1744-1829) et Georges Cuvier (1769-1832) l’appliquent au monde
animal, le premier essentiellement chez les mollusques et les animaux vermiformes, le second
chez les vertébrés et pour l’ensemble des animaux.
1.2.1.2 La notion de transformisme
C’est à ce moment qu’émerge, de façon structurée, la notion de transformisme, c’est-à-dire
l’idée que les organismes vivants peuvent se « transformer », suivant le temps. Mais, pour que
ce concept puisse être développé de façon pertinente, il faudra démontrer l’inanité de
certaines croyances. Citons en deux. L’adhésion à l’existence de la génération spontanée
empêchait évidemment la structuration d’un quelconque concept évolutif, car on pouvait alors
imaginer des apparitions d’animaux de la même espèce à différents moments de l’histoire, par
différents événements de génération spontanée. Dès 1765, Lazzaro Spallanzani (1729 – 1799)
conteste ce dogme. Mais il faudra en fait attendre la controverse Pasteur–Pouchet pour qu’il
soit définitivement enterré. On peut tenir le même raisonnement avec l’idée de
métamorphose. En effet, au XVIIe siècle existait encore l’idée de la transformation d’un
organisme adulte en un autre organisme adulte. Par exemple, les anatifes (crustacés
cirripèdes) pouvaient se transformer en canards; ou encore, en Afrique, existaient des arbres
dont les feuilles se transformaient en poissons quand tombant dans l’eau d’une rivière ou en
chauve-souris quand entraînées par le vent. Tout cela, évidemment, dut être réfuté pas à pas.
Enfin, il y a le problème du temps; Georges Louis Leclerc Buffon (1707 – 1788), naturaliste
français, bat en brèche les 6000 ans proposés par certains théologiens comme âge de la Terre
(voir ci-dessous). Même si le raisonnement et le calcul appliqués par Buffon étaient
simplistes, on abandonne les temps brefs qui n’autorisaient pas d’évolution.
1.2.1.3 Le concept d’homologie
L’application au monde animal des idées des Jussieu eut des résultats extrêmement positifs;
ainsi, on constata qu’au niveau des embranchements, le caractère pertinent était le plan
d’organisation. Les quatre embranchements définis par Cuvier_ les vertébrés, les articulés, les
mollusques et les radiaires_ se trouvent caractérisés par des plans si différents qu’ils en
paraissent irréconciliables, confirmant Cuvier dans son fixisme. Étienne Geoffroy SaintHilaire (1772-1844) va être amené à définir l’homologie_ bien qu’à l’époque ce n’était pas ce
terme qui fut utilisé, notion essentielle qui permet de comparer des organismes ayant même
plan d’organisation. Sont homologues deux organes qui ont même situation dans un plan
d’organisation, ce qui sera interprété plus tard comme témoignant d’une même origine
embryologique. Ce concept va briser la notion de similitude globale. En effet, deux organes
14/10/2013
4
peuvent être homologues et n’avoir ni même taille, ni même forme, ni même fonction. Les
pattes antérieures des mammifères en sont un bon exemple: la patte du cheval, l’aile de la
chauve-souris, l’aileron de la baleine sont homologues. Un tel critère va être employé avec
succès en zoologie, puis va revenir en botanique, principalement par le botaniste suisse
Augustin-Pyrame de Candolle (1778-1841).
1.2.1.4 La « mort des espèces »
Parallèlement, Cuvier, par ses travaux de paléontologie, montrait que les espèces pouvaient
disparaître, introduisant le concept crucial de « mort des espèces ». On ne pourra alors sauver
le fixisme que par le biais de créations multiples. Etienne Geoffroy Saint-Hilaire, entreprenant
des travaux d’embryologie, constatait avec Étienne Serres (1786-1868) qu’au cours de leur
développement, les embryons des organismes « supérieurs » passaient transitoirement par des
formes identiques à celles revêtues de manière permanente par des organismes « inférieurs ».
Parallèlement, Karl von Baer (1792-1876) clamait que la comparaison devait se faire entre
embryons différents et non entre l’embryon d’un animal et le stade adulte d’un autre. Il
montrait qu’au cours de l’embryogenèse les caractères généraux, par exemple ceux
caractéristiques de l’embranchement ou de la classe, apparaissent avant les caractères
particuliers des taxons de bas rang, comme le genre ou l’espèce.
Pendant ce temps, Lamarck avait proposé la première hypothèse transformiste raisonnée, ceci
dans sa leçon introductive de son cours au Muséum en 1801, puis publiée en 1809 dans sa
Philosophie zoologique. Il admettait que les espèces se modifiaient progressivement au cours
du temps, à partir d’un état primitif très simple apparaissant par génération spontanée. Les
organismes étaient alors engagés dans un processus d’accroissement de la complexité. Son
interprétation n’eut pas beaucoup de succès.1.2.1.5 Le concept de descendance avec modification
En introduisant le concept de descendance avec modification, Charles Darwin (1809-1882)
va donner une toute autre vision de la Classification Naturelle.
Darwin est un naturaliste anglais ayant fait des études de médecine, taxidermie, histoire
naturelle, théologie, et géologie. Durant ses études d’histoire naturelle, il est l’élève de Robert
Edmond Grant, partisan de la théorie de l’évolution du français Lamarck. Il part pour un
voyage d’étude de cinq ans (1831-1836) autour de l’Amérique du Sud et de l’Australie sur le
navire Beagle. Mais ce n’est qu’après avoir continué de nombreuses recherches et après avoir
appris que le naturaliste britannique Alfred Russel Wallace (1823-1913) préparait de son côté
une théorie sur la sélection qu’il se décida à présenter conjointement avec lui leurs travaux à
la Linnean Society de Londres en 1858. Puis en 1859, il publie l’ouvrage révolutionnaire :
« L’origine des espèces par la sélection naturelle » où il établit l’évolution des espèces et donc
la relation entre fossile et temps.
Pour Darwin, les caractères utiles en taxinomie_ les caractères homologues, sont ceux qui
sont hérités d’un ancêtre commun; ainsi, il affirme que toute classification doit être
généalogique, et que la communauté de descendance est le lien caché que les naturalistes ont
longuement cherché. Classer les animaux et faire de la phylogénie deviennent alors une seule
et même chose; il ne peut y avoir qu’une seule classification naturelle, puisqu’il n’y a eu
qu’une seule histoire de la vie sur Terre. La structuration de la biodiversité actuelle n’est que
le résultat d’une longue histoire. Définir les liens de parenté entre espèces peut permettre de
mieux comprendre les mécanismes qui sous-tendent cette évolution.
Les relations entre embryologie et systématique s’éclairent alors différemment. Les intuitions
de Geoffroy Saint-Hilaire et de Serres d’une part, de von Baer d’autre part s’interprètent dans
un cadre historique. C’est ce qu’Ernst Haeckel (1834-1919) a proposé par sa « loi
biogénétique fondamentale »: « La série des formes par lesquelles passe l’organisme
individuel à partir de la cellule primordiale jusqu’à son plein développement n’est qu’une
14/10/2013
5
répétition en miniature de la longue série des transformations subies par les ancêtres du
même organisme, depuis les temps les plus reculés jusqu’à nos jours ».1.2.1.6 La sélection naturelle
Revenons à l’idée de descendance avec modification. En fait, Darwin l’eut lorsqu’il osa la
comparaison entre certaines des observations qu’il fit dans la nature_ en particulier pendant
son voyage sur le Beagle, et les résultats obtenus par les sélectionneurs
anglais_ principalement de chevaux, de chiens et de pigeons. Il se rendit compte que ceux-ci,
utilisant la variabilité des organismes au sein de l’espèce, choisissaient certains caractères
héréditaires remarquables, en réalisaient par des croisements judicieux des combinaisons
particulières, puis sélectionnaient les animaux porteurs de ces combinaisons en éliminant les
autres. De cette manière, à l’intérieur d’une même espèce, des races étaient créées. La
diversité des chiens est là pour en témoigner. Darwin fit l’analogie entre les différences entre
races entretenues par le sélectionneur à l’intérieur d’une espèce et les différences qui existent
dans la nature entre espèces proches. Il conclut que celles-ci ne pouvaient exister dans la
nature que s’il y avait l’équivalent d’une sélection en œuvre. Pour lui, cette sélection est le
résultat des conditions du milieu qui, dans leur ensemble, agissent à chaque instant en
introduisant une inégalité entre les organismes qui, suivant leurs caractéristiques, seront plus
ou moins favorisés. La résultante de toutes ces conditions environnementales_ climat,
prédateurs, parasites_ a été appelée « sélection naturelle », pour insister sur l’analogie entre le
rôle du sélectionneur et le rôle de la nature. Mais l’analogie s’arrête très vite: si le
sélectionneur agit suivant un plan défini en vue d’un but précis, la sélection naturelle ne joue
que dans l’instant.
L’idée clé de Darwin a un corollaire: la variation des caractères est indépendante de la
sélection et donc la précède, étant donné qu’on ne peut sélectionner que des caractères qui
existent déjà. Le rôle du sélectionneur est de réaliser des combinaisons de caractères qui,
naturellement, ont une faible probabilité d’apparaître, puis d’augmenter leurs occurrences en
éliminant les autres organismes: ce qui était globalement rare devient alors localement
fréquent. De même, la sélection naturelle va favoriser les organismes portant telle
combinaison de caractères, et par là-même deux populations d’une même espèce soumises à
deux environnements différents subiront des sélections naturelles différentes. Ils pourront
donc présenter, après de nombreuses générations, des différences notables résultat d’un tri
réalisé à partir des caractères existant déjà dans l’espèce. La sélection naturelle n’a donc pas
créé de nouveauté; elle n’a fait que trier parmi l’existant.
Une telle vision soulève certaines questions fondamentales. Elles sont en fait de deux ordres.
On peut tout d’abord se demander comment ces caractères héréditaires passent de génération
en génération, et comment en apparaissent des variations. D’autre part, on peut se demander
comment ces caractères héréditaires, qui sont transmis de génération en génération de manière
invisible uniquement par les cellules sexuelles, se mettent en place lors de la construction de
l’organisme, au cours de son développement. Ce seront les buts respectivement de la
génétique et de l’embryologie.On l’a vu, la théorie de Darwin était l’aboutissement de deux
siècles de discussions intenses entre les naturalistes. 150 ans après la publication de l’œuvre
de Charles Darwin (accueillie par des sarcasmes : « M. Darwin, est-ce par votre grand’mère
ou votre grand-père que vous descendez d’un singe ? »), si l’évolutionnisme est largement
accepté par le monde scientifique, plus de 80 % des Islandais adhèrent encore au
Créationnisme suivant un sondage récent. Son œuvre, établie grâce à des méthodes
d’observation multidisciplinaires, a permis des avancées géologiques sans précédent en
paléontologie, stratigraphie, étude des environnements de dépôt et leur rapport avec la
nature du paléo-environnement et la datation des couches sédimentaires, extinctions de masse
des espèces, et accessoirement formation des îles coralliennes.
14/10/2013
6
1.2.2 L’âge de la Terre
L’archevêque irlandais James Ussher (1581-1656) est célèbre pour avoir calculé en 1650 dans
son ouvrage « Annales Veteris Testamenti, a prima mundi origine deducti, una cum rerum
Asiaticarum et Aegyptiacarum chronico, a temporis historici principio usque ad
Maccabaicorum initia producto » une chronologie de la date de la création du monde basée
sur une interprétation littérale du Livre de la Genèse de la Bible. Il estimait qu’elle avait dû
avoir lieu le dimanche 23 octobre 4004 av. J.C., à la tombée de la nuit. Si cette date établie
avec une telle précision peut faire sourire aujourd’hui, de son temps les érudits étaient
unanimes à rechercher l’origine du monde dans la Bible. Des personnages aussi importants
que Jose ben Halafta, Bede, Scaliger, Johannes Kepler et même Sir Isaac Newton, étaient tous
parvenus à une date similaire, à quelques années près.
Buffon poursuit les idées de Descartes et de Gottfried Wilhem Liebniz et calcule l’âge de la
Terre à 75000 ans en supposant qu’elle a débuté comme une boule en fusion, et en estimant le
temps de refroidissement par comparaison et extrapolation avec le temps de refroidissement
de boules métalliques de différents diamètres dans sa forge. Il est donc le premier à utiliser un
principe physique expérimental et analogique de thermodynamique pour calculer l’âge de la
Terre.
Vers 1850, le physicien Ecossais Lord Kelvin (dont le nom a servi pour l’unité du degré
absolu), sommité de la thermodynamique britannique, partant de la même hypothèse mais en
utilisant une technique physique plus élaborée que Buffon, calcule l’âge de la Terre à environ
60 millions d’années ; il était très sûr de son chiffre mais il s’est donné une échappatoire en
précisant : « à moins que l’on puisse trouver une source de chaleur aujourd’hui inconnue ». Il
est à noter qu’à la même époque, les géologues, en poursuivant les travaux de James Hutton,
évaluent l’âge de la Terre à plusieurs centaines de millions d’années en se basant sur le temps
de dépôt qu’il faudrait pour atteindre l’épaisseur constatée des sédiments.
En 1896, le physicien français Henri Becquerel découvre la radioactivité, qui procure un
principe physique pour le réchauffement de l’intérieur de la Terre. Lord Kelvin a survécu à
cette découverte, mais a nié jusqu’à son décès qu’il ait pu se tromper dans son calcul.
En 1900, le physicien britannique Ernest Rutherford découvre le processus de désintégration
radioactive qui procure une méthode physique pour mesurer l’âge des roches par un moyen
direct, plutôt que relatif. L’âge de la Terre est évalué à 4,54 milliards d’années.
Conclusions : 1) Ce n’est que 300 ans après l’idée de Descartes que les scientifiques ont pu
trouver une réponse correcte à l’âge de la Terre. 2) Les physico-mathématiciens (surtout
lorsqu’ils partent d’hypothèses fausses) n’ont pas toujours raison devant les naturalistes.
1.2.3 La tectonique des plaques
En 1586, le cartographe hollandais Abraham Ortelius mentionna la possibilité de dérive et
mouvement des continents.
En 1620, le philosophe anglais Francis Bacon nota dans « Novem Organum » les formes
similaires de l’Amérique du Sud et de l’Afrique.
Vers 1800, le naturaliste et explorateur allemand Alexander Von Humboldt spécula que les
terres bordant l’Océan Atlantique aient pu avoir été jointes.
En 1885, le géologue autrichien Edward Suess mentionna dans « La face de la Terre » les
similarités de fossiles et de glaciations en Inde, Australie, Amérique du Sud et Afrique. Il
pensa que ces terres étaient une fois jointes en un seul supercontinent qu’il appela Gondwana,
et il proposa aussi le nom d’Océan Téthys pour caractériser l’océan primitif qui se forma à la
séparation entre l’Amérique et l’Afrique.
En 1908, le géologue américain Frank Burles Taylor présenta la théorie que les continents
faisaient autrefois partie d’une large masse de terre et qu’ils aient pu dériver lentement loin les
uns des autres pour atteindre leur présent arrangement.
14/10/2013
7
En 1915, dans « Die enstehung der kontinente und ozeane » (La dérive des Continents), le
météorologue, astronome et géophysicien allemand Alfred Wegener (1880-1930) suggéra que
tous les continents formaient à un moment une unique et grande masse de terre appelée
Pangée et un unique océan appelé Panthalassa. Les différents continents que nous voyons
aujourd’hui commencèrent à se briser en s’éloignant de la Pangée il y a environ 200 à 250
millions d’années et ils ont dérivé à la surface de la Terre depuis. Pour démontrer ses idées, il
utilisa, en plus de l’argument de la similarité de profil géographique de la côte est de
l’Amérique du Sud avec celui de la côte ouest de l’Afrique, des arguments de différente
nature :
o Géologique : l’âge et la nature similaires des terres situées de part et d’autre de
l’Atlantique. Le géologue sud-africain Alexander du Toit proposa deux continents
originaux, Laurasia (Nord) et Gondwana (Sud), séparés par l’Océan Théthys OuestEst,
o Paléontologique : similarité des fossiles d’un continent à l’autre avant 200 m.a. et
divergence après,
o Climatique : climat chaud ancien dans le présent Nord, glaciations anciennes dans le
présent Equateur.
Mais en 1924, l’astronome et géophysicien britannique Sir Harold Jeffreys démontra dans
« La Terre : son origine, histoire et constitution physique » que les forces proposées par
Wegener (les marées lunaires) étaient inadéquates, en raison de la forte viscosité du plancher
océanique. Il tua ainsi la théorie de Wegener, qui fut abandonnée après 1930.
Le problème était que les caractéristiques physiques du plancher océanique étaient très mal
connues à cette époque, et on pensait qu’elles étaient similaires à celles de la croûte terrestre.
Pendant la 2e guerre mondiale, l’utilisation intensive de sous-marins équipés de sonars a
permis de tracer des cartes sous-marines et de se rendre compte que le plancher océanique
n’est pas plat.
En 1962, le géologue américain Harry Hess démontre par des mesures géomagnétiques
l’existence d’écartement du plancher océanique ; les dorsales océaniques montrent des
courants ascendants chauds, et les fossés montrent des courants descendants de convection.
Ce sont ces courants de convection provenant de la chaleur interne de la Terre qui procurent
les forces nécessaires à mouvoir lentement les continents. Le premier modèle de Tectonique
des plaques est proposé en 1968 par le Français Xavier Le Pichon (qui obtiendra la chaire de
Géophysique du Collège de France), basé sur le principe mis au point par Dan Peter
McKenzie et Robert L. Parker en 1967. La Tectonique des Plaques est née, elle prend la suite
de la théorie de la Dérive des Continents, qui souffrait de ne pas proposer des forces de
transport suffisantes.
Ainsi, plus de 300 ans après la première esquisse émise par Abraham Ortelius, pendant 50
ans les naturalistes et les physiciens ont opposé leurs arguments, mais finalement les
physiciens sont arrivés à prouver indiscutablement la théorie de la Tectonique des Plaques,
alors que celle de la Dérive des Continents avait été démolie, à tort, par un physicien.
C’est une révolution en géologie, qui permet enfin (et seulement depuis 1968) d’expliquer
rationnellement tous les événements tectoniques terrestres (la formation des montagnes, les
volcans, les tremblements de terre, les raz-de-marée, les plissements, les failles, etc…). Par
exemple, la Bible (Gén. 13, 14, 18, 19) attribuait la destruction des villes de Sodome et
Gomorrhe par le soufre et le feu à la colère de Yahvé devant les graves fautes morales de ses
habitants. Aujourd’hui, on pense que ces villes ont été détruites à la suite d’un séisme dans la
région de la Mer Morte ayant fait jaillir du sous-sol des matières inflammables. Déjà Voltaire,
dans son Poème sur le désastre de Lisbonne, 1756, exprimera avec talent ses doutes sur une
interprétation par la colère de Dieu au sujet du tremblement de terre et tsunami de Lisbonne,
1755 : « Direz-vous, en voyant cet amas de victimes: /« Dieu s'est vengé, leur mort est le prix
14/10/2013
8
de leurs crimes »?/ Quel crime, quelle faute ont commis ces enfants/ Sur le sein maternel
écrasés et sanglants? ». La théorie traditionnelle attribuait les montagnes et les creux des
océans aux plissements de la surface de la Terre dus à son refroidissement, à la manière d’une
pomme ridée. On peut s’étonner que les géologues n’aient pas alors pesé la faiblesse de cet
argument par rapport à la puissance de la théorie de Tectonique des Plaques.
La Tectonique des Plaques a complété ce que n’avait pas fait Wegener avec la Dérive des
Continents, en décrivant ce qui avait eu lieu avant la formation de la Pangée, et en formulant
un cycle des supercontinents de périodicité 500 m.a. (Nance et al., 1988 ; Murphy et Nance,
1992).
Pour permettre une meilleure compréhension à la Tectonique des Plaques, un modèle 3D de la
composition interne du globe terrestre a été conçu (Courtillot, 2009). La structure interne de la
Terre est composée de sphères concentriques. En allant de la surface vers l’intérieur on a
d’abord la Lithosphère dont la croûte est la partie la plus externe et qui est composée de deux
parties de composition et de densité différentes (la lithosphère océanique est plus dense que la
lithosphère continentale). La croûte océanique a une épaisseur variant entre 5 et 15 km. La
croûte continentale a une épaisseur variant entre 30 et 65 km. Le « Mohorovicic » est la
séparation entre la croûte et la partie inférieure de la lithosphère, laquelle se trouve à une
profondeur comprise entre 70 et 150 km. Puis vient l’Asthénosphère, région relativement
plastique. Le Manteau Supérieur comprend l’Asthénosphère et la partie de la Lithosphère
située en dessous de la croûte. Puis vient le Manteau Inférieur, qui est une partie solide. La
frontière entre Manteau Supérieur et Inférieur est à 750 km de profondeur. Ensuite vient le
Noyau Externe, qui est composé de métal liquide. La frontière entre Manteau Inférieur et
Noyau Externe s’appelle le Gutenberg (on l’appelle aussi couche D’’) et se trouve à 2885 km
de profondeur. Enfin vient le Noyau Interne, composé de métal solide. La frontière entre le
Noyau Externe et le Noyau Interne se trouve à 5150 km de profondeur, tandis que le centre de
la Terre se trouve à 6371 km de profondeur. Bien entendu, au fur et à mesure que l’on
s’enfonce dans les profondeurs de la Terre, les couches deviennent de plus en plus denses et
chaudes. Le Noyau Interne a une densité de 13,54 g/cm3, sous une pression de 365 GPa, et
une température de 6000 °C.
Le plancher de l’océan est plus lourd et plus jeune (moins de 200 m.a.) que le continent. Une
nouvelle croûte océanique est lentement créée au niveau des dorsales, et transportée au loin
comme sur une bande convoyeuse. Lorsque cette couche arrive au niveau d’un continent, elle
passe en dessous (parce que plus lourde) dans un mouvement dit de subduction, qui peut
traverser toute l’épaisseur du manteau et parvenir jusqu’à la couche D’’. En surface, les
subductions provoquent des arcs volcaniques (par exemple celui dû à la subduction de la
plaque Nazca de l’océan Pacifique sous la côte ouest de l’Amérique du Sud). Les subductions
sont le principal moteur du mouvement de la lithosphère, alors que la dorsale est relativement
passive. D’autres mouvements de convection se produisent dans le manteau, et notamment
des « panaches chauds » qui peuvent arriver jusqu’à la surface et provoquer des « points
chauds » qui sont à l’origine de « traps » (tels que les traps du Décan ou de Sibérie) qui ont
provoqué dans le passé géologique des éruptions volcaniques cataclysmiques, sur une durée
de plusieurs m.a., à l’origine d’extinctions de masse des espèces.
Seulement quatre séismes ont dépassé la magnitude 9 pendant les 100 ans où ils ont été
enregistrés : Chili en 1960, Alaska en 1964, Sumatra en 2004 et Japon en 2011. Un séisme de
magnitude 9 correspond à la cassure de la totalité de l’épaisseur de la Lithosphère. Il est
probable que la Terre ne peut pas produire de séisme de magnitude bien supérieure à 9.
De nombreuses avancées théoriques sont venues appuyer l’hypothèse non encore
complètement prouvée de fonctionnement d’une géodynamo par couplage entre des champs
magnétiques et des courants de matière poloïdaux et toroïdaux.
14/10/2013
9
1.2.4 Conclusions sur la géologie
Cette brève revue de l’histoire de la géologie et de quelques théories géologiques permet de
tirer quelques conclusions, qui pourront être utiles pour mieux comprendre le débat entre
réchauffistes et climato-sceptiques :
o Toutes les religions, de l’animisme au monothéisme, en passant par le polythéisme,
ont eu une cosmogénie et une genèse à leur base. Toutes également expliquaient les
phénomènes géologiques et cosmiques par une intervention divine. Dans ces
conditions, on comprend que les précurseurs en sciences de la Terre et de l’Univers
(Galilée, Darwin, etc…) aient eu maille à partir avec les religions, qui ont agit souvent
comme un frein au développement de ces sciences,
o Comme toutes les théories physiques, les théories géologiques sont confrontées à
l’examen des mesures et expériences et à discussion avec la communauté scientifique
(« peer review ») ; elles peuvent évoluer dans le temps en fonction des résultats
successifs. Les grandes théories novatrices ont demandé beaucoup de temps pour
arriver à maturité. La méthode thermo-dynamique de Kelvin a conduit à une impasse,
et l’âge de la Terre a pu être calculé correctement par une nouvelle discipline, la
radioactivité,
o Wegener comme Darwin ont utilisé une méthode multidisciplinaire. Cette méthode est
indispensable pour dénouer des problèmes aussi complexes,
o L’utilisation de méthodes physico-mathématiques ne garantit pas l’exactitude, surtout
si l’on part des mauvaises hypothèses (Jeffreys et Kelvin se sont trompés). En sciences
de la Terre, il est nécessaire de confronter les méthodes physiques et naturalistes,
o Le consensus scientifique à un moment ne signifie pas que la vérité ait été atteinte (le
calcul de l’âge de la Terre à partir d’une interprétation littérale de la Bible par
l’archevêque Ussher n’a pas choqué la communauté scientifique du 17e siècle ; la
théorie de la rotation de la Terre autour du soleil était en très nette minorité dans le
monde scientifique au temps de Galilée).
o Les recommandations scientifiques de l’astronome Carl Sagan dans : « The demonhaunted world » sont : « une ouverture presque totale à n’importe quelles idées, même
si elles sont bizarres […], une tendance à l’émerveillement […] et en même temps
[…] un scepticisme vigoureux et intransigeant, parce que la grande majorité des idées
sont complètement fausses », [on a un aperçu dans Hallam, 1983, d’autre théories
géologiques que celles développées ici, qui ont été des échecs complets]» (cité dans
Tammet, 2009).
2 Les différentes théories
2.1 La méthode scientifique
Alors qu’au 19e et 20e siècle les scientifiques présentaient leurs recherches dans des sociétés
scientifiques renommées (Académie des Sciences, Royal Geographic Society, etc…), la
recherche scientifique se concrétise aujourd’hui dans les universités à travers des publications
dans des journaux spécialisés scientifiques généralement en langue anglaise (auxquels les
universités souscrivent des abonnements). Ces journaux sont alors disponibles sur Internet
dans le sein des universités et des autres souscripteurs d’abonnement. Les journaux les mieux
côtés au niveau universitaire ne publient qu’après acceptation et demandes de corrections
éventuelles d’un jury de pairs qualifiés, qui garantissent la qualité des travaux scientifiques
effectués.
14/10/2013
10
2.2
La méthode du GIEC
Le rapport du GIEC, publié environ tous les cinq ans, et qui regroupe les publications
scientifiques faites par des chercheurs provenant de tous les pays du monde, se fait en deux
étapes:
o Le rapport scientifique (1000 pages), dans lequel les scientifiques peuvent exprimer
discrètement leurs doutes. Personne ne le lit,
o Le rapport des décideurs (25 pages), publié avant le rapport scientifique complet, dans
lequel on fait naître un consensus en votant. C’est le seul qui soit lu par les médias, le
public et les décideurs.
De cette façon, les politiques et les médias peuvent ignorer les doutes de certains chercheurs
renommés (et certains d’entre eux, Ch. Landsea, Roger Pielke, ont démissionné du GIEC pour
cette raison, d’autres, tels S. Solanski, T. Tudok de Wit, I. Usoskin, Richard Lindzen, Jan
Veizer, Henrick Svensmark, E. Friis-Christensen, P. Foukal, s’opposent aux conclusions du
GIEC) et prétendre qu’un consensus scientifique existe.
Alors que les rapports du GIEC regroupent les travaux sérieux de nombreux scientifiques, la
méthode finale s’apparente plus à la méthode de décision parlementaire des politiques, qui
n’est pas une méthode scientifique. Toutes les grandes découvertes en sciences sont
minoritaires au moment de leur émergence. Un processus de type GIEC ne peut qu’étouffer
leur émergence.
2.3 Les théories des réchauffistes
Avant d’exposer les doutes des climato-sceptiques, il est nécessaire d’exposer (brièvement,
car elles sont maintenant bien connues du grand public) les théories des réchauffistes.
Les théories des réchauffistes sont très bien exposées dans Nicolas (professeur émérite à
l’université de Montpellier, lauréat de la médaille Harry Hess de l’American Geophysical
Union en 2004 et du grand prix de l’Académie des Sciences, en 2005), 2004 et 2007. Je vais
essayer de les résumer ci-après.
Le principe de l’effet de serre a été décrit par Joseph Fourier, 1824 dans son ouvrage sur les
températures du globe terrestre. Le rayonnement infrarouge avait été découvert par Sir
William (alias Friedrich) Herschel environ 25 ans auparavant, il était encore très mal connu et
était appelé « chaleur obscure ». Pour les échanges par rayonnement, Fourier fait l'analogie
entre ce qui se passe dans l'atmosphère et ce que l'on peut observer dans les expériences
réalisées par Horace Bénédict de Saussure (de Saussure, 1779). Le dispositif expérimental
utilisé consiste en une boite isolée thermiquement, avec un fond noir, et surmontée d'un triple
vitrage. C'était le précurseur du capteur solaire thermique, utilisé par exemple pour produire
de l'eau chaude sanitaire. de Saussure observa que la température à l'intérieur de la boite était
beaucoup plus élevée qu'à l'extérieur, et Fourier en donna une interprétation ; il fait le
parallèle entre les vitres de la boîte et l'atmosphère de la Terre: elles sont transparentes au
rayonnement visible et opaques au rayonnement infrarouge. Le rayonnement solaire traverse
l'atmosphère et transporte de l'énergie jusqu'à la surface. Celle-ci absorbe une partie du
rayonnement solaire, gagne de l'énergie qu'elle perd en émettant du rayonnement infrarouge
(Dufresne, 2009).
Le verre agissant comme un filtre sélectif, laisse passer le rayonnement solaire très
énergétique (riche en rayons ultraviolets) qui atteint le volume d’air situé sous le verre, où il
dissipe son énergie en chaleur, tout en ré-émettant des rayons infrarouges moins énergétiques.
Ces derniers, à la différence des rayons ultraviolets, sont absorbés par la surface de verre, qui
confine donc la chaleur dans l’enceinte. Ainsi défini, l’effet de serre s’applique à l’atmosphère
terrestre, où le rôle du verre est tenu par des gaz qui sont transparents aux rayons ultraviolets,
mais absorbent les rayons infrarouges : ce sont les gaz à effet de serre (GES).
14/10/2013
11
Les GES ont au moins trois atomes dans leur molécule. Ils sont capables de capturer une
partie des rayonnements infrarouges émis par le sol chauffé par la lumière du soleil qui a
traversé l’atmosphère. Il y a dans l’atmosphère terrestre plusieurs GES: CO2, CH4, N2O, H2O.
Mais le CO2 est prépondérant en pourcentage volumétrique (Tab. 1). On pourra noter
cependant les extrêmement faibles valeurs de teneurs en GES. L’ozone (O3) troposphérique, la
vapeur d’eau (H2O_ 0,3% de l’atmosphère) sont également des GES naturels. La vapeur d’eau
est en fait le principal GES (55 % de contribution à l’effet de serre total), mais l’action
humaine ne perturbe pas significativement le cycle global de l’eau. On n’en tient donc pas
compte.La présence d’une atmosphère autour d’une planète est réglée par sa gravité (masse et
rayon), et par la masse de la molécule de gaz constituant l’atmosphère (Broecker, 1987).
L’atmosphère a un effet bénéfique pour la présence de vie sur une planète: elle joue un rôle
de régulateur de température; la température de la Terre (« planète miracle ») est restée
comprise entre 0 et 100 °C pour la plus grande totalité des temps géologiques. Elle est
actuellement de 15 °C, sans GES, elle serait de –18 °C. La Lune et Mercure n’ont pas
d’atmosphère; les températures y sont nettement en dessous de 0 °C (on les appelle des
« planètes blanches »). La planète Vénus a une atmosphère faite entièrement de CO2. Sa
température de surface est de 460 °C. Mais elle est plus proche du soleil que la Terre, et on
est très loin des faibles teneurs en GES dans l’atmosphère terrestre.
Svante Arrhenius (1859- 1927) est connu comme étant le premier scientifique à avoir
quantifié un changement de la température de surface de la Terre dû à une variation de la
concentration de CO2 dans l'atmosphère. Il a calculé qu'un doublement de la concentration de
CO2 entraînerait un accroissement de température d'environ 5 °C (Arrhenius, 1896). Cette
valeur est toujours d'actualité, la fourchette des estimations étant aujourd'hui de 2,5 à 4.5 °C.
Nom de gaz
Formule
% volume
Azote
N2
78,08
Oxygène
O2
20,95
Argon
Ar
0,93
Dioxyde de carbone*
CO2
0,034
Néon
Ne
0,0018
Hélium
He
0,00052
Krypton
Kr
0,00011
Xénon
Xe
0,00009
Hydrogène
H2
0,00005
Méthane*
CH4
0,0002
Oxyde nitreux*
N20
0,00005
Tableau 1. Gaz composants l’atmosphère (GES*). L’oxyde nitreux est aussi connu sous le nom de
protoxyde d’azote ou gaz hilarant.
Dans le troisième rapport du GIEC (2001) est publiée la fameuse courbe de température de
Michael Mann « en forme de crosse de hockey » (Fig. 1A). Cette courbe, comparée aux
courbes d’augmentation de la teneur en gaz carbonique et en méthane dans l’atmosphère
(Fig.2) apparaît comme la preuve irréfutable que :
1. De l’an mille jusqu’à 1850, la courbe des températures est relativement plate, suivant
ainsi les courbes de teneur en CO2 et CH4 (Fig. 2),
14/10/2013
12
2. Les augmentations exponentielles de GES correspondent à la période de la Révolution
Industrielle jusqu’à aujourd’hui (et sont donc d’origine anthropique),
3. A ces augmentations exponentielles de GES ont correspondu des augmentations de
température supérieures à la température moyenne globale du dernier millénaire
(même si les écarts demeurent très faibles, de l’ordre de 0,5 °C).
a
b
c
a
b
Figure 1. Courbes d’estimation des changements de la température moyenne globale (en degré Celsius) en
fonction du temps sur le(s) dernier(s) millénaire(s). a : Moyen Age, relativement chaud, le Groenland est
vert ; b : Petit âge glaciaire ; c : période de la Révolution industrielle. A) : Courbe due à Mann et ses
collaborateurs portant sur le dernier millénaire ; en grisé, marge d’erreur ; en rouge, compilation lissée
d’un certain nombre de données indirectes, comme les anneaux d’accroissement des arbres ; en vert,
températures prévues par le GIEC suivant scénarios. B) Courbe plus récente due à Moberg et ses
collaborateurs, portant sur les deux derniers millénaires ; en rouge, compilation d’un certain nombre de
données dont le rapport isotopique δO18/δO16 relevé dans les carottes glaciaires ; en bleu, lissage des
données rouges ; en vert, données instrumentales (sauf la dernière partie, non lissée, qui est prédictive).
(modifié d’après Courtillot, 2009).
Figure 2. Courbes d’augmentation de la teneur en gaz carbonique et en méthane de l’atmosphère au cours
du dernier millénaire. (Dans Nicolas, 2004, source : GIEC 2001).
Dans le rapport de 2001 sont également émis par les climatologues des scénarios d’estimation
de température à venir (prévision de température moyenne en 2100 : augmentation de 1,4° à
14/10/2013
13
5,8°C_ la fourchette a été rapprochée dans le rapport de 2007), et d’augmentation du niveau
eustatique des mers (10 à 20 cm pendant cette même période).
La part dans le réchauffement anthropique du CO2 est de 64,2 %, pour l’essentiel provenant
de la combustion des énergies fossiles (charbon, pétrole, gaz, dans cet ordre), et aussi de
certaines industries (fabrication du ciment, de l’acier, du verre, etc…). Les émissions de CO2
(en g/kWh) sont une fonction croissante de la quantité de carbone par unité de masse: charbon
(C/C=1); pétrole (C/C8H16=0,85); gaz (C/CH4=0,75).
En tenant compte de la durée de séjour dans l’atmosphère (rémanence) et du pouvoir de
réchauffement global (PRG) des différents gaz, même en cas de suppression des émissions de
GES demain matin, nous ne retrouverions pas le niveau GES « préindustriel » que dans des
dizaines de milliers d’années, le maximum de température n’est atteint que bien après que le
maximum de concentration en gaz le soit, les valeurs atteintes en 2100 pour les divers
scénarios GIEC ne représentent que 50 % environ du maximum absolu à venir ultérieurement
(Nicolas, 2004 et 2007). D’où les cris d’alarme lancés par le GIEC et les exhortations à agir
dès maintenant, même s’il subsiste encore une certaine incertitude sur la part anthropique
dans le rôle des changements climatiques observés, lancées dans les différentes conventions
internationales sur le climat.
Il y a bien entendu d’autres paramètres de température que les GES qui ont été envisagés par
le GIEC: le cycle des supercontinents, les cycles astronomiques et solaires (cycles de
Milankovic, 1941 : excentricité, obliquité, précession), distance planète-soleil, réflectivité,
aérosols, activité du soleil, volcanisme, le rôle des océans. Mais, étant donné la brièveté (sur
une échelle de temps géologique de 4,55 milliards d’années) de l’épisode d’augmentation de
la concentration des GES dans l’atmosphère et de l’augmentation des températures
concordante, ces autres paramètres ont été considérés comme négligeables pour le phénomène
considéré.
2.4 Les doutes des climato-sceptiques
Je vais maintenant exposer les quelques doutes qui ont été émis par les climato-sceptiques, et
qui sont très bien présentés dans Courtillot, 2009.
2.4.1 Climat-Météo, et géologie
Tout d’abord, rappelons une définition généralement admise de la différence entre météo et
climat : la météo est la caractérisation des données météorologiques (température, humidité,
pression, vitesse et direction du vent, etc…) au jour le jour. Le climat est la moyenne des
données météorologiques sur trente ans.
Fort heureusement, les échantillons contenus dans les carottages effectués au cours de forages
scientifiques constituent des archives permettant de reconstituer en partie l’histoire de la
Terre. Dans ces conditions, il est intéressant de comparer les variations de teneurs en CO2 et
CH4 de l’atmosphère avec celles des températures pendant les 400 derniers milliers d’années
(Fig. 3). On voit que la température suit les cycles de Milankovic, et (sur une échelle plus
détaillée que celle montrée sur la Fig. 3), que les variations de température précèdent
d’environ 1000 ans celles de teneur en CO2. En conséquence le soleil est l’agent principal des
équilibres thermodynamiques dans l’atmosphère, et entraîne des variations en teneur de CO2,
à l’échelle du millier au million d’années. Le diagramme de la Fig. 3 montre également que
les écarts de température entre glaciation (-10 °C) et interglaciation (+2 °C) sont ici bien plus
considérables que ceux évalués sur la Fig. 1. Par contre, les valeurs maximum de teneur en
CO2 ne dépassent pas 280 ppm et celle en CH4 800 ppb (à comparer avec les valeurs actuelles
de respectivement 340 ppm et 1400 ppb, Fig.2).
14/10/2013
14
Glaciations :
Würm
Riss
Mindel
Figure 3. Variations des teneurs en gaz (carbonique et méthane) et des températures (δO18/δO16) dans une
carotte de glace forée dans l’Antarctique (d’après Courtillot, 2009). Les périodes de glaciations ont été
représentées.
Lorsqu’on compare température moyenne, fluctuation de niveau marin et teneur en CO2 sur
un plus grand intervalle de temps (560 m.a., données obtenues avec des carottages et des
mesures différentes que celles montrées sur la Fig. 3) (Fig. 4), il est tout de même assez
frappant de constater une totale absence de parallélisme entre les trois courbes. On voit que
les épisodes de glaciation étaient rares. Il y a eu notamment celles du Quaternaire, et celle de
la Terre « boule de neige » à la fin du Précambrien, qui a précédé l’ « explosion cambrienne »
en termes de nombre de classes et d’ordres des espèces. En général, les températures étaient
beaucoup plus élevées qu’aujourd’hui, ainsi que le niveau de la mer et la concentration en
CO2, en dépit de l’absence d’activité humaine. Les concentrations en CO2 pouvaient atteindre
30 fois les valeurs actuelles, et la température moyenne plus de 25°C, comparé à 18° C
aujourd’hui. Ce n’est pas au moment où les concentrations en CO2 étaient les plus grandes
que les températures étaient les plus fortes. Si à l’échelle des temps géologiques, la teneur en
CO2 est l’un des éléments déterminants de la température du globe, il n’est visiblement pas le
seul. Au passage, Courtillot relie les traps aux épisodes d’extinction des espèces.
Pangée
Figure 4. Les différents cycles de l’histoire naturelle (d’après Courtillot, 2009). Sur la moitié droite de la
figure, on a visualisé l’influence catastrophique des traps (grands émetteurs de CO2) sur les extinctions de
masse, comparée avec celle de chutes de météorites.
14/10/2013
15
2.4.2 Température moyenne mondiale
La courbe de Mann (Fig. 1A) est composée de plusieurs branches, avec une incertitude
décroissante sur la précision de la mesure : 1000-1850 : températures estimées à partir de
données secondaires (principalement anneaux de croissance des arbres) ; 1850-1945 :
températures mesurées avec une faible précision ; 1945-2010 : températures mesurées avec
une grande précision ; au-delà, apparaissent les prévisions avec différents scénarios pour le
futur.
Courtillot, 2009, ainsi que d’autres chercheurs, ont questionné les données sur lesquelles cette
courbe, ainsi que la plupart des études du GIEC, se basent. Ils ont trouvé qu’elles provenaient
du groupe de Phil Jones au Hadley Center for Climate Prediction and Research du
Meteorological Office (plus brièvement le Met Office), G.B. Courtillot a commencé par
s’étonner de la faible incertitude attribuée aux mesures océaniques de la période 1850-1950,
mesures effectuée par la Navy sur ses navires en recueillant des seaux d’eau de mer. Ces
mesures étaient faites avec une faible fréquence temporelle et densité géographique. De plus,
la correspondance entre la température de l’eau de mer et celle de la basse atmosphère est peu
précise. Devant le refus du Met Office de communiquer ses données pour vérification,
Courtillot a collecté des données de températures anciennes enregistrées dans d’autres
laboratoires en Europe et en Amérique du Nord et obtenu des profils tout à fait différents de
ceux de la courbe de Mann.
Courtillot conclue donc que la base de données utilisée par le GIEC de températures mesurées
sur les 150 dernières années est entachée de deux erreurs systémiques: 1) L’erreur sur les
mesures de températures océaniques anciennes est grossièrement minimisée ; or ces données
océaniques ont une grande importance pour évaluer la température mondiale, les océans
couvrant 7/10 de la surface terrestre ; 2) les mesures de températures anciennes enregistrées
dans d’autres stations météo en Europe et en Amérique du Nord ont des profils très différents.
D’autre part, les températures anciennes de l’hémisphère Nord sont beaucoup mieux connues
que celles du Sud, donc définir une température moyenne mondiale n’est pas une chose aisée,
particulièrement pour les données anciennes. Les mesures par satellites ont aujourd’hui résolu
ces problèmes.
Pour ce qui concerne les estimations de température pour la période antérieure à 1850, en
2005 Anders Moberg et ses collègues ont proposé une courbe alternative (Fig. 1B) sur une
période plus longue puisque commençant en l’an 0, où ils substituent les estimations faites par
Mann sur les anneaux de croissance des arbres (qui dépendent certes de la température mais
surtout des précipitations, et sans doute aussi de l’âge des arbres utilisés pour ces mesures) par
celles faites à l’aide du rapport isotopique de l’oxygène δO18/δO16 mesuré sur carottes
glacières, généralement considéré comme plus fiable. En comparant les deux courbes sur la
même période de temps (Fig. 1), on voit que la courbe de Moberg traduit mieux que celle de
Mann (qui montre jusqu’en 1850 la partie relativement plate de la crosse de hockey) les
périodes, attestées par les archives historiques (Le Roy Ladurie, 2009), relativement chaude
du Moyen Age et relativement froide du petit âge glacière, époques où les concentrations en
GES étaient cependant stables (Fig. 2). De plus, la courbe de Moberg montre que nous
atteignons à peine aujourd’hui le maximum de température atteint au Moyen Age,
contrairement à celle de Mann, qui montre pour sa part que ce maximum a été dépassé aux
alentours de 1925 et que nous sommes aujourd’hui bien au-delà. La courbe de Moberg
présente donc la particularité d’être à la fois probablement plus proche de la réalité que la
courbe de Mann, et de quasiment détruire l’argument le plus convaincant des
« réchauffistes ».
Qui plus est, en 2003, Stephen McIntyre et Ross McKitrick attaquent les données sources que
Mann a utilisées. Mann avoue alors ne pas avoir utilisé les données qu’il dit avoir utilisées et
dévoile les vraies données. Cependant Mann et ses co-auteurs refusent de dévoiler le code
14/10/2013
16
source de leur traitement statistique. Approchant malgré tout ce code, McIntyre et McKitrick
montrent que toute l’analyse statistique en composant principal est erronée. Même avec une
série de donnés totalement aléatoires, les corrections de Mann et al. donnent une courbe en
crosse de hockey. Edward Wegman, directeur du Comité de Statistiques théoriques et
Appliquées de l’Académie des Sciences américaine est un statisticien reconnu pour la qualité
de ses travaux et sa neutralité. Il monte un groupe de statisticiens indépendants de premier
plan qui étudient le modèle de Mann. Leurs conclusions sont sans appel, le traitement de
Mann et al. est orienté. Le rapport Wegman donne clairement raison à McIntyre. Est écrit en
particulier : « l’estimation du professeur Mann selon laquelle la décennie 1990 a été la plus
chaude du millénaire et que 1998 a été l’année la plus chaude du millénaire ne peut être
soutenue par son analyse ». Cependant, le rapport Wegman va au-delà, et tente de comprendre
pourquoi un article d'un tel parti pris, multipliant les manipulations et les erreurs, a pu être
publié par la revue Nature et pourquoi les correctifs de McIntyre ont été refusés. Dans une
longue étude de ce point précis, les rédacteurs montrent que le système du peer review échoue
totalement car l'aveuglement idéologique l'emporte. Le rapport Wegman cite nombre de
chercheurs en paléoclimatologie qui s'allient pour soutenir la thèse de l'origine humaine du
réchauffement climatique, quitte à laisser publier n'importe quel papier outrageusement
truqué. Autrement formulé, un article « sceptique » a bien peu de chances d'être publié, aussi
bon soit-il.
Malgré la dénonciation régulière par de très nombreux scientifiques de la falsification que
représente cette courbe, elle a été utilisée par de nombreux organismes pour frapper les esprits
et imposer des mesures par la tromperie. Le GIEC s'en est ainsi servi avec une telle insistance
jusqu'en 2001 que la courbe est devenue l'équivalent du logo de cet organisme. Cette courbe
occupe une part essentielle du résumé du rapport de 2001 de l'organisation. Si devant
l'ampleur de la manipulation le GIEC a discrètement retiré toute référence à la courbe en
crosse de hockey, des manipulations identiques se poursuivent. Ainsi, la courbe est
discrètement reprise dans le rapport du GIEC de 2007, dans un graphe de Keith Briffa
présentant huit courbes de températures (dont celles de Mann et de Moberg).
A
B
Figure 5. A : Température mondiale entre 1870 et 1990, site Internet du CEA. B : CO2 et température
mondiale depuis 1940 (dans le Figaro Magazine du 15 juin 2012, interview de Christian Gérondeau après
la publication de Gérondeau, 2012).
Pour les températures de l’époque industrielle, alors que le CEA présente une courbe
globalement alarmante (Fig. 5A), Gérondeau, 2012 estime pour la période la plus récente
(après 1940) qu’alors que la teneur de l’atmosphère en GES ne cesse de croître (Fig. 2), la
température moyenne terrestre, connue en dernier lieu par les satellites d’observation, subit
des variations erratiques (Fig. 5B). Baisse de 1940 à 1975 ; hausse de 1975 à 1998 ; stabilité
depuis lors, ceci en accord avec le Met Office anglais, qui estime que la température du globe
n’a pas augmenté depuis 1995, soit depuis 18 ans. On peut aussi rapprocher cela du
14/10/2013
17
ralentissement de la montée des mers observé depuis 2005 (Fig. 6). Ici encore, un argument
fort des « réchauffistes » est sérieusement mis à mal.
Figure 6. Variation du niveau moyen de la mer (en mm) mesurée par les satellites Topex-Poseidon et
Jason depuis 1993. Université du Colorado. Un ralentissement sensible de la montée des mers apparaît
depuis trois ans. (Courtillot, 2009).
Oui, c’est vrai, la banquise arctique fond et il y a des sécheresses, mais le lien de ces
phénomènes avec les GES est purement spéculatif, d’autant plus que deux chercheurs du MIT,
Zhao Qin et Markus Buelher, viennent de montrer que le CO2 seul (sans augmentation de
température) fragilise la glace et pourrait avoir un rôle important dans la disparition des
glaciers.
2.4.3 Corrélation température-évolution solaire
Si le lien entre la température et les GES n’est pas prouvé, alors quelle est la cause essentielle
du changement (comme indiqué dans les titres français et anglais des GIEC et IPCC, et non
pas réchauffement) climatique ? Ce pourrait bien être le soleil, nous dit Courtillot, 2009, en
observant les corrélations température- évolution solaire, Fig. 7.
A
B
Figure 7. J.-L. Le Mouët et coll. (dans Courtillot, 2009). A : Evolution de la « durée de vie » de la
température moyenne journalière en Europe et du nombre de taches solaires (nombre de Wolf). B :
Comparaison entre les évolutions à long terme de la durée de vie de la température moyenne journalière en
Europe (rouge: stations météorologiques d’Europe du Nord-Ouest; vert: Hollande) et de l’activité solaire
(bleu: estimée à l’aide d’un indicateur magnétique).
Le nombre de Wolf (nombre de taches solaires) corrèle avec l’activité solaire (Fig. 7 B). En
plus d’une modulation de période 11 ans, il a subi les minima de Maunder et de Dalton
14/10/2013
18
pendant la période b du Petit âge glaciaire (Fig. 8). On voit aussi que ce nombre est en
croissance entre1900 et 1950, pour arriver à un maximum entre 1950 et 2000.
b
c
Figure 8. Evolution du nombre de taches solaires par an (nombre de Wolf), depuis l’époque de Galilée.
La circulation thermo-haline (Fig. 9) entraîne également une corrélation température-CO2. Le
soleil entraîne des variations de température de l’atmosphère, et avec un certain décalage (~
1000 ans), de l’océan: quand ce dernier est réchauffé, il dégaze du CO ; refroidi, il dissout
plus de CO . Ainsi s’explique sur la Fig. 3 le décalage observé entre température et teneur en
CO2.
2
2
Figure 9. La circulation thermo-haline dans les océans. Un cycle complet = 1000 ans. Woods Hole Oceanic
Institute, 2003.
2.4.4 Flux d’énergie solaire
L’irradiance solaire (puissance émise par le soleil à toutes les longueurs d’onde à la distance
de l’orbite de la Terre, en Watt/m2) moyenne est de 1366 W/m2. Les variations de l’irradiance
solaire sont cycliques depuis 1978 (Fig. 10).
Le Soleil « voit » la Terre en section droite, dont la surface est πR2 (R: rayon terrestre= 6371
km), mais l’énergie est répartie en 24 heures sur toute la surface de la Terre, soit 4πR2; le flux
moyen est donc de 342 W/m2. Entre deux cycles solaires, la variation est de 0,07 W/m2, soit
0,02 W/m2 en onze ans, en flux efficace au niveau terrestre. Ceci paraît négligeable comparé
aux 1,4 W/m2 attribués par le GIEC au CO2 relâché dans l’atmosphère depuis le début de la
révolution industrielle.
Cependant, la composante multidécennale de la variation solaire a maintenant été révisée à 1
W/m2 par Nicola Scafeta et Richard Wilson, en raison d’un trou de deux ans dans les
observations satellitaires, et d’un mauvais raccord à travers ce trou.
14/10/2013
19
Figure 10. Variations de l’irradiance solaire mesurée par divers satellites depuis 1978 (C. Fröhlich et
coll.), faisant apparaître trois cycles solaires de 11 ans. (Dans Courtillot, 2009).
2.4.5 Rayons cosmiques
D’autres scientifiques pensent qu’un élément essentiel du climat viendrait des rayons
cosmiques. Les rayons cosmiques viennent de l’explosion des supernovae dans notre galaxie.
Or, en arrivant dans notre atmosphère ils contribueraient à la formation des nuages, éléments
clés du climat. Les rayons cosmiques ionisent en effet des composés volatiles présents dans
l’atmosphère (gaz, particules…), c’est-à-dire qu’ils les chargent en électricité, ce qui permet
de les faire s’attirer mutuellement. Et cela favorise la condensation de l’humidité présente
dans l’air. Ce phénomène s’appelle la nucléation. Le résultat de la nucléation liée aux rayons
cosmiques, ce sont de petits « clusters ». Ce serait la toute première étape de la formation des
nuages.
Mais le champ magnétique du soleil perturbe plus ou moins la présence des rayons cosmiques
sur Terre, car l’activité solaire est fluctuante (Fig. 7, 8, 10). Plus l’activité solaire est
importante, moins les rayons cosmiques peuvent atteindre la Terre. Et moins de rayons
cosmiques, cela signifierait donc de moins en moins de nuages. Moins de nuages, impliquerait
plus de réchauffement climatique, car les nuages renvoient une partie du rayonnement solaire
dans l’espace. C’est en tout cas l’hypothèse du scientifique Henrik Svensmark, physicien
danois, directeur du Center for Sun-Climate Research, qui vient ainsi appuyer Courtillot,
2009, sur l’influence possible de l’activité solaire sur le climat.
L’expérience CLOUD (Cosmics Leaving Outdoor Droplets) a été menée récemment au
CERN, sous la direction de Jasper Kirkby, et ses premiers résultats décrits dans Kirkby, 2011.
L’accélérateur de particules du CERN a été mis à contribution pour créer un faisceau de
protons reproduisant le rayonnement cosmique. Ce faisceau vient bombarder une petite
chambre de 3 mètres de diamètre renfermant une atmosphère terrestre partiellement
reconstituée. Avant cette expérience, les scientifiques pensaient que la combinaison d’acide
sulfurique, d’ammoniac et d’eau (tous à l’état de trace) suffisait à engendrer des aérosols en
basse atmosphère. CLOUD a démontré qu’il n’en était rien : la chambre du CERN a produit
de dix à mille fois moins d’aérosols que dans le milieu naturel, les rayons cosmiques jouant
un rôle négligeable ; il y a donc d’autres éléments qui entrent en jeu, d’autres composés
vaporeux, dont certains peuvent être d’origine anthropique.
Par contre, CLOUD a permis de confirmer l’importance du rayonnement cosmique en
moyenne atmosphère (troposphère), car il multiplie par dix la formations des clusters. Et ceci
rien qu’avec de l’acide sulfurique et de la vapeur d’eau.
L’expérience a aussi démontré que les clusters ionisés par rayonnement cosmique sont de
toute façon trop minuscules pour contribuer à eux seuls à la formation des aérosols (en basse
ou moyenne atmosphère). Il manquerait donc un ou des « intermédiaires » que l’on doit
encore trouver.
14/10/2013
20
2.4.6 Climatologues
Alors que les météorologues, malgré l’utilisation de réseaux mondiaux de mesures à mailles
de plus en plus fines et d’ordinateurs de plus en plus puissants pour traiter cette masse
gigantesque de mesures, ont du mal à prédire la météo à une semaine avec fiabilité, en raison
de la nature chaotique des phénomènes météorologiques, comment les climatologues, dont
Hervé Le Treut, membre du GIEC, membre de l’Académie des Sciences, Directeur de
l’Institut Pierre-Simon Laplace, est un des membres les plus importants, pourraient-ils
prédire la météo sur 100 ans, ou même 30 ans, comme ils prétendent le faire?
Une simulation numérique, de même que toute théorie spéculative, n’a jamais été une preuve
scientifique. Il reste à en prouver le résultat par des mesures. C’est ainsi que la Dérive des
continents n’a pu être acceptée, tandis que la Tectonique des plaques l’a été.
3 Conclusions
Ayant examiné pourquoi la Terre est un objet très difficile à étudier, et pourquoi les climatosceptiques sont en droit d’avoir des doutes sur la théorie développée par les réchauffistes, je
vais maintenant en tirer les conclusions sur les thèmes suivants :
1. Maturité de la théorie du changement climatique,
2. Emissions de GES d’origine anthropique et réchauffement climatique
3. Transition énergétique,
4. Science et politique.
3.1 Maturité de la théorie du changement climatique
La courbe d’estimation de températures de Moberg sur les deux derniers millénaires (Fig.
11A), tout comme l’évolution mesurée des températures mondiales depuis 1940, qui corrèlent
bien avec l’activité mesurée ou estimée du soleil (Fig. 11B, 11C), contredisent le lien direct
supposé par les réchauffistes entre l’évolution de température moyenne globale et
l’augmentation de concentration en GES d’origine anthropique dans l’atmosphère. Ce lien
n’est donc pas aujourd’hui scientifiquement prouvé. Lorsqu’une théorie scientifique, aussi
brillante soit-elle, n’est pas corroborée par les mesures, elle ne peut être maintenue par la
communauté scientifique.
A
e
d
e: Antiquité chaud d: froid a: Moyen Age b: Petit âge glaciaire c: Révolution industrielle
C
B
Estimation de l’activité solaire par C14 dans anneaux
de croissance des arbres
Figure 11. Courbe de température de Moberg (A), comparée au nombre de Wolf (B) et à l’estimation de
l’activité solaire par C14 (C).
Le soleil pourrait être le facteur prépondérant qui agit d’une part sur le rayonnement, l’eau
étant le principal GES, et d’autre part sur la formation des aérosols et parasols nuageux. Le
14/10/2013
21
réchauffement global (irrégulier) des 150 dernières années serait donc dû à des causes
naturelles.
Même si les premières études sur les GES remontent à plus de 200 ans, la théorie du
changement climatique n’est pas encore mature. Elle en est au point où seraient la
paléontologie si Darwin n’avait pas encore effectué son voyage sur le Beagle, l’évaluation de
l’âge de la Terre si la radioactivité n’avait pas été découverte, et la géologie si la Tectonique
des Plaques n’existait pas.
La climatologie demande encore beaucoup plus de temps et de réflexion, étant donnée
l’énorme complexité du problème, qui nécessite un travail multidisciplinaire, et non pas celui
des seuls experts des modèles numériques du climat. Ceux-ci pour l’instant en sont
probablement au stade où étaient Lord Kelvin pour l’estimation de l’âge de la Terre et Sir
Harold Jeffreys pour la Dérive des Continents, c’est-à-dire qu’ils sont partis des mauvaises
hypothèses, basées sur des données biaisées, et les ont entrées avec les algorithmes associés
dans leurs ordinateurs surpuissants (« garbage in, garbage out » comme l’a dit en 1963
George Fuechsel, instructeur chez IBM).
Le résumé pour les décideurs du rapport du GIEC 2014 a été présenté en octobre 2013.
L’ennui avec les prévisions à court terme, c’est qu’il arrive un moment désagréable où l’on
peut vérifier si elles étaient erronées ou pas. Après s’être lamentablement planté sur ses
prévisions à court terme dans les GIEC 2001 et 2007, voilà qu’après s’être enfin rendu
compte de l’évidence qu’il fallait incorporer d’autres facteurs que les GES dans leur modèle
climatique numérique, le GIEC prétend maintenant avoir accru leur certitude à 95 % de leurs
scénarios pour 2100, et soutient que sur des périodes plus longues on peut accorder une « très
haute confiance aux modèles ». De qui se moque-t-on ? Peut-on se tromper sur une partie et
avoir raison sur le tout ? Les 95 % de confiance n’ont rien à voir avec la science, les
mathématiques ou les statistiques, mais comme le GIEC l’écrit lui-même, résultent d’un
« jugement d’expert ».
Le GIEC ne tient pas compte des variations solaires sur des périodes plus longues, de l’ordre
de 60 ans, et de l’Optimum climatique du M.-A ou du Petit âge glacière. Il insiste sur le
caractère régional, et non global, du réchauffement médiéval constaté, alors que des études
locales, réparties sur tous les continents et les océans, attestent d’un net réchauffement
médiéval (ainsi que du refroidissement du Petit âge glaciaire).
Où est la preuve du lien GES anthropique- réchauffement climatique ? Ne pouvant plus
s’appuyer sur la courbe (truquée) de température de Mann, le GIEC en est maintenant réduit à
expliqué que ce lien est montré par la température moyenne de 460°C de Vénus, alors que
cette planète est beaucoup plus proche du Soleil que la Terre, et surtout que la concentration
en CO2 de l’atmosphère de Vénus est 200.000 fois plus élevée que sur Terre. De 1998 à nos
jours, l’homme a émis le tiers de toutes les émissions humaines de CO2 depuis le début de la
Révolution industrielle. Or, pendant cette période, la température s’est stabilisée. Comment
cela est-il possible si le lien existe ? Le GIEC prétend maintenant que ce serait dû à la
captation de chaleur par les océans (alors qu’il n’a jamais été question de cette captation dans
les rapports précédents). Les modèles ne sont parvenus à simuler la période 1951 à 1975 (Fig
5B et 12), où les températures sont restées stables, voire en légère diminution, qu’en attribuant
à l’atmosphère de cette période une quantité d’aérosols qu’aucune observation n’a corroborée
(Istvan Marko, 2013).
Les prévisions sur 30 ans ou 100 ans sont toujours aussi fumeuses et magnifiquement
croissantes (Fig. 13). Comment peuvent-ils prévoir l’activité future du soleil, des volcans ou
des océans ? Ont-ils vraiment tenu compte de tous les effets ? « Pourquoi les expert hésitentils tant entre 0,2 et 4,8 °C en 2100? Parce que cela dépend des données qu’ils prennent en
compte. Or certaines d’entre elles ont été calées sur la phase montante du cycle, il y a une
trentaine d’années » (Gervais, 2013, physicien à l’Université François Rabelais, relecteur
14/10/2013
22
critique du GIEC 2014). Il se pourrait très bien que le plateau (élevé) de température des 15
dernières années soit suivi dans quelques années par une décroissance, comme cela s’est déjà
produit depuis le début de la Révolution industrielle pendant les périodes 1875- 1910 (Fig.
12), et 1940-1975 (Fig. 5B et 12).
Figure 12. Augmentation de température à la surface du globe (1850-2012). On voit que la température ne
suit pas la tendance constamment croissante des courbes des GES pendant la même période (Fig. 2).
Figure 13. Scénarios de prévision de température mondiale dans le GIEC 2014.
3.2 Emissions de GES d’origine anthropique et réchauffement climatique
Le GIEC a pointé avec une « certitude » croissante les émissions de CO2 dues à l’utilisation
de combustibles fossiles pour la production d’énergie comme étant le moteur principal du
changement climatique. Cependant, l’augmentation de teneur en gaz carbonique et en
méthane dans l’atmosphère pourrait ne pas être due essentiellement à l’utilisation de
combustibles fossiles mais aussi, pour une part prépondérante, à l’accroissement
démographique ayant suivi la Révolution Industrielle. En effet, cette démographie a entraîné
d’une part des émissions de CO2 dues aux activités humaines et industrielles (environ 5
milliards de tonnes_ Mdt_ par an), et d’autre part 1,2 Mdt/an pour une population actuelle de
7 milliards d’humains dus à leur respiration, et 10 Mdt/an dus à la respiration des animaux
d’élevage (environ 50 milliards), et aussi des émissions de 2,5 Mdt de CH4 produits par les
ruminants d’élevage associés au développement de la démographie et à l’élévation du PIB/
habitant qui entraînent une consommation plus élevée de viande.
L’augmentation du CO2 d’origine anthropique a-t-elle vraiment une influence aussi
catastrophique que celle prédite par les climatologues sur le climat, où n’est-elle qu’un des
facteurs du réchauffement climatique? Un simple doublement de la teneur infime de CO2 et
14/10/2013
23
de CH4 dans l’atmosphère est-il suffisant pour avoir un effet de serre aussi important que celui
décrit par les réchauffistes ?
3.3 Transition énergétique
S’il est certain que les ressources fossiles de la Terre sont finies, le besoin d’énergie est
croissant, même si la démographie mondiale pourrait atteindre un maximum (à 9 milliards
d’humains) vers 2050. L’exploration et la production s’organise en conséquence, grâce à un
maintien relativement stable depuis 2008 du prix du pétrole autour de 100 $/ baril : les EtatsUnis, qui étaient le premier producteur mondial de pétrole depuis l’origine de la production
jusqu’en 1970, sont en passe de redevenir premier producteur mondial d’hydrocarbures en
2013. Jusqu’à maintenant, et probablement pendant encore longtemps, les nouvelles
découvertes (avec des forages sur terre et sur mer de plus en plus profond, des hydrocarbures
non conventionnels, les clathrates) et exploitations de combustibles fossiles (qui rappelons-le
sont les seuls à assurer à la fois le transport routier et aérien, une partie du transport
ferroviaire, ainsi que la pétrochimie), l’amélioration des rendements de production et les
économies en consommation d’énergie ont permis de continuer d’avancer vers le progrès.
Les énergies fossiles (pétrole, charbon et gaz) sont prévues par BP Energy Outlook 2030 de
fournir encore 79 % de l’énergie mondiale en 2030 (contre 93 % en 1970 et 87 % en 2008).
En 2030, les énergies non-fossiles (hydraulique, nucléaire, renouvelables) ne fourniront donc
que 21 % de l’énergie. A ceux qui prévoient pour demain l’épuisement des ressources
d’hydrocarbures, Cheikh Yamani, a répondu en 1974, alors qu’il était ministre du pétrole
saoudien : « L’Age de pierre ne s’est pas achevé faute de pierre », mais parce qu’une nouvelle
technologie lui a succédé.
Cette nouvelle technologie énergétique qui permettrait de supplanter les énergies fossiles n’a
pas encore fait son apparition aujourd’hui. Les énergies renouvelables sans émission de CO2
(tels l’éolien et le solaire, qui rappelons-le ont l’inconvénient majeur d’être intermittents, en
panne 75 à 80% du temps pour l’éolien, et 88 % du temps pour le solaire, et donc de
nécessiter l’apport de centrales thermiques à mise en route rapide, elles-mêmes émettrices de
CO2), n’ont pas un potentiel de production d’électricité de masse suffisant pour assurer
l’avenir, sans compter leur coût élevé de production qui nécessite des subventions de la part
de l’Etat. Ni l’effet de taille, ni les effets de série n’ont encore abouti à une baisse du MWe
installé de l’éolien depuis 10 ans. L’hydraulique, s’il a encore un avenir de développement
dans les pays en voie de développement et le Tiers Monde, a atteint ses limites dans les pays
développés. Le nucléaire civil, qui a ses propres problèmes de sécurité, est cependant une
énergie ne produisant pas de CO2, permettant de mieux assurer l’indépendance énergétique,
avec une réelle capacité de production d’électricité de masse, et de grandes possibilités
d’améliorations à venir (quatrième génération des surgénérateurs, aussi appelés réacteurs à
neutrons rapides, ou encore des réacteurs à sels fondus à base de thorium, et cinquième
génération de réacteurs mettant en œuvre la fusion nucléaire). Il a permis à la France de bâtir
un patrimoine considérable dans les domaines scientifiques, technologiques, industriels, qui
ont amené le développement d’une ressource humaine de très grande qualité.
La politique de l’énergie doit répondre à quatre objectifs : le bien-être de la population ; la
compétitivité de l’économie ; la sécurité de l’approvisionnement ; la protection de
l’environnement. Les conclusions du grand débat sur la transition énergétique organisé par le
gouvernement n’en remplissent aucun (Baverez, 2013). Voilà qui me fournit une excellente
transition sur le sujet suivant.
3.4 Science et politique
Il n’en reste pas moins qu’il apparaît judicieux d’économiser nos ressources en énergie
fossile, et qu’accroître indéfiniment la teneur en CO2 de l’atmosphère entraîne une
14/10/2013
24
acidification néfaste des océans (CO2 + H2O Î H2CO3, acide faible), ce qui n’est pas une
bonne chose pour l’écologie.
En cela l’accroissement de la teneur en CO2 mérite d’être combattu avec cependant une
certaine mesure et un coût inférieur à celui entraîné par le catastrophisme, le manque total de
rigueur scientifique (voir les documentaires « Une vérité qui dérange » de Al Gore, ou « Le
syndrome du Titanic » de Nicolas Hulot), et la véhémence des écologistes intransigeants qui
s’opposent à la fois à la combustion des fossiles, à l’énergie nucléaire et aux OGM. Essayons
d’éviter l’état de panique et de détruire l’économie de la planète par des mesures drastiques et
coûteuses.
« La guerre est une chose trop grave pour la confier aux militaires », disait Georges
Clémenceau, sans doute à bon escient. Mais faut-il, pour autant la confier aux politiques ?
Voici quelques exemples : « J’ai tout examiné et tout pesé ; c’est la conscience tranquille que
je m’engage sur le chemin que m’indique mon devoir », François-Joseph 1er d’Autriche, 1914,
avant la déclaration de guerre à la Serbie qui a entraîné la 1ère guerre mondiale. « Quoi qu’il
arrive, la route du pouvoir est fermée devant Hitler », Léon Blum, 1932. « Nous vaincrons
parce que nous sommes les plus forts », Paul Reynaud, 1939. Les politiques semblent
maintenant vouloir dicter aux scientifiques ce qu’ils doivent penser en matière de protection
de l’environnement, de politique énergétique et de génétique. On peut penser au tableau de
Bruegel l’Ancien intitulé « L’aveugle menant les aveugles » (dans le fossé).
En France, la centrale nucléaire de Fessenheim est programmée pour être mise à l’arrêt avant
2017, malgré que l’Institut de Radioprotection et de Sûreté Nucléaire (IRSN) ait rendu le
verdict en novembre 2011 qu’il n’était nécessaire d’arrêter aucune centrale française après
l’accident de Fukushima au Japon, moyennant des travaux de durcissement sur neuf centrales
d’EDF. Le passage de 75 % d’électricité d’origine nucléaire à 50 % est prévu avant 2025,
sans qu’un début d’explication ou même de discussion technique ne soient annoncés. Cette
diminution, associée à la montée à hauteur de 27 % des énergies renouvelables, implique une
destruction de valeur de 150 Md€, et un effort d’investissement dans la production et les
réseaux de l’ordre de 500 Md€, hors de portée d’un pays sur-endetté (Baverez, 2013).On voit
déjà en Allemagne (et par répercussion sur ses voisins européens, en raison de
l’interconnexion des réseaux électriques) les effets néfastes de la décision prise en 2011
d’arrêter progressivement d’ici 2022 toutes les centrales nucléaires allemandes (dont huit
immédiatement) : augmentation du coût de l’électricité (les ménages allemands paient
désormais 1000 € par an en moyenne pour leur électricité, soit plus du double qu’il y a 10
ans) ; augmentation des émissions de CO2 (l’Allemagne est le pays le plus pollueur de l’Union
Européenne par habitant ou au total, le contenu en CO2 de chaque kWh produit en Allemagne,
censé baisser pour tenir les engagement européens, a grimpé de 6,7 % de 2010 à 2012. Les
130 centrales au charbon tournent à fond, la construction de 20 centrales au charbon a été
décidée, on sollicite même le lignite_ 68 % remis en exploitation_, l’une des énergies les plus
polluantes) ; saturation indésirable des réseaux aux heures creuses et risque d’écroulement des
réseaux aux heures de pointe (pour éviter les pannes, les opérateurs ont dû importer du
nucléaire de France et de République tchèque et remettre en route une vieille centrale au fioul
en Autriche).
En revenant en France, le documentaire bourré d’affirmations spectaculaires mais sans grand
fondement scientifique « Gasland » est diffusé sur Canal + en avril 2012. En particulier, pour
la fameuse scène où Mike Markham, fait flamber l’eau de son robinet, il a été établi
scientifiquement d’une manière incontestable que le gaz incriminé est du gaz biogénique, et
non thermogénique ; ce n’est donc pas du gaz de schiste. Suite principalement à cette
diffusion, la recherche et l’exploitation de gaz de schiste sont précipitamment interdites par la
méthode de fracturation hydraulique (la seule actuellement et pour de nombreuses années
encore industriellement opérationnelle) au moins jusqu’à 2017. Ceci, alors que des recherches
14/10/2013
25
limitées expérimentales utilisant cette même méthode étaient recommandées par le rapport de
la Mission d’inspection sur les gaz et huile de schiste remis au Gouvernement le 22 mars
2012, et que le rapport parlementaire du 6 juin 2013, commandé par l’Office parlementaire
d’évaluation des choix scientifiques et technologiques (Opecst) recommande pratiquement la
même approche. Qui s’est soucié d’aller rechercher les statistiques de sécurité (aucun
dommage signalé) de la méthode de fracturation hydraulique utilisée couramment pour la
production secondaire ou tertiaire du pétrole depuis plus de 40 ans en France ?
Il y a un réseau bureautique mondial (ONU, gouvernements, médias, hommes d’affaires,
banquiers) qui s’est organisé autour du climat. Les réunions de Bali, Copenhague, Cancun,
Durham, Rio de Janeiro, Doha organisées par l’ONU pour s’accorder sur la « lutte contre le
réchauffement climatique » se sont soldées par autant d’échecs: les émissions de GES ont non
seulement continué à augmenter, mais elles se sont accélérées. La stratégie de l’Europe a été
fondée sur deux craintes :
1. Que le réchauffement climatique était une menace urgente qui devait être empêchée à
tous prix,
2. Que le monde était à court de combustibles fossiles, ce qui signifiait que le pétrole et
le gaz deviendraient de plus en plus coûteux.
Les deux conjonctures se sont cependant avérées fausses. Dans une période de crise, aucune
des grandes puissances ne veut sacrifier la croissance et le développement à une théorie
prédictive incertaine. Seule l’Europe défend un militantisme climatique actif (440 milliards €
sur 10 ans dépensés par la France en pure perte, Gérondeau, 2012). Elle se présente comme un
exemple, mais personne ne veut imiter un continent en déclin (Allègre, 2012), et de plus elle
ne représente que 10 % (la France seulement 1 %) des émissions de CO2 de la planète. Il
existe cependant d’autres causes que la lutte contre les GES (la géopolitique de l’eau, la faim
dans le monde, les accidents routiers [1,3 millions de morts et 50 millions de blessés par an
dans le monde, Gérondeau, 2012], etc…) qui méritent sans doute de recevoir les crédits et
l’attention des décideurs politiques.
Des scientifiques, de plus en plus nombreux (Pétition d’Oregon, 32000 scientifiques), se sont
pourtant élevés contre le consensus politique qui s’est établi, Cabrol, 2010. Les interdits
religieux qui ont imposé leur loi jusqu’au 19e siècle ont-ils été remplacés fin 20e- début 21e
par ceux de la secte internationale des Ecologistes, qui sévissent dans les partis politiques, les
médias, et même chez certains scientifiques ? Ainsi, l’incroyable tentative faite le 7 avril 2010
par la pétition initiée par Valérie Masson-Delmotte, paléoclimatologue, et signée par 600
scientifiques français, dont notamment le climatologue Hervé Le Treut et le climatologue et
géochimiste Jean Jouzel, tous les trois « anti-sceptiques » virulents et membres de l’Institut
Pierre Simon Laplace (une branche du CEA) et du GIEC, adressée à la ministre de la
Recherche, au directeur de la Recherche, au président de l’Agence d’évaluation de la
recherche, au président de l’Académie des Sciences, au directeur général du CNRS,
etc…Cette pétition condamne les écrits de Claude Allègre et de Vincent Courtillot et
« demande[] une réaction de votre part, et l’expression publique de votre confiance vis-à-vis
de notre intégrité et du sérieux de nos travaux ». Les scientifiques climato-sceptiques serontils contraints, comme Galilée en 1633, d’abjurer à genoux la formule prévue par le SaintOffice ? On a pourtant vu les effets néfastes du mélange idéologie- science avec l’affaire de la
courbe en crosse de hockey de Mann citée plus haut, ou plus récemment avec l’affaire GillesEric Séralini, qui « prouvait » dans son étude publiée en septembre 2012 que des rats de la
souche Sprague-Dawley nourris pendant deux ans avec du maïs transgénique et de l’eau
contenant des traces de l’herbicide RoundUp développaient des tumeurs cancéreuses, alors
que l’on sait depuis 1956 que ces rats développent de telles tumeurs de manière spontanée
dans le dernier quart de leur vie, soit entre 18 et 24 mois (Meunier, 2013). La courbe de
Mann, les recherches de Séralini, la scène de Gasland ou Mike Markham fait flamber l’eau de
14/10/2013
26
son robinet, sont des impostures scientifiques qui ont berné les médias, les politiques et à leur
suite le grand public en général. Les Ecologistes politiques, plutôt que l’affrontement des
idées scientifiques auprès de pairs, préfèrent jouer sur les peurs irraisonnées (dont est issu le
Principe de Précaution, maintenant inscrit dans la Constitution française, et qui apparaît être
surtout un énorme parapluie des politiciens pour se mettre à l’abri des critiques de leurs
décisions, comme par exemple l’achat en 2009 de cent millions de vaccins pour lutter contre
une grippe bénigne, voir Bronner, 2010, sociologue) et pratiquer les affirmations nondémontrées et les attaques ad hominem (c’est-à-dire du genre : « J’affirme, souvent sans
preuve, que les recherches de tel auteur ont été financées par tel lobby, donc il est de
mauvaise foi et n’est pas crédible »). On verra des exemples parfaits de cette méthode dans
Foucart, 2013, journaliste scientifique au Monde, où l’auteur voit dans les domaines
scientifiques du réchauffement climatique, mais aussi de l’influence des insecticides sur les
abeilles, des perturbateurs endocriniens, et des OGM la main du lobby des fabricants de
cigarettes, qui a sévi, il est vrai d’une manière infâme, dans le milieu des années 1950, et qui
serait d’après lui toujours à l’œuvre aujourd’hui pour détruire la vérité scientifique. Par contre
l’auteur ne voit rien à redire dans la méthode employée par Gilles-Eric Séralini pour son étude
de 2012. On peut lire Bélouve, 2009, essayiste, journaliste économique et politique, et
Bruckner, 2011, écrivain et essayiste, pour une critique de l’écologie radicale. Les Verts, non
seulement veulent entraîner le monde entier dans les conséquences désastreuses d’une théorie
non prouvée, mais encore, tels des malthusiens modernes, veulent nous imposer une
décroissance catastrophique pour l’humanité, sous prétexte de « sauver la planète », comme
ces journalistes du 19e siècle qui s’opposaient au développement du chemin de fer en
prétendant que le creusement de tunnels allait entraîner l’asphyxie des malheureux passagers.
à court terme. Devons-nous retourner dans l’obscurantisme ? Où sont le Siècle des Lumières
du 18e et la confiance au progrès et en la science des 19e-20e ? Ont-ils été remplacés par le
pessimisme, le dénigrement et la peur de tout risque ? Toute activité et toute entreprise
humaine sont accompagnées d’un risque.
La sagesse n’est-elle pas, au lieu d’annoncer des catastrophes dont l’homme serait coupable,
de continuer à travailler, observer, réfléchir en appliquant le doute méthodique de Descartes,
(Allègre, 2012), et de prendre des décisions politiques courageuses, à long terme, en fonction
de théories scientifiques prouvées et du sens de l’Etat, et non en fonction d’un électoralisme à
court terme, démagogique, et décliniste ?
Références citées
Allègre, Claude. Ma vérité sur la planète. Plon Fayard, 2007.
Allègre, Claude. Article du Point. 20-27 déc. 2012.
Arrhenius, S. On the influence of carbonic acid in the air upon the temperature of the ground.
The London Edinburgh and Dublin Philosophical Magazine and Journal of Science, 41 (251),
237{276, 1896.
Baverez, Nicolas. Article du Point. 25 juil. 2013.
Belouve, Jean-Michel. La servitude climatique, changement climatique, business et politique.
LiberMédia, 2009.
Broecker, Wallace S. How to build a habitable planet, 1987.
Bronner, Gérald. L’inquiétant principe de précaution. PUF, 2010.
Bruckner, Pascal. Le fanatisme de l’apocalypse, sauver la Terre, punir les hommes. Grasset
Fascelle, Paris, 2011.
Cabrol, Laurent. En vert et contre tous. Le Cherche Midi, 2010.Courtillot, Vincent. Nouveau
voyage au centre de la terre. Odile Jacob, 2009.
De Saussure, H.B. Voyages dans les Alpes. Neuchatel, 1779.
14/10/2013
27
Dufresne, Jean-Louis. L'effet de serre: sa découverte, son analyse par la méthode des
puissances nettes échangées et les effets de ses variations récentes et futures sur le climat
terrestre. Université Pierre et Marie Curie, 2009.
Foucart, Stéphane. La fabrique du mensonge. Denoël Impacts, 2013.
Fourier, Joseph. Mémoire sur les températures du globe terrestre et des espaces planétaires.
1824.
Gérondeau, Christian. Ecologie, la fin. Editions du Toucan, 2012.
Gervais, François. L’innocence du carbonne. Albin Michel. 2013.
Hallam, A. Great geological controversies. Oxford University Press, 1983.
Kirkby, J. et al. Role of sulphuric acid, ammonia and galactic cosmic rays in atmospheric
aerosol nucleation. Nature, 476, 429-433. 24 août 2011.
Le Roy Larurie, Emmanuel. Histoire humaine et comparée du climat, Fayard, 2009.
Marko, Isvan et al. Climat, 15 vérités qui dérangent. Texquis, 2013.
Meunier, Bernard. Faut-il avoir peur des OGM ? Le Figaro, 26-27 janvier 2013.
Murphy, Brendan; Nance R. Damian. Montagnes et supercontinents. Pour la Science, juin
1992.
Nance, R. Damian; Worsley R. Thomas; Moody B. Judith. The supercontinent cycle.
Scientific American, juil. 1988.
Nicolas, Adolphe. 2050, rendez-vous à risques. Belin, 2004.
Nicolas, Adolphe. Futur empoisonné. Quels défis ? Quels remèdes ? Belin, 2007.
Tammet, Daniel. Embrasser le ciel immense, le cerveau des génies. Les arènes, 2009.
14/10/2013
28
Téléchargement