Tabeaud, juin 2006
1
Le réchauffement contemporain entre certitude, controverse et doute
Du cyclone Katrina, aux tempêtes de 1999 en Europe, tout événement météorologique rare est
désormais rattaché au changement « global » : mieux, il en serait la preuve. Le changement
climatique souvent présenté comme une certitude est pourtant encore objet de controverse. Certains
spécialistes refusent l’alarmisme associé au réchauffement, d’autres contestent les résultats des
modèles, les sceptiques se font peu entendre, leurs propos sont parfois caricaturés. Or, « le doute est
le premier pas vers la science ou la vérité ; celui qui ne discute rien ne s'assure de rien ; celui qui ne
doute de rien ne découvre rien (D. Diderot, l'Encyclopédie). Tentons donc de résumer les positions
des sceptiques, nombreux dans la communauté des géographes, à laquelle j’appartiens.
I. Une question centrale : la température de l’atmosphère planétaire
1) La mesure et la remontée du temps
La météorologie scientifique a émergé, il y a trois siècles avec l’invention du thermomètre. Travailler
sur la température à l’échelle des milliers d’années suppose donc de reconstituer les températures de
lieux précis, variés, afin d’en déduire une moyenne planétaire.
Pour remonter le temps au-delà des enregistrements des appareils de mesure, on utilise des traces
dans les solides : les sédiments, les formes de relief hérités, les cernes annuels de bois, les gaz
prisonniers des glaces, la densité des squelettes d’animaux ou leur richesse en isotopes. Ces
indicateurs permettent de reconstituer l’environnement dans lequel ils se sont formés. Les
connaissances sur la radioactivité appliquée à des constituants comme le C14, K40, Ar40, C137, O18,
permettent même de les dater. A l’échelle des temps historiques, les températures sont reconstituées
à partir des sources indirectes : biomarqueurs, documents écrits, peintures, gravures, etc. Mais les
traces sont spatialisées (échelle de la parcelle) et territorialisées (rôle des acteurs). De plus, les
marqueurs biologiques ne répondent au changement climatique qu’avec un décalage, fonction de leur
mobilité propre, de leur mode de reproduction, etc. Seule la succession de toutes les saisons
météorologiques permet de définir un climat. Les informations les plus fréquentes portent seulement
sur une saison, ou même un événement exceptionnel. Dans les archives par exemple, plus que l’aléa,
c’est le risque qui est mentionné. Or la vulnérabilité d’une société change d’un lieu à un autre, d’une
époque à une autre. Beaucoup d’indices localisés concordants sont nécessaires pour approcher une
ambiance climatique dépassant l’échelle locale et il est indéniable que l’imprécision croît lorsque l’on
remonte dans le passé.
Les premiers thermomètres commencent à se diffuser au 17e s, un réseau européen est constitué en
1780 mais au milieu du 19e siècle, par exemple, le réseau français ne compte encore que 24 stations.
C’est avec les progrès de l’aviation militaire puis civile que les stations se multiplient sur les aéroports.
Aujourd’hui il en existe huit fois plus. Mais le réseau n’est pas aussi dense dans certains pays pauvres
ou faiblement peuplés. Par ailleurs, près des 3/4 de la planète sont recouverts d’océans, les
bouées fixes sont rares, les mesures par les bateaux marchands sont localisées sur les routes
maritimes. Les images satellitales, apparues vers 1960, apportent un complément appréciable mais
ne permettent pas un travail sur la durée. Il n’existe donc que quelques longues séries remontant loin
dans le passé (Padoue, Paris, …). De plus elles posent un problème quant à leur environnement. A la
fin du 19e siècle, elles étaient encore entourées d’espaces non bâtis. Les températures relevées
étaient très peu influencées par l’îlot de chaleur urbain, alors qu’aujourd’hui elles sont au cœur des
agglomérations. A Paris Montsouris, si les maximales sont stables, les minimales montrent une
augmentation continue. Celle-ci atteint même +1,1 °C si on compare les moyennes 1931-60 et 1971-
2000. L’écart centre-périphérie est de 1 à 2°C en moyenne. Pour l’IPCC
1
(2001), la contribution de
l'effet des multiples îlots de chaleur urbain à l’augmentation planétaire est faible, de l’ordre de 0,05°C.
Pourtant il est indéniable qu’à partir de la fin du Petit Âge de Glace (PAG), depuis le milieu du 19e s
l’étalement urbain n’a fait qu’amplifier la hausse thermique. La place de l’urbanisation dans la hausse
générale est sans doute minimisée.
1
IPCC : Intergovernmental Panel on Climate Change
Tabeaud, juin 2006
2
2) Une variabilité aux multiples causes
Le système climatique n'est pas et n'a jamais été exempt de variations. Le climat actuel ne représente
qu'une situation provisoire, l'expression d'un équilibre dynamique à la fois fragile et très complexe. Les
composantes de ce système interagissent à des vitesses parfois très différentes : par exemple, aux
échanges atmosphériques rapides répond une circulation océanique lente, dotée d'une forte inertie.
Bien des causes sont à l'origine des changements climatiques. Il est commode d'opposer, parmi elles,
celles qualifiées d'internes, spécifiques de la planète Terre comme la dérive des continents, qui définit
la répartition des terres et des mers, la surrection de chaînes de montagne, les éruptions volcaniques,
l’activité de la biosphère marine et continentale et celles dites externes, tributaires de l’émission
solaire ou du rayonnement reçu par la planète.
La planète connaît donc des variations naturelles de températures, périodiques ou non. La
température moyenne de la Terre oscille naturellement entre +10 et +16 °C. Depuis l’apparition de la
vie sur Terre, elle est restée très stable autour de la température actuelle de 14°C. A l’échelle des
milliers d’années, les hausses et baisses sont dues aux cycles orbitaux de Milankovic, c’est-à-dire à la
position de la Terre par rapport au soleil. L'insolation reçue au cours des 400 000 dernières années
explique les quatre alternances glaciaire/interglaciaire. Ils permettent aussi d’affirmer que la prochaine
glaciation commencera dans 40 000 ans. Les variations pluriséculaires des tâches solaires qui
modifient l’intensité de l’émission, permettent également d’expliquer le PAG du 15 au 19e s.(minimum
de Maunder). Par rapport aux deux-trois siècles doux qui l’ont précédé, il est marqué par un
refroidissement net de 1,5°C en été en Europe et par une pluviométrie soutenue. Le froid semble avoir
connu deux maxima, l’un au 17e s. sous le règne du Roi Soleil et l’autre au début du 19e s. En
Amérique du nord, le second est plus marqué que le premier. Certains glaciers alpins reculent dès
1820, mais les étés restent maussades (grandes famines d’Irlande de 1846 à 1851). A partir de 1880,
le climat se réchauffe partout : c’est la sortie du PAG. De plus, chaque grande période n’est pas
uniforme. Par exemple en Europe, les hivers présentent de façon cyclique tous les trente ans environ
des caractéristiques qui modifient les moyennes annuelles. Tantôt les hivers sont dominés par le froid
vif et la rareté des précipitations (comme dans les années 1950) et tantôt par la douceur associée au
vent et à la pluie (comme dans les années 1990). Des causes naturelles, comme les éruptions
volcaniques peuvent durant quelques mois modifier le climat d’une zone, voire d’un hémisphère.
« L’année sans été » consécutive à l’explosion du volcan Tambora (Indonésie) en 1815 a été
marquée en Europe par des pluies continuelles. A ces causes naturelles aux échelles fines s’ajoutent
les effets des constructions urbaines, des défrichements, des drainages…
En réalité, tous les facteurs interagissent sans cesse, mais avec un poids relatif qui dépend de
l'échelle spatio-temporelle adoptée dans l'analyse. Dans cet emboîtement d'échelles, le découpage
temporel s'opère selon des durées extrêmement différentes qui peuvent s'échelonner de la décennie
jusqu'aux dizaines de millions d'années. Bref, l'approche multiscalaire est indispensable pour démêler
l'écheveau complexe du système climatique.
3) Une hausse globale incontestable depuis un siècle
Malgré les difficultés inhérentes aux améliorations successives des appareils de mesure et à l’inégale
répartition des stations de mesure sur les différents continents, les méthodes statistiques
d’homogénéisation des données mettent en évidence une hausse des températures de l’ensemble de
la planète depuis un siècle. Elle est estimée à 0,6°C (fig. 1) et résulte principalement d’une hausse
des minimales nocturnes. Cette augmentation est régulière dans l’hémisphère austral et n’apparaît
dans l’hémisphère boréal qu’à partir des années 1920. La décennie 1990-1999 fut la plus chaude
depuis le début de la période dotée d’instruments de mesure et peut-être la plus chaude depuis
l’optimum médiéval. Les années récentes ont été parmi les plus chaudes depuis 1860 et ce malgré
l'effet de refroidissement dû à l'éruption volcanique du Pinatubo en 1991.
La période actuelle est incontestablement marquée par un réchauffement qui devrait se confirmer
dans les cinquante années à venir. Pourtant, le réchauffement récent n’excède pas pour le moment la
variabilité « naturelle » de l’holocène dans une fourchette de +2°C à -1°C. Donc l’origine de la hausse
constatée depuis 150 ans est discutée : est-elle totalement dépendante de l'activité solaire ou pour
Tabeaud, juin 2006
3
moitié associée aux activités humaines ? Ce n’est pas le réchauffement contemporain qui fait débat,
c’est son origine. Autrement dit cette hausse est-elle sans précédent et donc a-normale ?
4) Une affaire de norme ?
Sur quelle durée calculer les moyennes des températures afin de définir des valeurs de référence ?
La série de données doit être pluriannuelle afin de gommer les valeurs rares mais doit aussi tenir
compte de l’évolution permanente du climat. L’OMM a donc défini des périodes de 30 ans comme
suffisantes et satisfaisantes. La valeur moyenne de toute grandeur sur une telle période est appelée
« normale climatologique » en ce lieu pour ladite période. L' OMM recommande de choisir les
périodes telles que 1901-1930, 1931-1960, 1961-1990 (1991-2020), qui finissent la succession des
normales climatologiques standards afin d’effectuer des comparaisons entre stations de mesure, entre
régions, etc. et entre périodes trentenaires. Le terme de normale prête donc à confusion car il n’a pas
le même sens que dans le langage commun. La signification du terme « normal » en climatologie ne
préjuge en rien de la distribution normale ou gaussienne de la grandeur considérée.
La période de 30 ans qui sert de calcul aux normales s’applique aux échelles spatiales locales, voire
régionales à l’origine. Ces normales sont définies pour permettre d’intégrer l’évolution du climat. Donc
deux moyennes successives pour la même grandeur en un même lieu sont différentes. Au regard de
la longue durée, laquelle est la plus pertinente ? D’autant que le climat d’une zone, ou d’une portion
de continent connaît des variabilités pluridécennales, pluriséculaires, etc. qui influent sur les
moyennes. Les écarts à la normale définie sur toute la série, ou sur une période trentenaire comme
1961-90, ou sur une autre période de trente ans s’en trouvent modifiés de quelques dixièmes de °C.
Les courbes pluriséculaires comme celle de Mann qui figure dans le rapport de l’IPCC sont contestées
pour leur allure dite « en crosse de hockey » et pour la quasi-stationnarité du climat antérieurement à
l’époque actuelle. La variabilité des températures antérieurement au 20e s est très faible. Si le PAG
apparaît avec moins d’un demi degd’écart avec le présent, l’optimum médiéval s’en démarque très
peu. Ce constat n’a pas manqué d’étonner. Von Storch, par exemple, a utilisé des régressions afin de
reconstituer une courbe de température sur 1000 ans, à partir de mesures et de reconstitutions sur
des sites bien documentés en paléoclimatologie. Les résultats montrent que la courbe de Mann sous-
estime beaucoup la variabilité à moyen et long termes et qu’elle gomme donc la variabilité des siècles
passés pour surestimer celle du présent.
Le rapport de l’IPCC 1995 indique qu’"un faisceau d'éléments suggère qu'il y a une influence
perceptible de l'homme sur le climat global". La hausse est donc considérée par le panel d’experts
comme hors norme.
II. Une relation déterminante : l’effet de serre et la température
1) Des GES en proportions inégales
Alors que l’atmosphère est transparente au rayonnement venu du soleil dans le visible, certains gaz
dit "gaz à effet de serre" (GES) ont la propriété d'absorber le rayonnement infrarouge réémis par le
sol. Cet effet de serre est bénéfique : il relève la température moyenne de l’atmosphère planétaire de
32°C (+14 au lieu de -18°C). Les principaux GES sont la vapeur d’eau, le dioxyde de carbone (CO2),
le méthane, l’oxyde nitreux et les chlorofluorocarbures. Ils n’ont pas tous la même capacité
d’absorption du rayonnement infrarouge ni la même durée de vie dans l’atmosphère. Leur efficacité
quant au processus d’effet de serre est variable. C’est la vapeur d’eau qui est la plus grande
responsable de l’effet de serre. Elle représente 3 à 4 % des gaz atmosphériques. La teneur en vapeur
d’eau de l’atmosphère dépend principalement de l’efficacité du cycle de l’eau, elle-même commandée
par la température. Quand la planète est chaude, les océans sont plus vastes, l’évaporation s’accroît
d’autant que l’air est chaud emmagasine plus de vapeur d’eau. Au second rang des GES, on trouve le
CO2 Il n’entre que pour approximativement 0,03 % des gaz atmosphériques, soit 100 fois moins que la
vapeur d’eau. Pourtant la modélisation du climat futur est effectuée avec le CO2 et non avec la vapeur
d’eau, plus complexe à prendre en compte.
2) La corrélation CO2/température planétaire
Tabeaud, juin 2006
4
Les glaciologues, à partir des caractères des glaces de l’inlandsis antarctique extraites de la carotte
de Vostok, ont montré que depuis 400 000 ans, il existe une corrélation étroite entre les températures
moyennes déduites des isotopes stables de l’O2 et les teneurs en GES. La co-variation à cette échelle
de temps des glaciaires/Interglaciaires est établie.
Or, au 19e s, des savants comme Tyndall et principalement Arrhenius avaient calculé que si le CO2
disparaissait de l’atmosphère, la température diminuerait de 21°C et qu’au contraire si sa
concentration doublait, la température augmenterait de 4°C. Cela semblait alors une solution
technique pour repousser la prochaine ère glaciaire.
En 1957-58, lors de la troisième année géophysique internationale, l’américain C. Keeling mesure à
Hawaï, pour la première fois une teneur en CO2 de l’air. Hawaï est une région de forte activité
volcanique et le CO2 figure parmi les trois principaux gaz émis lors d’éruptions (avec H2O et
l’anhydride sulfureux), ce qui rend un peu suspect la représentativité planétaire de ce site. Mais l’idée
d’un lien entre CO2 et température de la planète fait son chemin. La teneur en CO2 est donc
reconstituée à partir des bulles d’air des glaces des carottes pour la période antérieure à 1958.
D’après cette courbe, avant le 19e s., le CO2 était stable à 3% près, autour d’une teneur en volume de
0,028 %, soit 280 ppmv.
En 1958, les concentrations mesurées sont de 315 ppmv ; elles s’élèvent à 330 ppmv en 1974, 360
ppmv en 1995. C’est la preuve que localement la teneur en CO2 augmente. Ce gaz qui selon l’IPCC
« participe pour 64% de l’effet de serre »
2
expliquerait la hausse thermique concomittente. Les GES
auraient depuis le début de l'ère industrielle augmenté l'énergie reçue par la planète de 2,45 W/m2. La
co-variation devient vite loi de cause à effet. D’autant qu’en 1972, à la fin de la période des Trente
Glorieuses, la courbe de Keeling est vulgarisée pour la première fois, par le rapport Meadows, The
Limits to Growth, commandité par le Club de Rome.
3) Le tournant de 1850 : la fin du PAG et la Révolution industrielle
Autour de 1850 se place une période clef : c’est le début des mesures de température, la sortie du
PAG, le début de la hausse thermique planétaire, l’accroissement des GES et la Révolution
industrielle en Europe. Le synchronisme entre ces faits a largement participé à l’affirmation d’un
rapport entre le dégazage issu de la combustion des énergies fossiles et la hausse des températures.
Au milieu du 19e s., le charbon est le combustible le plus utilisé pour l’industrie, les transports et le
chauffage. La production est de 100 millions de t en 1865. La production augmente jusqu’en 1913,
ensuite elle décline car l’invention du moteur électrique met fin à l’usage industriel du charbon. Or 1t
de pétrole ne produit que 76% du CO2 produit par 1t de charbon. La consommation est à 75 %
européenne en 1872, 50 % en 1900. Les villes industrielles se localisent uniquement en Europe et
aux États-unis, donc dans l’hémisphère nord. Elles occupent souvent des sites de cuvette qui les
rendent célèbres pour leur « smog » local. La diffusion de la pollution se fait sur des distances faibles.
Dès lors il est difficile d’imaginer qu’immédiatement après la Révolution industrielle toute la troposhère
ait pu être si vite modifiée, y compris au-delà de l’équateur météorologique jusqu’à l’Antarctique ce qui
suppose des relais improbables par les vents synoptiques.
4) La température déterminant les teneurs en GES ?
L’expérience banale de l’ouverture d’une bouteille d’eau gazeuse (gazéification issue de l’addition de
CO2) à diverses températures montre bien l’instabilide la réaction chimique CO2 + H2O => H2CO3
(acide carbonique). Le CO2 est d’autant moins soluble que la température augmente, et inversement
pour la pression. Ne pourrait-on imaginer que le réchauffement post-glaciaire a pour conséquence
une libération de gaz prisonnier, ce qui a été observé après chaque déglaciation. En conséquence la
température pilote la composition chimique de l’atmosphère. Cela permettrait d’expliquer pourquoi les
teneurs en GES étaient 4 fois plus élevées il y a 100 millions d’années, que les teneurs soient
constantes au cours de l’optimum médiéval ou du PAG, que les périodes de récession économique du
20e s ne se lisent pas non plus sur la courbe du CO2
La teneur actuelle « inédite » de CO2 devrait continuer à grimper, d’autant que ce gaz a une durée de
2
64% des GES en excluant la vapeur d’eau
Tabeaud, juin 2006
5
vie de 100 ans dans l’atmosphère, pour se stabiliser au cœur de l’interglaciaire où nous vivons. Quant
aux modèles des physiciens, ils se basent sur plusieurs niveaux d’émissions et envisagent des
concentrations autour de 500 ppmv en 2050-2060, jusqu’à 950 en 2100. En même temps, dans 100
ans, l'augmentation du CO2 s'arrêtera par la volonté de ne plus consommer d’énergies fossiles ou par
carence de matière première (épuisement des réserves évaluées à 40 ans pour le pétrole, 60 ans
pour le gaz…). Donc, au-delà, le taux de CO2 devrait diminuer à nouveau en quelques siècles.
III. Une communication à sens unique : s’interroger ou caricaturer ?
Le réchauffement climatique, changement inédit ou non, est au centre des problèmes que nos
sociétés auront à affronter dans les décennies à venir en matière d'environnement. Cela lui confère
une dimension socio-économique et politique indéniable.
1) L’idée d’un changement
Suggérer que les activités humaines commencent à avoir une influence sur le climat place désormais
l’homme et les groupes sociaux dans une position inédite face au climat. Alors que depuis le début de
l’histoire de l’humanité ils n’ont fait que subir, ils sont devenus acteurs du climat, même si ce n’est
qu’involontairement. La vision occidentale de l’homme tout puissant perpétue d’une autre manière les
idéologies marxistes, elles-mêmes aboutissement de la philosophie des Lumières. Et comme l’écrit
Boia « Il n’y a aucun secret que le cataclysme climatique est annoncé de nos jours par ceux qui ne
croient pas aux vertus de la civilisation technologique. Et contesté non moins fortement par les
partisans de ce type de civilisation. Ecologistes contre libéraux : les uns et les autres manipulent les
mêmes données mais mises au service des idéologies opposées. Leurs scénarios s’inscrivent… dans
des schémas historiques… qui ne sont pas inventés aujourd’hui : d’une part, le Progrès…, d’autre
part, le spectre de la décadence ».
Après la conférence de Rio puis Tchernobyl, le débat scientifique sur l’origine du réchauffement est
sorti des joutes entre scientifiques pour devenir politique, stratégique. La première phrase de
l’introduction au rapport de l’IPCC prend position « The IPCC was established by the WMO and the
UNEP in 1988. The aim was, and remains, to provide an assessment of the understanding of all
aspects of climate change, including how human activities can cause such changes and can be
impacted by them. It had become widely recognised that human-influenced emissions of greenhouse
gases have the potential to alter the climate system…. »…
2) Une entreprise sans précédent de communication scientifique
Le « changement climatique » fait l’objet d’un souci de transmission du savoir sans équivalent, et
peut-être sans précédent, dans la recherche scientifique. Ce qui ne peut s’expliquer seulement par le
caractère planétaire du risque, D’abord, l’IPCC produit tous les cinq ans environ une synthèse de l’état
des connaissances en trois volumes énormes publiés pour le dernier, par Cambridge University Press
en 2001 (The scientific basis, 881 p., Impacts, adaptation, and vulnerability, 1032 p., Mitigation, 762
p.). Les rapports sont téléchargeables sur Internet ainsi que des résumés d’une centaine de pages.
De plus, plusieurs milliers de sites Internet résument, exposent, discutent les synthèses de l’IPCC
dans plusieurs langues : anglais, français, espagnol, chinois, russe, japonais... Depuis trente ans, les
articles dans les revues de climatologie et les ouvrages sur le changement climatique représentent
probablement des milliards de pages. Des revues ont même été créées spécialement pour publier le
« savoir nouveau » (Climate change par exemple qui se décrit ainsi « An Interdisciplinary,
International Journal Devoted to the Description, Causes and Implications of Climatic Change » en
1977 chez Springer Verlag, et en langue française La Lettre « Changement global », émanation du
CNFCG (Comité National Français du Changement Global) en 1994, Lusine à GES en 2004, etc). En
ce qui concerne les livres, au moins quatre ou cinq titres « majeurs » sortent chaque année chez les
grands éditeurs français.
Parler ainsi massivement du changement climatique relève d’une entreprise concertée. Cela peut
permettre d’organiser un transfert de connaissances des « experts » vers la société civile.
3) Un optimum aux conséquences seulement négatives ?
1 / 7 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !