Le réchauffement contemporain entre certitude, controverse et doute Du cyclone Katrina, aux tempêtes de 1999 en Europe, tout événement météorologique rare est désormais rattaché au changement « global » : mieux, il en serait la preuve. Le changement climatique souvent présenté comme une certitude est pourtant encore objet de controverse. Certains spécialistes refusent l’alarmisme associé au réchauffement, d’autres contestent les résultats des modèles, les sceptiques se font peu entendre, leurs propos sont parfois caricaturés. Or, « le doute est le premier pas vers la science ou la vérité ; celui qui ne discute rien ne s'assure de rien ; celui qui ne doute de rien ne découvre rien (D. Diderot, l'Encyclopédie). Tentons donc de résumer les positions des sceptiques, nombreux dans la communauté des géographes, à laquelle j’appartiens. I. Une question centrale : la température de l’atmosphère planétaire 1) La mesure et la remontée du temps La météorologie scientifique a émergé, il y a trois siècles avec l’invention du thermomètre. Travailler sur la température à l’échelle des milliers d’années suppose donc de reconstituer les températures de lieux précis, variés, afin d’en déduire une moyenne planétaire. Pour remonter le temps au-delà des enregistrements des appareils de mesure, on utilise des traces dans les solides : les sédiments, les formes de relief hérités, les cernes annuels de bois, les gaz prisonniers des glaces, la densité des squelettes d’animaux ou leur richesse en isotopes. Ces indicateurs permettent de reconstituer l’environnement dans lequel ils se sont formés. Les connaissances sur la radioactivité appliquée à des constituants comme le C14, K40, Ar40, C137, O18, permettent même de les dater. A l’échelle des temps historiques, les températures sont reconstituées à partir des sources indirectes : biomarqueurs, documents écrits, peintures, gravures, etc. Mais les traces sont spatialisées (échelle de la parcelle) et territorialisées (rôle des acteurs). De plus, les marqueurs biologiques ne répondent au changement climatique qu’avec un décalage, fonction de leur mobilité propre, de leur mode de reproduction, etc. Seule la succession de toutes les saisons météorologiques permet de définir un climat. Les informations les plus fréquentes portent seulement sur une saison, ou même un événement exceptionnel. Dans les archives par exemple, plus que l’aléa, c’est le risque qui est mentionné. Or la vulnérabilité d’une société change d’un lieu à un autre, d’une époque à une autre. Beaucoup d’indices localisés concordants sont nécessaires pour approcher une ambiance climatique dépassant l’échelle locale et il est indéniable que l’imprécision croît lorsque l’on remonte dans le passé. Les premiers thermomètres commencent à se diffuser au 17e s, un réseau européen est constitué en 1780 mais au milieu du 19e siècle, par exemple, le réseau français ne compte encore que 24 stations. C’est avec les progrès de l’aviation militaire puis civile que les stations se multiplient sur les aéroports. Aujourd’hui il en existe huit fois plus. Mais le réseau n’est pas aussi dense dans certains pays pauvres ou faiblement peuplés. Par ailleurs, près des 3/4 de la planète sont recouverts d’océans, où les bouées fixes sont rares, les mesures par les bateaux marchands sont localisées sur les routes maritimes. Les images satellitales, apparues vers 1960, apportent un complément appréciable mais ne permettent pas un travail sur la durée. Il n’existe donc que quelques longues séries remontant loin dans le passé (Padoue, Paris, …). De plus elles posent un problème quant à leur environnement. A la fin du 19e siècle, elles étaient encore entourées d’espaces non bâtis. Les températures relevées étaient très peu influencées par l’îlot de chaleur urbain, alors qu’aujourd’hui elles sont au cœur des agglomérations. A Paris Montsouris, si les maximales sont stables, les minimales montrent une augmentation continue. Celle-ci atteint même +1,1 °C si on compare les moyennes 1931-60 et 19712000. L’écart centre-périphérie est de 1 à 2°C en moyenne. Pour l’IPCC1 (2001), la contribution de l'effet des multiples îlots de chaleur urbain à l’augmentation planétaire est faible, de l’ordre de 0,05°C. Pourtant il est indéniable qu’à partir de la fin du Petit Âge de Glace (PAG), depuis le milieu du 19e s l’étalement urbain n’a fait qu’amplifier la hausse thermique. La place de l’urbanisation dans la hausse générale est sans doute minimisée. 1 IPCC : Intergovernmental Panel on Climate Change Tabeaud, juin 2006 1 2) Une variabilité aux multiples causes Le système climatique n'est pas et n'a jamais été exempt de variations. Le climat actuel ne représente qu'une situation provisoire, l'expression d'un équilibre dynamique à la fois fragile et très complexe. Les composantes de ce système interagissent à des vitesses parfois très différentes : par exemple, aux échanges atmosphériques rapides répond une circulation océanique lente, dotée d'une forte inertie. Bien des causes sont à l'origine des changements climatiques. Il est commode d'opposer, parmi elles, celles qualifiées d'internes, spécifiques de la planète Terre comme la dérive des continents, qui définit la répartition des terres et des mers, la surrection de chaînes de montagne, les éruptions volcaniques, l’activité de la biosphère marine et continentale et celles dites externes, tributaires de l’émission solaire ou du rayonnement reçu par la planète. La planète connaît donc des variations naturelles de températures, périodiques ou non. La température moyenne de la Terre oscille naturellement entre +10 et +16 °C. Depuis l’apparition de la vie sur Terre, elle est restée très stable autour de la température actuelle de 14°C. A l’échelle des milliers d’années, les hausses et baisses sont dues aux cycles orbitaux de Milankovic, c’est-à-dire à la position de la Terre par rapport au soleil. L'insolation reçue au cours des 400 000 dernières années explique les quatre alternances glaciaire/interglaciaire. Ils permettent aussi d’affirmer que la prochaine glaciation commencera dans 40 000 ans. Les variations pluriséculaires des tâches solaires qui modifient l’intensité de l’émission, permettent également d’expliquer le PAG du 15 au 19e s.(minimum de Maunder). Par rapport aux deux-trois siècles doux qui l’ont précédé, il est marqué par un refroidissement net de 1,5°C en été en Europe et par une pluviométrie soutenue. Le froid semble avoir connu deux maxima, l’un au 17e s. sous le règne du Roi Soleil et l’autre au début du 19e s. En Amérique du nord, le second est plus marqué que le premier. Certains glaciers alpins reculent dès 1820, mais les étés restent maussades (grandes famines d’Irlande de 1846 à 1851). A partir de 1880, le climat se réchauffe partout : c’est la sortie du PAG. De plus, chaque grande période n’est pas uniforme. Par exemple en Europe, les hivers présentent de façon cyclique tous les trente ans environ des caractéristiques qui modifient les moyennes annuelles. Tantôt les hivers sont dominés par le froid vif et la rareté des précipitations (comme dans les années 1950) et tantôt par la douceur associée au vent et à la pluie (comme dans les années 1990). Des causes naturelles, comme les éruptions volcaniques peuvent durant quelques mois modifier le climat d’une zone, voire d’un hémisphère. « L’année sans été » consécutive à l’explosion du volcan Tambora (Indonésie) en 1815 a été marquée en Europe par des pluies continuelles. A ces causes naturelles aux échelles fines s’ajoutent les effets des constructions urbaines, des défrichements, des drainages… En réalité, tous les facteurs interagissent sans cesse, mais avec un poids relatif qui dépend de l'échelle spatio-temporelle adoptée dans l'analyse. Dans cet emboîtement d'échelles, le découpage temporel s'opère selon des durées extrêmement différentes qui peuvent s'échelonner de la décennie jusqu'aux dizaines de millions d'années. Bref, l'approche multiscalaire est indispensable pour démêler l'écheveau complexe du système climatique. 3) Une hausse globale incontestable depuis un siècle Malgré les difficultés inhérentes aux améliorations successives des appareils de mesure et à l’inégale répartition des stations de mesure sur les différents continents, les méthodes statistiques d’homogénéisation des données mettent en évidence une hausse des températures de l’ensemble de la planète depuis un siècle. Elle est estimée à 0,6°C (fig. 1) et résulte principalement d’une hausse des minimales nocturnes. Cette augmentation est régulière dans l’hémisphère austral et n’apparaît dans l’hémisphère boréal qu’à partir des années 1920. La décennie 1990-1999 fut la plus chaude depuis le début de la période dotée d’instruments de mesure et peut-être la plus chaude depuis l’optimum médiéval. Les années récentes ont été parmi les plus chaudes depuis 1860 et ce malgré l'effet de refroidissement dû à l'éruption volcanique du Pinatubo en 1991. La période actuelle est incontestablement marquée par un réchauffement qui devrait se confirmer dans les cinquante années à venir. Pourtant, le réchauffement récent n’excède pas pour le moment la variabilité « naturelle » de l’holocène dans une fourchette de +2°C à -1°C. Donc l’origine de la hausse constatée depuis 150 ans est discutée : est-elle totalement dépendante de l'activité solaire ou pour Tabeaud, juin 2006 2 moitié associée aux activités humaines ? Ce n’est pas le réchauffement contemporain qui fait débat, c’est son origine. Autrement dit cette hausse est-elle sans précédent et donc a-normale ? 4) Une affaire de norme ? Sur quelle durée calculer les moyennes des températures afin de définir des valeurs de référence ? La série de données doit être pluriannuelle afin de gommer les valeurs rares mais doit aussi tenir compte de l’évolution permanente du climat. L’OMM a donc défini des périodes de 30 ans comme suffisantes et satisfaisantes. La valeur moyenne de toute grandeur sur une telle période est appelée « normale climatologique » en ce lieu pour ladite période. L' OMM recommande de choisir les périodes telles que 1901-1930, 1931-1960, 1961-1990 (1991-2020), qui définissent la succession des normales climatologiques standards afin d’effectuer des comparaisons entre stations de mesure, entre régions, etc. et entre périodes trentenaires. Le terme de normale prête donc à confusion car il n’a pas le même sens que dans le langage commun. La signification du terme « normal » en climatologie ne préjuge en rien de la distribution normale ou gaussienne de la grandeur considérée. La période de 30 ans qui sert de calcul aux normales s’applique aux échelles spatiales locales, voire régionales à l’origine. Ces normales sont définies pour permettre d’intégrer l’évolution du climat. Donc deux moyennes successives pour la même grandeur en un même lieu sont différentes. Au regard de la longue durée, laquelle est la plus pertinente ? D’autant que le climat d’une zone, ou d’une portion de continent connaît des variabilités pluridécennales, pluriséculaires, etc. qui influent sur les moyennes. Les écarts à la normale définie sur toute la série, ou sur une période trentenaire comme 1961-90, ou sur une autre période de trente ans s’en trouvent modifiés de quelques dixièmes de °C. Les courbes pluriséculaires comme celle de Mann qui figure dans le rapport de l’IPCC sont contestées pour leur allure dite « en crosse de hockey » et pour la quasi-stationnarité du climat antérieurement à l’époque actuelle. La variabilité des températures antérieurement au 20e s est très faible. Si le PAG apparaît avec moins d’un demi degré d’écart avec le présent, l’optimum médiéval s’en démarque très peu. Ce constat n’a pas manqué d’étonner. Von Storch, par exemple, a utilisé des régressions afin de reconstituer une courbe de température sur 1000 ans, à partir de mesures et de reconstitutions sur des sites bien documentés en paléoclimatologie. Les résultats montrent que la courbe de Mann sousestime beaucoup la variabilité à moyen et long termes et qu’elle gomme donc la variabilité des siècles passés pour surestimer celle du présent. Le rapport de l’IPCC 1995 indique qu’"un faisceau d'éléments suggère qu'il y a une influence perceptible de l'homme sur le climat global". La hausse est donc considérée par le panel d’experts comme hors norme. II. Une relation déterminante : l’effet de serre et la température 1) Des GES en proportions inégales Alors que l’atmosphère est transparente au rayonnement venu du soleil dans le visible, certains gaz dit "gaz à effet de serre" (GES) ont la propriété d'absorber le rayonnement infrarouge réémis par le sol. Cet effet de serre est bénéfique : il relève la température moyenne de l’atmosphère planétaire de 32°C (+14 au lieu de -18°C). Les principaux GES sont la vapeur d’eau, le dioxyde de carbone (CO 2), le méthane, l’oxyde nitreux et les chlorofluorocarbures. Ils n’ont pas tous la même capacité d’absorption du rayonnement infrarouge ni la même durée de vie dans l’atmosphère. Leur efficacité quant au processus d’effet de serre est variable. C’est la vapeur d’eau qui est la plus grande responsable de l’effet de serre. Elle représente 3 à 4 % des gaz atmosphériques. La teneur en vapeur d’eau de l’atmosphère dépend principalement de l’efficacité du cycle de l’eau, elle-même commandée par la température. Quand la planète est chaude, les océans sont plus vastes, l’évaporation s’accroît d’autant que l’air est chaud emmagasine plus de vapeur d’eau. Au second rang des GES, on trouve le CO2 Il n’entre que pour approximativement 0,03 % des gaz atmosphériques, soit 100 fois moins que la vapeur d’eau. Pourtant la modélisation du climat futur est effectuée avec le CO2 et non avec la vapeur d’eau, plus complexe à prendre en compte. 2) La corrélation CO2/température planétaire Tabeaud, juin 2006 3 Les glaciologues, à partir des caractères des glaces de l’inlandsis antarctique extraites de la carotte de Vostok, ont montré que depuis 400 000 ans, il existe une corrélation étroite entre les températures moyennes déduites des isotopes stables de l’O2 et les teneurs en GES. La co-variation à cette échelle de temps des glaciaires/Interglaciaires est établie. Or, au 19e s, des savants comme Tyndall et principalement Arrhenius avaient calculé que si le CO2 disparaissait de l’atmosphère, la température diminuerait de 21°C et qu’au contraire si sa concentration doublait, la température augmenterait de 4°C. Cela semblait alors une solution technique pour repousser la prochaine ère glaciaire. En 1957-58, lors de la troisième année géophysique internationale, l’américain C. Keeling mesure à Hawaï, pour la première fois une teneur en CO2 de l’air. Hawaï est une région de forte activité volcanique et le CO2 figure parmi les trois principaux gaz émis lors d’éruptions (avec H2O et l’anhydride sulfureux), ce qui rend un peu suspect la représentativité planétaire de ce site. Mais l’idée d’un lien entre CO2 et température de la planète fait son chemin. La teneur en CO2 est donc reconstituée à partir des bulles d’air des glaces des carottes pour la période antérieure à 1958. D’après cette courbe, avant le 19e s., le CO2 était stable à 3% près, autour d’une teneur en volume de 0,028 %, soit 280 ppmv. En 1958, les concentrations mesurées sont de 315 ppmv ; elles s’élèvent à 330 ppmv en 1974, 360 ppmv en 1995. C’est la preuve que localement la teneur en CO2 augmente. Ce gaz qui selon l’IPCC « participe pour 64% de l’effet de serre »2 expliquerait la hausse thermique concomittente. Les GES auraient depuis le début de l'ère industrielle augmenté l'énergie reçue par la planète de 2,45 W/m 2. La co-variation devient vite loi de cause à effet. D’autant qu’en 1972, à la fin de la période des Trente Glorieuses, la courbe de Keeling est vulgarisée pour la première fois, par le rapport Meadows, The Limits to Growth, commandité par le Club de Rome. 3) Le tournant de 1850 : la fin du PAG et la Révolution industrielle Autour de 1850 se place une période clef : c’est le début des mesures de température, la sortie du PAG, le début de la hausse thermique planétaire, l’accroissement des GES et la Révolution industrielle en Europe. Le synchronisme entre ces faits a largement participé à l’affirmation d’un rapport entre le dégazage issu de la combustion des énergies fossiles et la hausse des températures. Au milieu du 19e s., le charbon est le combustible le plus utilisé pour l’industrie, les transports et le chauffage. La production est de 100 millions de t en 1865. La production augmente jusqu’en 1913, ensuite elle décline car l’invention du moteur électrique met fin à l’usage industriel du charbon. Or 1t de pétrole ne produit que 76% du CO2 produit par 1t de charbon. La consommation est à 75 % européenne en 1872, 50 % en 1900. Les villes industrielles se localisent uniquement en Europe et aux États-unis, donc dans l’hémisphère nord. Elles occupent souvent des sites de cuvette qui les rendent célèbres pour leur « smog » local. La diffusion de la pollution se fait sur des distances faibles. Dès lors il est difficile d’imaginer qu’immédiatement après la Révolution industrielle toute la troposhère ait pu être si vite modifiée, y compris au-delà de l’équateur météorologique jusqu’à l’Antarctique ce qui suppose des relais improbables par les vents synoptiques. 4) La température déterminant les teneurs en GES ? L’expérience banale de l’ouverture d’une bouteille d’eau gazeuse (gazéification issue de l’addition de CO2) à diverses températures montre bien l’instabilité de la réaction chimique CO2 + H2O => H2CO3 (acide carbonique). Le CO2 est d’autant moins soluble que la température augmente, et inversement pour la pression. Ne pourrait-on imaginer que le réchauffement post-glaciaire a pour conséquence une libération de gaz prisonnier, ce qui a été observé après chaque déglaciation. En conséquence la température pilote la composition chimique de l’atmosphère. Cela permettrait d’expliquer pourquoi les teneurs en GES étaient 4 fois plus élevées il y a 100 millions d’années, que les teneurs soient constantes au cours de l’optimum médiéval ou du PAG, que les périodes de récession économique du 20e s ne se lisent pas non plus sur la courbe du CO2 La teneur actuelle « inédite » de CO2 devrait continuer à grimper, d’autant que ce gaz a une durée de 2 64% des GES en excluant la vapeur d’eau Tabeaud, juin 2006 4 vie de 100 ans dans l’atmosphère, pour se stabiliser au cœur de l’interglaciaire où nous vivons. Quant aux modèles des physiciens, ils se basent sur plusieurs niveaux d’émissions et envisagent des concentrations autour de 500 ppmv en 2050-2060, jusqu’à 950 en 2100. En même temps, dans 100 ans, l'augmentation du CO2 s'arrêtera par la volonté de ne plus consommer d’énergies fossiles ou par carence de matière première (épuisement des réserves évaluées à 40 ans pour le pétrole, 60 ans pour le gaz…). Donc, au-delà, le taux de CO2 devrait diminuer à nouveau en quelques siècles. III. Une communication à sens unique : s’interroger ou caricaturer ? Le réchauffement climatique, changement inédit ou non, est au centre des problèmes que nos sociétés auront à affronter dans les décennies à venir en matière d'environnement. Cela lui confère une dimension socio-économique et politique indéniable. 1) L’idée d’un changement Suggérer que les activités humaines commencent à avoir une influence sur le climat place désormais l’homme et les groupes sociaux dans une position inédite face au climat. Alors que depuis le début de l’histoire de l’humanité ils n’ont fait que subir, ils sont devenus acteurs du climat, même si ce n’est qu’involontairement. La vision occidentale de l’homme tout puissant perpétue d’une autre manière les idéologies marxistes, elles-mêmes aboutissement de la philosophie des Lumières. Et comme l’écrit Boia « Il n’y a aucun secret que le cataclysme climatique est annoncé de nos jours par ceux qui ne croient pas aux vertus de la civilisation technologique. Et contesté non moins fortement par les partisans de ce type de civilisation. Ecologistes contre libéraux : les uns et les autres manipulent les mêmes données mais mises au service des idéologies opposées. Leurs scénarios s’inscrivent… dans des schémas historiques… qui ne sont pas inventés aujourd’hui : d’une part, le Progrès…, d’autre part, le spectre de la décadence… ». Après la conférence de Rio puis Tchernobyl, le débat scientifique sur l’origine du réchauffement est sorti des joutes entre scientifiques pour devenir politique, stratégique. La première phrase de l’introduction au rapport de l’IPCC prend position « The IPCC was established by the WMO and the UNEP in 1988. The aim was, and remains, to provide an assessment of the understanding of all aspects of climate change, including how human activities can cause such changes and can be impacted by them. It had become widely recognised that human-influenced emissions of greenhouse gases have the potential to alter the climate system…. »… 2) Une entreprise sans précédent de communication scientifique Le « changement climatique » fait l’objet d’un souci de transmission du savoir sans équivalent, et peut-être sans précédent, dans la recherche scientifique. Ce qui ne peut s’expliquer seulement par le caractère planétaire du risque, D’abord, l’IPCC produit tous les cinq ans environ une synthèse de l’état des connaissances en trois volumes énormes publiés pour le dernier, par Cambridge University Press en 2001 (The scientific basis, 881 p., Impacts, adaptation, and vulnerability, 1032 p., Mitigation, 762 p.). Les rapports sont téléchargeables sur Internet ainsi que des résumés d’une centaine de pages. De plus, plusieurs milliers de sites Internet résument, exposent, discutent les synthèses de l’IPCC dans plusieurs langues : anglais, français, espagnol, chinois, russe, japonais... Depuis trente ans, les articles dans les revues de climatologie et les ouvrages sur le changement climatique représentent probablement des milliards de pages. Des revues ont même été créées spécialement pour publier le « savoir nouveau » (Climate change par exemple qui se décrit ainsi « An Interdisciplinary, International Journal Devoted to the Description, Causes and Implications of Climatic Change » en 1977 chez Springer Verlag, et en langue française La Lettre « Changement global », émanation du CNFCG (Comité National Français du Changement Global) en 1994, L’usine à GES en 2004, etc). En ce qui concerne les livres, au moins quatre ou cinq titres « majeurs » sortent chaque année chez les grands éditeurs français. Parler ainsi massivement du changement climatique relève d’une entreprise concertée. Cela peut permettre d’organiser un transfert de connaissances des « experts » vers la société civile. 3) Un optimum aux conséquences seulement négatives ? Tabeaud, juin 2006 5 L’image positive du réchauffement du climat s’est détériorée rapidement au cours des vingt dernières années. Parmi les ouvrages les plus récents, nombreux sont ceux dont le titre est éloquent : Terre, fin de partie (2005), Le climat est-il devenu fou ? (2002), Climat : chronique d’un bouleversement annoncé (2004), Climat ça va chauffer ! (2004) Le climat : jeu dangereux (2004), Le grand dérèglement du climat (2005), etc. Pourtant dans le passé, les périodes chaudes étaient appelées optimum. Les études historiques ont montré que durant les périodes chaudes les sociétés repoussent leurs limites. Le radoucissement postglaciaire, au Moyen Orient, et sans doute aussi ailleurs, permet le passage à l’agriculture. Avec la domestication des plantes et des animaux les mêmes territoires vont nourrir des populations plus nombreuses. En Europe, une révolution technologique a lieu : c’est l’âge du bronze et le développement de l’usage de l’écriture. De même, du 10 au 13e s., en Europe l’optimum médiéval permet la conquête de nouveaux espaces (le Groenland si souvent évoqué), le progrès des échanges et la naissance de sociétés de marchands et de banquiers, les grands défrichements agricoles pour des assolements limitant de plus en plus la jachère, l’expansion urbaine et le mouvement communal. “The three centuries, from about 1000 to about 1300, became one of the most optimistic, prosperous, and progressive periods in European history,” d’après C. Van Doren. Cette période “chaude” et faste est attestée en Russie, avec la colonisation agricole vers le nord, en Asie et la migration vers la Mandchourie, la vallée de l’Amour et les îles septentrionales du Japon. En Amérique, les populations indigènes étendent leurs aires de culture vers le nord en suivant le Mississippi, Missouri et l’Illinois. A la fin du 13e s., des crises secouent les sociétés et l’innovation se ralentit. Le PAG va conduire à plus d’isolement, des famines récurrentes, beaucoup moins d’innovation. Il faudra attendre le milieu du 19e s. pour que la Révolution industrielle transforme radicalement les sociétés. Il faut se méfier des affirmations péremptoires sur ces liens déterministes mais à l’inverse aucune raison majeure ne permet d’affirmer que le réchauffement contemporain aura des conséquences principalement négatives pour l’ensemble de l’humanité. 3) Faire la part de l’incertitude et des marges d’erreur ? Le discours transmis par la presse, la télévision, la publicité (Faisons vite ça chauffe !) est très affirmatif. Les sources d'incertitudes sont pourtant nombreuses : depuis des erreurs quantifiables dans les mesures, dans les reconstitutions des données jusqu’à des projections incertaines sur le fonctionnement du système. La marge d'erreur tolérée par l’OMM dans la calibration du thermomètre est de 0,2°C ; les thermomètres à maximum sont par exemple gradués au 0,5°C près et la marge d’erreur d’un thermographe doit rester inférieure à 1°C. Donc la hausse séculaire de 0,6°C devrait toujours être accompagnée d’une incertitude de + ou – 0,2°C., soit une marge d’erreur égale à 2/3 de la valeur estimée de la hausse séculaire. De son côté, la technique de modélisation actuelle introduit de l’incertitude. Elle vient : - premièrement des hypothèses discutables de départ concernant la croissance démographique et économique, les progrès technologiques et l’approvisionnement énergétique. - deuxièmement de la simplification du fonctionnement physique planétaire, compte tenu des connaissances du moment (mauvaise prise ne compte des nuages et des aérosols par exemple) - troisièmement des éléments du système non intégrés au modèle (les "surprises" ou événement brefs par exemple) Plus la marge d'erreur est importante, plus il est difficile de définir à coup sûr la réalité. Le troisième rapport de l’IPCC propose une évaluation du réchauffement à l'horizon 2100 comprise entre +1,4 °C et +5,8 °C. Pour l’Europe de l’ouest, la fourchette est plus large : soit un réchauffement de +2 à +6°C soit un refroidissement de -4°C si la dérive nord-atlantique n’atteint plus les côtes à ces latitudes. Ces incertitudes devraient conduire à la modestie car elles correspondent à peu de choses près aux variabilités thermiques du quaternaire ! Conclusion Le principe de responsabilité s’applique assurément au réchauffement contemporain. Il est indéniable Tabeaud, juin 2006 6 que l’industrialisation s’est faite à grand coup de pollution, avec une philosophie sans égard pour les ressources de la planète, une vision d’un monde à conquérir sans limites. Il s’agit de ne pas faire n’importe quoi et de réfléchir collectivement et individuellement aux conséquences de nos actes. La variabilité du climat doit être prise en compte par les sociétés. Mais les connaissances techniques contemporaines permettent de penser que les sociétés pourront mieux qu’autrefois faire face au changement, voire même en tirer profit. Les révolutions agricoles ou industrielles sont nées d’innovations qui ont modifié radicalement les modes de production et très largement accru l’espérance de vie. Pourquoi n’en serait-il pas de même au 21e s. ? L’Histoire n’est jamais écrite à l’avance. Reste à refuser le catastrophisme ambiant. References: Acot P., 2004, Histoire du climat, Paris, Perrin Tempus Ammerman, A.J. and L.L. Cavalli-Sforza, 1984, The Neolithic Transition and the Genetics of Populations in Europe, Princeton. Princeton University Press Boia L, 2004, L’homme face au climat, Paris, Les belles lettres Claiborne, R., 1970, Climate, Man, and History, New York. W. W. Norton Deland, A., 1987, Fielding’s Far East, New York. Fielding Travel Books. Esper, J., E.R. Cook, and F.H. Schweingruber, 2002. Low frequency signals in long tree-ring chronologies for reconstructing past temperature variability, Science, 295, 2250-2253 Intergovernmental Panel on Climate Change, 2001. Climate Change 2001: The Scientific Basis. Houghton, J.T., et al., (eds.), Cambridge University Press, Cambridge, U.K, pp 881, Lamb, H., 1977, Climatic History and the Future, Princeton. Princeton University Press Lamb, H., 1982, Climate, History and the Modern World, New York. Methuen McNeill, W.H., 1963, The Rise of the West: A History of the Human Community, Chicago. The University of Chicago Press Lomborg B., 2004, L’écologie sceptique, Paris, Le Cherche midi Mann, M.E. R.S. Bradley, and M.K. Hughes, 1998. Global-scale temperature patterns and climate forcing over the past six centuries. Nature, 392, 779-787 Mann, M.E., R.S. Bradley, and M.K. Hughes, 1999. Northern Hemisphere temperatures during the past millennium: inferences, uncertainties, and limitations. Geophysical Research Letters, 26, 759–762 Mann, M.E., and P.D. Jones, 2003. Global surface temperature over the past two millennia. Geophysical Research Letters, doi:10.1029/2003GLo17814 Maasch K.A. et al. (2005), A 2000-year context for modern climate change, Geografiska Annaler, 87a, 7-15. Nesmes-Ribes E. et Thuillier G.,2000, Histoire solaire et climatique, Paris, Belin Pirenne, H, 1938, Economic and Social History of Medieval Europe, New York. Harcourt, Brace and Co. Van Doren, C., 1991, A History of Knowledge: Past, Present, and Future, New York. Ballantine Books. Von Storch, H., et al., 2004, Reconstructing past climate from noisy data. Science, 306, 679–682 Martine Tabeaud Professeur à L’université Paris Panthéon Sorbonne Institut de géographie 191 rue saint jacques 75005 Paris UMR CNRS 8185 du CNRS 8185 Espaces, nature, cultures Tabeaud, juin 2006 7