La Topoclimatologie : pourquoi le climat varie-t’il sur de très courtes distances? Pierre CARREGA [email protected] Pierre CARREGA est Agrégé de Géographie, Docteur d’Etat et Professeur d’Université. Généraliste par sa formation de Géographe, il s’est spécialisé dans la géographie physique et l’environnement, et en particulier en climatologie et sur les risques attenants. Agé de 55 ans, et Doyen Honoraire de Faculté, il exerce sa profession d’enseignant-chercheur à l’Université de Nice-Sophia Antipolis où il dirige l’Equipe de recherche « Gestion et Valorisation de l’Environnement » (UMR « Espace » / CNRS). Cette équipe a prioritairement axé ses recherches depuis longtemps sur les thèmes de la variation du climat (dans l’espace et le temps) et sur les risques climatiques et hydrologiques. NB : Toute utilisation autre qu’à titre purement individuel de cet exposé est interdite sans le consentement explicite de l’auteur : [email protected] Merci de votre compréhension Qu’est-ce que le climat ? Le climat est la résultante des types de temps quotidiens (beau, couvert, frais, pluvieux, venté, etc) répétés sur des jours et des années (en principe on peut le définir avec au moins 30 ans de mesures). Il se décrit par des valeurs « centrales » (moyenne, médianes, etc ) mais aussi par sa variabilité et ses valeurs extrêmes (écarts-types, « durée de retour » de telle intensité de pluie, etc). Naturellement plus ou moins inconstant selon les lieux, il varie cependant parfois durablement dans le temps (changement climatique qui s’apprécie sur des dizaines et des centaines d’années). Certains l’oublient, qui voudraient que tout écart à la moyenne soit forcément signe de changement instantané : il existe des échelles temporelles. Il varie aussi dans l’espace, sur de grandes distances (quand on change de latitude), mais aussi sur de plus petites distances, dès que le substrat géographique devient complexe et contrasté : terre-mer, montagnes-plaines, sommet-vallée, forêt-prairie, ville-campagne, etc… Il existe donc aussi des échelles spatiales ! On demande souvent : « combien y a-t’il de microclimats à Nice ou à Perpette les Olivettes ? ». Réponse : une infinité … !!! Tout dépend de l’échelle (spatiale) à laquelle on se place. Pour schématiser, il existe 4 ou 5 niveaux d’échelles : le microclimat, le topoclimat, le mésoclimat, et le macroclimat, plus le climat zonal (tempéré, tropical, etc). •Le microclimat concerne les environs très proches d’un point, son domaine d’action est de l’ordre du centimètre à la dizaine de mètres. Il est influencé prioritairement par la nature des roches et du sol, la végétation, les matériaux artificiels (béton, asphalte …). •Le topoclimat intervient avec le relief et les formes du terrain (pentes, vallées, collines, montagnes…). Il joue sur des distances d’environ 10 m à plusieurs kilomètres C’est lui qui sera l’objet de ces pages dans lesquelles on insistera sur la température * Le mésoclimat est le climat régional, entre des dizaines et des centaines de kilomètres. Par exemple : le climat du Languedoc, de l’Alsace, de l’Ile de France … * Le macroclimat dépend en grande partie de l’échelle planétaire pour les mécanismes. C’est par exemple celui de l’Europe de l’Ouest, de la Sibérie, etc Micro Topo Méso En fait, le climat à une échelle donnée, par exemple une région (échelle méso), est le résultat de l’emboîtement de toutes les échelles inférieures … Ces multitudes de microclimats s’associent-ils pour former un topoclimat, et les divers topoclimats se combinent-ils pour donner un climat régional? Oui. Mais les relations vont aussi dans le sens opposé, descendant : par exemple, le topo-climat ne peut s’exprimer QUE parceque le mésoclimat et le macroclimat le laissent faire ! Exemple : Au contraire du sud-est de la France, en Lorraine, la fréquence des inversions locales de températures nocturnes (entre vallées et plateaux) est trop rare pour que ces inversions soient nettement perceptibles, statistiquement. Pourquoi ?! Parce qu’à l’échelle régionale, le ciel est souvent couvert, ce qui empêche Les particularités locales de s’exprimer, à l’inverse des régions méditerranéennes où les nuages sont plus rares. Nous y reviendrons. On entend souvent des batailles de nombres : moi j’ai mesuré ça et toi? Finalement un capteur météorologique, quelle que soit la variable qu’il mesure, n’est représentatif que de lui-même ! Il ne mesure en effet que ce qui se passe SUR lui : la température de sa sonde, la pression du vent sur l’anémomètre, l’eau tombée dans le pluviomètre … En fait il informe sur son super micro-climat « personnel ». Mais on voudrait qu’il représente un environnement plus vaste. Comment faire ?? - D’abord, se mettre d’accord sur ce qu’on veut mesurer : la température de l’air ou celle de la façade d’une maison ou celle juste en dessous du toit ou encore du sol ?? - Ensuite, se donner les moyens pour mesurer ce que l’on cherche… Comment faire ?? ?? Installer le capteur là où les influences jugées indésirables interviendront le moins possible. * Par exemple pour mesurer la température de l’air en mouvement, circulant librement vers 2 m au dessus du sol (convention internationale), il ne faut pas que le soleil rayonne directement sur un thermomètre, ou qu’un objet proche chauffé par le soleil le fasse (mur ou paroi rocheuse trop proche), donc il faut un abri ventilé. * Pour mesurer la vitesse du vent, il ne faut pas être contre un mur ou sous des arbres, etc, etc… Il existe donc des normes « standard » à respecter pour que les mesures obtenues soient comparables à d’autres. Ainsi, on saura si tel endroit est plus chaud ou non que tel autre parce que les conditions de mesures sont les mêmes. Et, sauf cas contraire bien spécifié, quand on parle de température, c’est toujours de celle de l’air, sous abri blanc ventilé (ou conditions comparables). Donc pas celle d’un avant-toit, d’une façade, d’un tronc d’arbre, etc… 1. La variabilité spatiale des éléments du climat : les observations. Dans les régions au relief non homogènes (en dehors des plaines), au cours du moindre déplacement, l’on constate que la température change vite d’un lieu à un autre, sur quelques mètres ou dizaines de mètres. C’est encore plus net pour le vent, et qui n’a pas vu le rideau de pluie d’un orage s’arrêter net sur un endroit donné, comme ici à Pernes les Fontaines, en septembre 1997 ? En fait, quand on circule en vélo au petit matin le long d’un itinéraire topographiquement contrasté, on ressent très nettement les différences de température sur le visage. Avec un véhicule motorisé et un thermomètre sensible, bien exposé à l’air mais abrité d’un éventuel rayonnement solaire (donc pas les thermomètres équipant de série les autos car, trop encastrés, ils réagissent trop lentement pour notre besoin) on visualise très vite les changements de température (ou d’humidité) qui peuvent être très rapides : sur quelques mètres parfois ... Qu ickTime™et un d écompr e sseu r TIFF (noncompr es sé) s ont r equ is po ur v iso i nn er c et t eim a ge. Ces écarts sont beaucoup plus prononcés par temps clair et sans vent que par temps couvert ou venté. Ils se produisent pratiquement toujours de la même manière et aux mêmes endroits, pour un même type de temps. QuickT im e™et undéco m presse ur T I FF( noncompr e ssé) son t re quispour vis ionne r ce t t eim ag e. De plus, ils sont différents selon le jour ou la nuit : - le jour, les différences s’observent sur de très petites distances (quelques mètres), mais restent limitées à généralement 2 ou 3 °C ; - la nuit, les écarts s’observent sur de plus longues distances, mais les amplitudes sont nettement plus fortes et peuvent vite atteindre 5 ou 10°C. -Le dessin ci-contre illustre ces différences… Température de l’air (2 m au dessus du sol) près de Vence (Alpes-Maritimes), le 29 janvier 1992 à 2h00 du matin. Cet exemple de mesure « instantanée » montre une inversion thermique nocturne de 10°C sur moins de 50 m de dénivellation, durant une nuit claire. L’air froid s’est accumulé dans un vallon et sur le plateau de la Sine (en bas) où il peut stagner. Les conséquences de ces écarts thermiques peuvent être importantes : risque de « verglas » inattendu, dégâts aux plantes, notes de chauffage ! Mais aussi, fortes concentrations des polluants atmosphériques piégés par la stratification de l’air : l’air chaud supérieur empêche toute montée de l’air froid inférieur… Les inversions thermiques sont la règle la nuit, dès que le ciel est clair et que le vent est calme. Elles mettent plus de temps à se dissiper en hiver car les jours sont courts. Coupe d’une forte inversion thermique. Le 14 décembre 2004 à 8h30, dans la vallée du Paillon (arrière-pays niçois) 200 m 150 T td 100 50 0 -6 -4 -2 0 2 4 6 8 10 12 14 °C La température et le point de rosée (td) ont été mesurés par une sonde accrochée à un ballon captif (attaché par un fil). L’inversion a une épaisseur de 170m (au-dessus, la température de l’air diminue quand on monte. La destruction de l’inversion a commencé par la base : le soleil chauffe le sol qui lui-même chauffe l’air sus-jacent par conduction. La température est de 6°9 à +2m, 6°5 à 10m, 13°4 à 164m. Le td, qui exprime une charge de vapeur d’eau dans l’air, diminue en altitude. Les inversions se produisent dans les talwegs et points bas (vallées, cuvettes) dans lesquels l’air refroidi par le rayonnement terrestre s’écoule par gravité. Si l’air est humide (td proche de T) ou le ciel couvert, l’effet de serre diminue sensiblement ce refroidissement, et l’inversion ne se crée pas, ou mal. Si le vent souffle, il exerce un brassage de l’air qui homogénéise les températures et empêche toute stratification thermique par densité : pas d’inversion. Les conséquences de la constitution de « lacs » d’air froid piégé par inversion thermique : environs de St Paul de Vence le 10 novembre 2004 à 9h15 Air chaud Air froid La fumée des brûlis ne peut s’élever (l’air au dessus est plus chaud) : elle stagne et s’étale horizontalement dans l’air froid immobile. Un peu de civisme joint à un peu de savoir climatologique suggèrent de ne pas brûler de déchets végétaux à partir d’environ 1/2 h avant le coucher du soleil jusqu’à au moins 2 h après son lever, en hiver surtout : la fumée ne monte plus, et en plus ça ne sent pas toujours bon ! La fumée est aussi un excellent traceur des mouvements de l’air Ici, à Vence dans les AlpesMaritimes, à 8 km de la mer, dès que le soleil se couche l’air s’écoule d’amont (à droite) vers l’aval (à gauche), vers le sud et la mer, en suivant la pente… Merci pour les voisins du dessous ! Il est 17h, en hiver, et ça va fumer longtemps !! Le malheur des uns fait le bonheur du Chercheur qui visualise ainsi l’écoulement de l’air. Des photos prises à cadence régulière et visionnées ensuite, montrent en 30 secondes de «film» ce qui s’est passé en 1 heure. Cette accélération du temps révèle les mouvements trop lents pour être découverts à «l’œil nu». Mais cette information est surtout « qualitative » : on est incapable par cette technique, de quantifier la vitesse d’écoulement de cette brise de pente « catabatique »… On a alors recours à d’autres techniques. La technique la plus classique de mesure de l’écoulement de l’air est l’anémomètre pour la vitesse (généralement à coupelles sur axe vertical), et la girouette pour la direction (ci-contre). Ces appareils suffisent pour la plupart des cas, mais pour d’éventuelles mesures à pas de temps très rapproché (la seconde ou moins), il est nécessaire d’utiliser d’autres systèmes du fait du décalage de réponse entre l’anémomètre et la girouette, ou de toutes façons de l’inertie des systèmes réagissant ensemble (« anémo-torpille » à une hélice). On utilise alors les anémomètres à 2 hélices (2D) ou même à 3 hélices (3D) comme ci-contre lors d’une expérience visant à corréler la vitesse de propagation des flammes avec la vitesse du vent. Chaque hélice est calée à 90° de l’autre et tourne d’autant plus vite que le vent lui est perpendiculaire. On obtient une vitesse sur l’axe Nord-Sud, une sur l’axe Est-Ouest, ce qui permet de reconstituer le vecteur vent (vitesse et direction), et une, verticale. Il existe d’autres appareils comme ceux à fil chaud (mais n’indiquant qu’une vitesse) ou encore les « soniques », performants et … coûteux ! On peut aussi avoir recours à d’autres techniques, en particulier celle des «CLB» (de l’américain : Constant Level Balloon), également nommés « ballons plafonnants ». Il s’agit d’utiliser un ballon spécial comme traceur des mouvements de l’air. Celui-ci mesure 90 cm de diamètre et il porte un poids servant à l’empêcher de trop monter en altitude. A l’inverse des classiques ballons en caoutchouc, son enveloppe en mylar indéformable ne peut se distendre, ce qui lui permet de se comporter comme une bulle d’air, de sorte qu’une fois en équilibre avec la pression de l’air environnant, ses mouvements ne sont pas dûs à une différence de densité avec l’air, mais représentent bien les mouvements de l’air. On peut alors suivre le déplacement du ballon qui fait partie intégrante de la masse d‘air en déplacement que l’on étudie. La poursuite s’effectue : - soit visuellement, à l’estime, sur de relativement longues distances (parfois plus de 10 km) en automobile par exemple, - soit avec des instruments optiques fixes pour obtenir une bonne précision sur les mouvements de l’air : télémètre pour mesurer la distance observateur-ballon, et théodolite pour l’estimation de l’angle d’azimut (par rapport au Nord par exemple) et de l’angle de « site » (hauteur angulaire du ballon par rapport à l’horizon). On relève la position du ballon toutes les 30 secondes par exemple, ce qui permet un suivi assez fin dans le temps, et par exemple de calculer la vitesse du vent (du ballon)… Le suivi de ces ballons fournit de précieuses informations sur les mouvements de l’air qu’il faut néanmoins interpréter par la suite. Dans la photo ci-contre par exemple, prise en fin de nuit, le CLB va survoler l’usine et sa cheminée sur le versant de la vallée et confirmer la stabilité de l’air (due à l’inversion thermique nocturne) déjà suggérée par la forme horizontale aplatie du panache de fumée. Le ballon va suivre ici une trajectoire rectiligne et horizontale, mais dans d’autres cas il peut monter ou descendre plus ou moins durablement. Les causes des fluctuations d’altitude (ascendances et subsidences) sont au nombre de deux, qui peuvent également se conjuguer : - thermiques, - dynamiques. Qu ickTime™et un d écompr e sseu r TIFF (noncompr es sé) sont r eq uis p our visionn er c et t eim a ge. Ascendances thermiques sur une surface chaude. Dans le premier cas, le moteur de l’ascension (ou de la descente) de la masse d’air enveloppant le ballon est sa différence de densité avec son environnement. Les substrats plus chauds génèrent ainsi des ascendances qui sont la base de la convection de l’air : des grosses bulles surchauffées décollent du sol, et tendent à se réunir en colonnes au cours de leur montée. Ce sont ces cheminées que recherchent les planeurs et parapentistes qui tournent pour rester à l’intérieur d’une de ces « pompes » dont le diamètre est souvent de l’ordre de 100-200 m, et dont les vitesses atteignent 3-4 m/s (et même plus). Inversement, au-dessus d’une surface froide, l’air s’affaisse car il est plus lourd, et le ballon descend lui aussi… Dans le second cas, le moteur «dynamique » est lié aux perturbations mécaniques de l’écoulement par le relief. rotor Lorsqu’un relief est situé sur le chemin d’un flux, celui-ci tend à monter pour franchir l’obstacle « au vent », d’autant plus que l’air est « instable » *. Une fois le relief franchi, l’air redescend, souvent plus bas que son altitude d’origine, comme le montrent les modèles des physiciens spécialistes de la dynamique des fluides. En fait, ce type de mouvement est assez complexe dans le détail, d’autant que selon l’angle des pentes, et surtout selon leur raccord plus ou moins brutal avec la topographie environnante, des mouvements tourbillonnaires à axe horizontal apparaissent : les « rotors ». Ces rotors jouent un rôle important sur la concentration des polluants de l’air puisqu’ils tendent à les piéger en les recyclant sur place dans leur mouvement rotatif. * Instable : tendance qu’a une masse d’air à monter et à ne pas revenir à son point de départ pour des raisons de différence de densité : la masse d’air monte tant qu’elle demeure plus chaude que son environnement. Ce phénomène très courant se produit surtout de jour sur terre en particulier au printemps et en été, par fort rayonnement solaire chauffant le sol, surtout si de l’air relativement froid en altitude accentue le gradient thermique … 2. La variabilité spatiale des éléments du climat : les explications. De fil en aiguille, on voit bien qu’une explication en appelle une autre, et que, immanquablement, finit par se poser le problème du moteur et des mécanismes. On y arrive donc … En simplifiant, ce qui fait varier la température d’un lieu à un autre, c’est essentiellement la chaleur rayonnante non consommée par l’évaporation d’une part, et d’autre part la chaleur « advectée » c’est à dire la température intrinsèque de la masse d’air qui recouvre le lieu. On approche cette « chaleur rayonnante » en la mesurant à l’aide d’un radiomètre Infra-Rouge (parfois appelé « thermomètre sans contact »), appareil qui capte le rayonnement IR émis par une surface. Comme ce rayonnement est fonction de l’émissivité du corps émetteur et de sa température (loi de Stefan) cette mesure donne la température de la surface visée. Quand on effectue un trajet de seulement quelques mètres, de jour, par beau temps ensoleillé, en mesurant la température du sol à l’aide d’un thermomètre « infra-rouge », on constate une très forte variabilité de la température du sol. Une carte de ces températures instantanées montrerait un véritable patchwork, avec des écarts de plusieurs degrés sur quelques centimètres. Voici par exemple quelques mesures de différentes surfaces naturelles ou artificielles (maison) : 15:45 17:15 19:15 2:00 8:00 0:00 13:30 18:30 9:30 25 20 heure °C Clair Couvert 15 S W 10 N E 5 0 -5 Par ciel clair sans nuages, les différences entre façades sont sensibles en journée : près de 15°C d’écart entre murs exposés au Sud et au Nord ! à 15h45. La nuit, les températures baissent et s’égalisent. Forte amplitude quotidienne (écart jour-nuit) : 23° le 3 février le 4 février le 5 février Le 6 février Par ciel couvert, quasiment aucune différence, même en journée (1°C d’écart maxi à 13h30), et les murs sont tous froids. Faible amplitude quotidienne : 3° Températures de la surface des murs d’une maison (villa) selon leur orientation, du 3 au 6 février 2005 près de Vence (Alpes-Maritimes). Qui d’entre vous se régale avec sa voiture noire -ou simplement foncée- en été ? Voici encore des températures comparées de surfaces naturelles variées entre le 3 et le 6 février 2005 : 20 °C 3 et 4 février 5 et 6 février 18 CLAIR 16 COUVERT 14 12 10 8 pré horizontal pré orienté W pente 15° 6 4 5 et 6 février 2 0 -2 -4 -6 18 :3 0 09 :3 0 00 :0 0 13 :3 0 08 :0 0 19 :0 0 02 :0 0 15 :4 5 17 :1 5 -8 sable-gravier nu air sous abri Les effets de l’exposition au soleil sont nets : 6° de plus sur le pré orienté à l’ouest, l’après-midi. De jour le sol est plus chaud que l’air, mais la nuit l’inversion apparaît : 10° d’écart entre surface du pré (dont l’air emprisonné dans l’herbe fait office d’isolant par rapport au sol) et air sous abri (+2m). La surface du sol nu est donc logiquement moins froide que celle du pré. Le bénéfice de l’accumulation de chaleur par le pré pentu se fait sentir encore en fin de nuit… Par temps couvert, tous les écarts s’amenuisent considérablement. Ce type de mesure permet de constater que les écarts thermiques entre différents types de substrats dépendent de ces derniers sous une condition : que le ciel soit dégagé, sans nuages, et on peut rajouter : que l’air soit le plus sec et pur possible. Nous allons bientôt voir pourquoi …. Lorsque le radiomètre infra-rouge est fixé cette fois sur un satellite (comme ici le Noaa), il couvre ainsi un grand espace révélant des écarts thermiques impressionnants selon les surfaces. On voit très bien les villes ainsi que les plaines de la vallée du Rhône plus chaudes (en noir). A l’opposé, le blanc (froid) caractérise soit les surfaces supérieures des nuages, soit celles des hautes montagnes. Par contraste, à cette heure où les inversions thermiques ne se sont pas encore mises en place, les vallées plus chaudes forment de beaux liserés plus foncés. En fait, la mise en évidence –séduisante et pédagogique- de la température de surface de la terre, ne doit pas masquer la complexité des phénomènes thermiques, que l’on va malgré tout aborder. Pour comprendre la variabilité spatiale du climat et en tous cas des températures, il faut comprendre les mécanismes de transfert de la chaleur et jeter un œil sur l’équation générale du bilan d’énergie. R+K+C+L=0 Où R est le bilan radiatif, K le transfert d’énergie par conduction, C le transfert d’énergie par advection, et L la chaleur « latente » libérée ou consommée par les changements d’état de l’eau. Sans trop rentrer dans les détails : R, représente l’énergie radiative restant à la surface du sol une fois qu’on a mesuré tout le rayonnement solaire effectivement parvenu au sol (et rescapé du filtre atmosphérique), tout le rayonnement terrestre * émis vers l’atmosphère et l’espace, et la partie de rayonnement atmosphérique qui est parvenue au sol. * c’est ce rayonnement que capte le satellite, et il se trouve qu’il est proportionnel à la température de la surface émettrice… Il faut en effet se souvenir que plus un corps est chaud plus il rayonne, et plus les rayons sont de courte longueur d’onde. Application : la surface du soleil (environ 6000°C) rayonne bien plus que celle de la terre (15°C en moyenne), et majoritairement dans la longueur d’onde du « visible » que notre capteur personnel (nos yeux) nous permet de jauger, alors que la terre rayonne dans l’infra rouge, de plus grande longueur d’onde. Le rayonnement IR est facilement absorbé par les gaz à effet de serre (eau, dioxyde de carbone, méthane, etc), donc les nuits humides ou à ciel couvert ne sont jamais très froides, la perte de chaleur du sol par rayonnement IR étant limitée. Ainsi tous les records de froid ont lieu par nuit très claire, avec de l’air sec. Un point important expliquant la plus ou moins grande absorption du rayonnement solaire par le sol est la couleur de ce dernier : plus elle est claire, plus les rayons sont réfléchis (donc non absorbés), et moins le sol se réchauffe ; et vice versa. C’est pourquoi les capteurs solaires sont peints en noir mat (absorption maximale), et que rentrer dans une auto de couleur noire en été fait passer un plus mauvais moment (sauf pour les amateurs de bains turcs) qu’avec une auto de couleur claire… La conduction K est de moindre importance, par rapport au rayonnement, mais elle va transférer la chaleur –ou le froid- du sol vers l’atmosphère. Et elle va également régler le transfert de chaleur depuis la surface vers la profondeur du sol en journée, et inversement de la profondeur vers la surface, de nuit. Et là, les conséquences de la conductivité – c’est-à-dire de la capacité du sol à conduire la chaleur- sont très grandes pour expliquer les contrastes thermiques des surfaces : - Les sols (ou roches) conducteurs sont toujours peu chauds le jour, et peu froids la nuit puisqu’ils transmettent aisément le flux thermique. - Les sols peu conducteurs vont au contraire avoir tendance à surchauffer de jour au soleil (puisqu’ils transmettent peu la chaleur en profondeur): vous avez déjà marché pieds nus sur du sable en été ?! Par contre la nuit ils sont froids, puisqu’ils ne bénéficient pas de la chaleur interne du sol. De la même manière d’ailleurs, toujours de nuit, un sol couvert d’herbe est plus froid (gelées) que s’il est nu. L’advection, au contraire de la conduction ne peut concerner que des fluides (air ou eau, essentiellement, puisque dans ce processus, les molécules se déplacent avec leur chaleur. C’est surtout l’intervention de ce mécanisme qui explique que tous les 15 mars par exemple, par ciel bien dégagé, avec donc un apport radiatif solaire exactement similaire d’une année à l’autre, il ne fait pourtant pas du tout, parfois, la même température ! Il suffit de se souvenir du début mars 2005… On aborde à nouveau ici la notion de flux d’air : le vent c’est de l’advection, qui, selon sa provenance provoque des températures fort variées… D’ailleurs on le sait bien intuitivement quand on oppose une vague de chaleur venue du sud aux frimas septentrionaux (dans l’hémisphère nord!). On voit aussi se dessiner maintenant des combinaisons et des interactions : -par exemple, sur une région dont le sol est foncé et peu conducteur, l’air au contact de ce substrat va être surchauffé par conduction, et en se déplaçant vers une région moins chaude, il apporte des calories par advection. - Autre exemple : après une chute de neige, les rayons solaires vont être massivement réfléchis (environ 70%), ce qui tend à maintenir la neige au sol puisqu’elle reçoit peu de calories. Par contre, le skieur, absorbant une partie du rayonnement réfléchi par la neige, en plus de l’apport solaire direct, va donc être exposé à un surcroît de rayons , ce qui accentue son bronzage ! La chaleur latente va concerner l’énergie (537 calories par gramme d’eau) que consomme l’évaporation, ou que libère la condensation (la fusion de la glace ou son contraire ont à peu près 7 fois moins de conséquences). L’énergie disponible au niveau du sol étant toujours utilisée en priorité pour évaporer, et non pour chauffer, on comprend pourquoi les secteur humides (étangs, tourbières, mais aussi la mer) ou simplement le sol après la pluie sont « frais ». Arroser, mouiller le sol en été, est une manière d’empêcher un trop fort réchauffement… Enrober une bouteille d’eau, de vin… d’un linge maintenu humide en permanence, permet aussi à ces boissons de conserver leur fraîcheur. Au total, il n’est pas difficile d’imaginer que l’association de tous ces facteurs aboutit à expliquer les inégalités de températures que l’on constate entre certains lieux, au même moment, ou dans un même endroit, mais à des moments différents ! Puisqu’à un moment donné les températures de surfaces voisines sont contrastées (ainsi que de l’air au-dessus), le gradient thermique (la différence) résultant engendre un gradient de pression : l’air audessus d’un sol surchauffé devient moins dense, s’élève, ce qui fait baisser la pression atmosphérique à cet endroit. Inversement, l’air froid plus lourd se tasse, et sa pression s’accroît. L’écart de pression de l’ordre de quelques hecto-Pascals (hPa) existant au même moment au-dessus de deux substrats thermiquement contrastés provoque un flux compensatoire : la brise. Cette brise « thermique » existe en particulier dans 3 types de contrastes : - la terre et la mer (ou un grand lac), - les vallées et montagnes voisines, - une grande ville et la campagne environnante. Ce mécanisme de brise est bien connu et décrit dans nombre d’ouvrages. La nuit le continent (où les pentes sommitales) se refroidit davantage que la mer qui reste à la même température que le jour. Il s’ensuit un écoulement de la terre plus froide vers la mer (ou des sommets vers les vallées en aval). Le jour, c’est l’inverse… Les choses se compliquent lorsque le relief touche la mer, surtout si les vallées sont parallèles au littoral : la brise de mer (de terre) est alors perpendiculaire à la brise de vallée (de montagne), et d’autres écoulements à échelle plus fine, les brises de pente, se produisent également. En général, ils sont les premiers à se mettre en place, puis cèdent la place aux plus grands systèmes des brises de vallée ou de montagne. Cette mise en place s’effectue dès que la température de chaque substrat se différencie suffisamment : en matinée (terre devenant plus chaude) et en soirée (terre devenant plus froide). Carrega, 1989 Les brises thermiques sont la règle dans les régions où le vent général (synoptique) n’est pas trop fort ni fréquent ET où le temps est clair (faible nébulosité). En effet, un fort vent synoptique comme le Mistral gomme les velléités de brise en balayant tout, mais néanmoins être influencé dans sa vitesse par les effets thermiques : renforcement fréquent l’après-midi sur les plaines chaudes comme le Luc en Provence. Un ciel couvert n’est pas favorable à la brise parce qu’il fait obstacle au rayonnement solaire et à l’infrarouge, d’où l’absence de forts échauffements et donc de contrastes. subsidence anticyclonique D’autres facteurs interviennent aussi comme l’instabilité verticale diurne très favorable à la brise puisque l’air montant « appelle » un remplaçant. couche instable peu épaisse Au contraire une forte subsidence anticyclonique écrase l’air vers le bas ; d’où la faiblesse des brises diurnes pendant les fortes chaleurs de l’été 2003. Pourquoi insister sur ces mécanismes de brise ? Parce qu’ils sont un moteur local essentiel d’advection d’air et parce qu’ils influencent la perception que l’on a du climat. La brise de mer va rendre ainsi plus vivable les fortes canicules, la brise de terre renforcée par un effet Venturi par exemple (accélération comme dans une tuyère) se produisant dans les vallées rectilignes (comme celle du Rhône ou à une autre échelle, celle du Var) persuade les gens qu’il fait très froid, etc. Ces brises sont un bon exemple de « rétro-action négative » : elles tendent à réduire les inégalités thermiques qui les déclenchent !! Enfin, on a vu également que le rôle de cette circulation est très important pour le brassage ou l’absence de brassage de l’air, avec les conséquences imaginables pour la pollution atmosphérique. 3. La cartographie de cette variabilité spatiale : les enjeux … On comprend sans peine que connaître et être capable de reproduire à tout moment ou sur la moyenne d’une trentaine d’années cette variabilité spatiale présente un très grand intérêt. Les applications sont nombreuses et, mieux utilisées, permettraient de faire des économies et parfois de sauver des vies. Mieux savoir comment varie la température sur un espace permet par exemple de : - Mieux cibler l’isolation thermique d’une maison, ou sa puissance de chauffage* ; - Savoir où risque majoritairement d’apparaître le verglas sur une route ; - Montrer du doigt aux jardiniers amateurs ou aux agriculteurs les lieux où le gel est plus fort, pour éviter de planter des espèces inadaptées ou fragiles ; On peut évidemment raisonner de même pour d’autres paramètres que la température, comme par exemple l’humidité (relative ou absolue), la pluie, le vent (là c’est encore plus difficile…). La meilleure manière de représenter un phénomène dans un espace, c’est de le cartographier.! Le problème étant de savoir quelle logique on va suivre pour construire cette carte….. * Bien sûr des normes existent et sont appliquées, mais elles divisent le pays en seulement 3 ou 4 domaines climatiques, et sont incapables de prendre en compte le relief et les contraintes qu’il impose au climat… Il existe deux logiques principales et donc deux démarches pour représenter un paramètre climatique dans un espace : - Une logique déductive, déterministe : Utiliser les connaissances physiques que l’on a du phénomène : par exemple pour cartographier les températures à un moment donné d’une journée, tenir compte du rayonnement fourni par le soleil à tous moments, calculer quelle quantité d’énergie est absorbée par le sol (angle d’incidence des rayons sur le sol, albédo, conductivité, chaleur spécifique, etc), déduire le rayonnement propre du sol, ajouter celui de l’atmosphère qui parvient au sol, déduire l’énergie consommée par l’évaporation, prendre en compte la conduction dans le sol et dans l’air, ainsi que l’énergie advectée par le vent et celle qui part dans la convection verticale… On voit que c’est élégant, logique et efficace, mais c’est aussi lourd, compliqué, long (même pour un ordinateur) et donc coûteux ! Et il faut tout de même des stations de mesures pour valider le modèle. De plus, produire une carte représentant une moyenne sur une longue période devient très problématique ! - Une logique inductive, statistique : On peut aussi raisonner autrement, à condition que des mesures du paramètre recherché existent ; ce qui est souvent le cas puisque des stations météorologiques sont installées par ci, par là,constituant parfois un véritable réseau. Les stations classiques « manuelles » constituent encore, mais de moins en moins la trame de fond des postes de mesure. Elles sont de plus en plus remplacées par des stations automatiques. Les manuelles n’offrent pas de mesures « continues », mais des mini ou maxi quotidiennes, et parfois une valeur toutes les 3 heures. Les automatiques enregistrent en continu, ce qui est un avantage indéniable, même si c’est tout n’est pas rose dans le domaine… Mais ces mesures vont être à la base de la démarche inductive… Le principe est de rechercher une relation forte entre un point de mesure et autre chose… Il y a là deux raisonnements possibles : -Ou bien on considère que chaque station donne des mesures qui ressemblent d’autant plus à celles des stations voisines que ces dernières sont proches, et le but du jeu va être de quantifier les relations entre chaque poste et ses voisins. La philosophie implicite fondé sur la loi de Newton et les modèles gravitaires qui en ont découlé, étant qu’un poste ressemble d’autant plus à un autre poste qu’il en est proche. Bien sûr toutes sortes de distances entre postes sont utilisées, en passant par l’inverse de la distance au carré, la racine carrée de la distance, son logarithme, etc, etc… On parle ici d’autocorrélation spatiale. - Ou bien la relation recherchée ne concerne pas les postes voisins mais l’environnement physique de chaque station. Dans ce cas, on recherche des liens entre les données d’un poste et les caractéristiques environnementales de ce poste. Par exemple : son altitude, son exposition, la valeur de pente du versant, son altitude relative par rapport au fond de la vallée, sa distance à la mer, etc L’outil permettant ce type d’analyse multivariée étant la régression multiple. Il va montrer que la température baisse avec l’altitude, surtout de jour, mais moins la nuit, que plus on s’éloigne de la mer en été, plus la température diurne augmente (mais c’est l’inverse en hiver, car la mer est relativement chaude à ce moment-là), que plus un poste est situé en fond de vallée, plus il y fait froid la nuit (par temps clair), etc, etc… On peut utiliser ici le terme de régressions environnementales. Quelle méthode choisir, l’autocorrélation spatiale ou la régression environnementale ? 1- L’autocorrélation spatiale : Cette grande famille comporte diverses méthodes comme les fonctions Spline ou encore les différents types de Krigeage. Utiliser cette logique donne d’excellents résultats en conditions topographiques monotones, comme une plaine, et dans les lieux ou le gradient est plutôt uniforme et surtout là où il n’y a pas d’effets de seuils ou de contrastes brutaux. Mais en montagne ou en relief contrasté, c’est perdre l’information contenue dans la topographie puisque la seule information utilisée est la valeur des postes plus ou moins voisins. C’est aussi aboutir à de graves erreurs, localement, puisque l’information disponible pour un point quelconque dépend de la position des stations les plus proches. Si par exemple, en simplifiant, le point A dont on cherche la température est encadré par 2 postes B et C, la valeur de A sera proche de celles de B et C. problème : si B et C sont en vallée, et A sur une crête, A va se voir attribuer une valeur de vallée… Or il faut savoir que beaucoup de logiciels de cartographie automatiques fonctionnent par défaut de cette manière, sans que les utilisateurs non avertis se posent la moindre question !! C’est une forme débile d’utilisation irréfléchie de la technique « presse-bouton », malheureusement de plus en plus fréquente. Comme en plus les couleurs sont belles, alors …. Pourquoi se poser des questions ??? 2- La régression environnementale : Elle est séduisante au sens où elle permet d’introduire une logique tenant compte indirectement de la physique des processus. En effet, introduire l’exposition, c’est prendre en compte indirectement la rayonnement solaire potentiel, utiliser l’altitude, c’est tenir compte de la pression atmosphérique et des ces effets sur la température, quantifier l’altitude relative (versant, crête, fond de vallée, etc) c’est voir si l’air froid nocturne pourra stagner et se stratifier en inversion thermique si on est en position basse (vallée) ou au contraire ne fera que dévaler une pente sans « stationner »… Cette logique est applicable à une condition : c’est que certains tests prouvent que l’on peut l’appliquer, et que les coefficients de corrélation entre variable dépendante (la température, par exemple) et variables indépendantes (altitude, exposition, etc) soient satisfaisants. C’est à dire de l’ordre de 0,90, soit environ 80% de variance expliquée (et pas 0,40 !!)… On peut parfaitement la croiser avec la précédente, en particulier pour voir si les résidus de régression du modèle (c’est à dire les différences en chaque point entre sa valeur calculée par le modèle et sa valeur réelle, mesurée, ont une structure spatiale, et en arriver même à « kriger » les résidus. Tout ceci est un peu complexe, et nous n’insisterons pas sur les détails techniques; en revanche en voici des applications sur la cartographie des températures, et celle de la pluie. Carrega, 1992 Carte des températures minimales du 5 juillet 1991 dans les Alpes-Maritimes. Le modèle de régression environnementale a été établi à partir d’un réseau de 20 stations automatiques. Chaque « pixel » (surface élémentaire) mesure 200 m de coté. La gamme des températures va du violet -froid- en haute montagne ; au rouge -chaud. On observe bien l’inversion nocturne de température, avec les fonds des vallées du Var, et surtout de la Tinée ou du Cians. Carte représentant le relief en Toscane (Italie) Carrega, Garcia 2000 Il s’agit d’un Modèle Numérique de Terrain (MNT), avec une maille de 900 m de coté (environ), dont les nœuds ont une altitude connue. Carte représentant la quantité maximale de précipitation en 24 heures susceptible se produire en moyenne une fois par siècle : soit une chance sur 100 chaque année. Selon la logique de l’autocorrélation spatiale (fonction Spline). Carrega, Garcia 2000 Carte représentant la quantité maximale de précipitation en 24 heures susceptible se produire en moyenne une fois par siècle : soit une chance sur 100 chaque année. Selon la logique de l’autocorrélation spatiale (Krigeage). Carrega, Garcia 2000 Carte représentant la quantité maximale de précipitation en 24 heures susceptible se produire en moyenne une fois par siècle : soit une chance sur 100 chaque année. Selon la logique de la régression environnementale, avec krigeage des résidus. On remarque la relation, moins évidente dans les deux cartes précédentes, entre le relief et la pluie… Carrega, Garcia 2000 Conclusion partielle et provisoire : La variation temporelle des éléments du climat est aujourd’hui sur-médiatisée. Par contre la variation spatiale est souvent peu connue et réduite dans les esprits à l’échelle macro ou à l’échelle micro. C’est pourtant à l’échelle topoclimatique que se produise beaucoup de phénomènes climatiques qui comptent pour la vie humaine, et en particulier dans le domaine du risque : orage violent, crue « éclair », constitution de lacs d’air froid et verglas, accumulation d’humidité et condensation (brouillard, nuages ), accentuation de la vitesse du vent, y compris lors des tempêtes, etc Je ne reviendrai pas davantage sur l’intérêt de cette échelle et sur ses applications humaines et économiques, mais j’insiste par contre sur le fait que c’est une climatologie qui peut se pratiquer tous les jours, assez aisément, que ce soit en ville où à la campagne ! Sans forcément beaucoup de moyens techniques, mais avec un peu d’astuce et surtout beaucoup de curiosité. Vence, le 22 mai 2005 Pierre CARREGA [email protected]