Carte Blanche P Carrega

publicité
La Topoclimatologie :
pourquoi le climat varie-t’il
sur de très courtes distances?
Pierre CARREGA
[email protected]
Pierre CARREGA est Agrégé de Géographie, Docteur d’Etat et Professeur
d’Université. Généraliste par sa formation de Géographe, il s’est spécialisé
dans la géographie physique et
l’environnement, et en particulier
en climatologie et sur les risques
attenants.
Agé de 55 ans, et Doyen Honoraire
de Faculté, il exerce sa profession
d’enseignant-chercheur à l’Université
de Nice-Sophia Antipolis où il dirige
l’Equipe de recherche « Gestion et
Valorisation de l’Environnement »
(UMR « Espace » / CNRS).
Cette équipe a prioritairement axé ses
recherches depuis longtemps sur les thèmes de la variation du climat (dans
l’espace et le temps) et sur les risques climatiques et hydrologiques.
NB : Toute utilisation autre qu’à titre purement individuel de cet exposé est interdite sans le
consentement explicite de l’auteur : [email protected] Merci de votre compréhension
Qu’est-ce que le climat ?
Le climat est la résultante des types de temps quotidiens (beau, couvert, frais,
pluvieux, venté, etc) répétés sur des jours et des années (en principe on peut le définir
avec au moins 30 ans de mesures).
Il se décrit par des valeurs « centrales » (moyenne, médianes, etc ) mais aussi par sa
variabilité et ses valeurs extrêmes (écarts-types, « durée de retour » de telle intensité
de pluie, etc).
Naturellement plus ou moins inconstant selon les lieux, il varie cependant parfois
durablement dans le temps (changement climatique qui s’apprécie sur des dizaines et
des centaines d’années). Certains l’oublient, qui voudraient que tout écart à la
moyenne soit forcément signe de changement instantané : il existe des échelles
temporelles.
Il varie aussi dans l’espace, sur de grandes distances (quand on change de latitude),
mais aussi sur de plus petites distances, dès que le substrat géographique devient
complexe et contrasté : terre-mer, montagnes-plaines, sommet-vallée, forêt-prairie,
ville-campagne, etc…
Il existe donc aussi des échelles spatiales !
On demande souvent : « combien y a-t’il de microclimats à Nice
ou à Perpette les Olivettes ? ».
Réponse : une infinité … !!!
Tout dépend de l’échelle (spatiale) à laquelle on se place.
Pour schématiser, il existe 4 ou 5 niveaux d’échelles : le microclimat, le topoclimat,
le mésoclimat, et le macroclimat, plus le climat zonal (tempéré, tropical, etc).
•Le microclimat concerne les environs très proches d’un point, son domaine d’action est
de l’ordre du centimètre à la dizaine de mètres. Il est influencé prioritairement par la
nature des roches et du sol, la végétation, les matériaux artificiels (béton, asphalte …).
•Le topoclimat intervient avec le relief et les formes du terrain (pentes, vallées, collines,
montagnes…). Il joue sur des distances d’environ 10 m à plusieurs kilomètres
C’est lui qui sera l’objet de ces pages dans lesquelles
on insistera sur la température
* Le mésoclimat est le climat régional, entre des dizaines et des centaines de kilomètres.
Par exemple : le climat du Languedoc, de l’Alsace, de l’Ile de France …
* Le macroclimat dépend en grande partie de l’échelle planétaire pour les mécanismes.
C’est par exemple celui de l’Europe de l’Ouest, de la Sibérie, etc
Micro
Topo
Méso
En fait, le climat à une échelle donnée, par exemple une région (échelle méso),
est le résultat de l’emboîtement de toutes les échelles inférieures …
Ces multitudes de microclimats s’associent-ils pour former un topoclimat, et les divers
topoclimats se combinent-ils pour donner un climat régional? Oui.
Mais les relations vont aussi dans le sens opposé, descendant : par exemple, le topo-climat
ne peut s’exprimer QUE parceque le mésoclimat et le macroclimat le laissent faire !
Exemple : Au contraire du sud-est de la France, en Lorraine, la fréquence des inversions
locales de températures nocturnes (entre vallées et plateaux) est trop rare pour que
ces inversions soient nettement perceptibles, statistiquement.
Pourquoi ?! Parce qu’à l’échelle régionale, le ciel est souvent couvert, ce qui empêche
Les particularités locales de s’exprimer, à l’inverse des régions méditerranéennes où les nuages
sont plus rares.
Nous y reviendrons.
On entend souvent des batailles de nombres : moi j’ai mesuré ça et toi?
Finalement un capteur météorologique, quelle que soit la variable qu’il mesure,
n’est représentatif que de lui-même ! Il ne mesure en effet que ce qui se passe
SUR lui : la température de sa sonde, la pression du vent sur l’anémomètre,
l’eau tombée dans le pluviomètre … En fait il informe sur son super micro-climat
« personnel ».
Mais on voudrait qu’il représente un environnement plus vaste. Comment faire ??
- D’abord, se mettre d’accord sur ce qu’on veut mesurer : la température de l’air
ou celle de la façade d’une maison ou celle juste en dessous du toit ou encore du sol ??
- Ensuite, se donner les moyens pour mesurer ce que l’on cherche…
Comment faire ??
??
Installer le capteur là où les influences jugées indésirables interviendront le moins possible.
* Par exemple pour mesurer la température de l’air en mouvement, circulant librement
vers 2 m au dessus du sol (convention internationale), il ne faut pas que le soleil rayonne directement
sur un thermomètre, ou qu’un objet proche chauffé par le soleil le fasse (mur ou paroi rocheuse
trop proche), donc il faut un abri ventilé.
* Pour mesurer la vitesse du vent, il ne faut pas être contre un mur ou sous des arbres, etc, etc…
Il existe donc des normes « standard » à respecter pour que les mesures obtenues soient
comparables à d’autres. Ainsi, on saura si tel endroit est plus chaud ou non que tel autre parce que
les conditions de mesures sont les mêmes. Et, sauf cas contraire bien spécifié, quand on parle de
température, c’est toujours de celle de l’air, sous abri blanc ventilé (ou conditions comparables).
Donc pas celle d’un avant-toit, d’une façade, d’un tronc d’arbre, etc…
1. La variabilité spatiale des éléments du climat : les observations.
Dans les régions au relief non
homogènes (en dehors des
plaines), au cours du moindre
déplacement,
l’on constate que la température
change vite d’un lieu à un autre,
sur quelques mètres
ou dizaines de mètres. C’est
encore plus net pour le vent, et
qui n’a pas vu le rideau de pluie
d’un orage s’arrêter net sur un
endroit donné, comme ici à
Pernes les Fontaines, en
septembre 1997 ?
En fait, quand on circule en vélo au petit matin le long d’un itinéraire topographiquement contrasté,
on ressent très nettement les différences de température sur le visage.
Avec un véhicule motorisé et un thermomètre sensible, bien exposé à l’air mais abrité d’un éventuel
rayonnement solaire (donc pas les thermomètres équipant de série les autos car, trop encastrés, ils
réagissent trop lentement pour notre besoin) on visualise très vite les changements de température
(ou d’humidité) qui peuvent être très rapides : sur quelques mètres parfois ...
Qu
ickTime™et un d
écompr e
sseu
r TIFF (noncompr es
sé) s
ont r equ
is po
ur v
iso
i nn
er c
et t eim a
ge.
Ces écarts sont beaucoup plus prononcés par temps clair et sans vent que
par temps couvert ou venté. Ils se produisent pratiquement toujours de la
même manière et aux mêmes endroits, pour un même type de temps.
QuickT
im e™et undéco
m presse
ur T
I FF( noncompr e
ssé) son
t re
quispour vis
ionne
r ce
t t eim ag
e.
De plus, ils sont différents selon le jour
ou la nuit :
- le jour, les différences s’observent sur
de très petites distances (quelques
mètres), mais restent limitées à
généralement 2 ou 3 °C ;
- la nuit, les écarts s’observent sur de
plus longues distances, mais les
amplitudes sont nettement plus fortes et
peuvent vite atteindre 5 ou 10°C.
-Le dessin ci-contre illustre ces
différences…
Température de l’air (2 m au dessus du sol) près de Vence (Alpes-Maritimes),
le 29 janvier 1992 à 2h00 du matin.
Cet exemple de mesure « instantanée » montre
une inversion thermique nocturne de 10°C sur
moins de 50 m de dénivellation, durant une nuit
claire.
L’air froid s’est accumulé dans un vallon et sur
le plateau de la Sine (en bas) où il peut stagner.
Les conséquences de ces écarts thermiques peuvent
être importantes : risque de « verglas » inattendu,
dégâts aux plantes, notes de chauffage !
Mais aussi, fortes concentrations des polluants
atmosphériques piégés par la stratification de l’air :
l’air chaud supérieur empêche toute montée de
l’air froid inférieur…
Les inversions thermiques sont la règle la nuit, dès
que le ciel est clair et que le vent est calme. Elles
mettent plus de temps à se dissiper en hiver car les
jours sont courts.
Coupe d’une forte inversion thermique. Le 14 décembre 2004 à 8h30,
dans la vallée du Paillon (arrière-pays niçois)
200
m
150
T
td
100
50
0
-6
-4
-2
0
2
4
6
8
10
12
14 °C
La température et le point de rosée
(td) ont été mesurés par une sonde
accrochée à un ballon captif
(attaché par un fil).
L’inversion a une épaisseur de
170m (au-dessus, la température de
l’air diminue quand on monte.
La destruction de l’inversion a
commencé par la base : le soleil
chauffe le sol qui lui-même chauffe
l’air sus-jacent par conduction. La température est de 6°9 à +2m, 6°5 à 10m, 13°4 à 164m.
Le td, qui exprime une charge de vapeur d’eau dans l’air, diminue en altitude.
Les inversions se produisent dans les talwegs et points bas (vallées, cuvettes) dans lesquels l’air
refroidi par le rayonnement terrestre s’écoule par gravité. Si l’air est humide (td proche de T)
ou le ciel couvert, l’effet de serre diminue sensiblement ce refroidissement, et l’inversion ne se
crée pas, ou mal. Si le vent souffle, il exerce un brassage de l’air qui homogénéise les
températures et empêche toute stratification thermique par densité : pas d’inversion.
Les conséquences de la constitution de « lacs » d’air froid piégé par inversion
thermique : environs de St Paul de Vence le 10 novembre 2004 à 9h15
Air chaud
Air froid
La fumée des brûlis ne peut
s’élever (l’air au dessus est plus
chaud) : elle stagne et s’étale
horizontalement dans l’air froid
immobile.
Un peu de civisme joint à un peu
de savoir climatologique suggèrent
de ne pas brûler de déchets
végétaux à partir d’environ 1/2 h
avant le coucher du soleil jusqu’à
au moins 2 h après son lever, en
hiver surtout : la fumée ne monte
plus, et en plus ça ne sent pas
toujours bon !
La fumée est aussi un excellent traceur des mouvements de l’air
Ici, à Vence dans les AlpesMaritimes, à 8 km de la mer, dès
que le soleil se couche l’air s’écoule
d’amont (à droite) vers l’aval (à
gauche), vers le sud et la mer, en
suivant la pente… Merci pour les
voisins du dessous !
Il est 17h, en hiver, et ça va fumer
longtemps !!
Le malheur des uns fait le bonheur du Chercheur qui visualise ainsi l’écoulement de l’air. Des
photos prises à cadence régulière et visionnées ensuite, montrent en 30 secondes de «film» ce
qui s’est passé en 1 heure. Cette accélération du temps révèle les mouvements trop lents pour
être découverts à «l’œil nu».
Mais cette information est surtout « qualitative » : on est incapable par cette technique, de
quantifier la vitesse d’écoulement de cette brise de pente « catabatique »…
On a alors recours à d’autres techniques.
La technique la plus classique de mesure de l’écoulement de l’air est
l’anémomètre pour la vitesse (généralement à coupelles sur axe vertical), et la
girouette pour la direction (ci-contre).
Ces appareils suffisent pour la plupart des cas, mais pour d’éventuelles mesures
à pas de temps très rapproché (la seconde ou moins), il est nécessaire d’utiliser
d’autres systèmes du fait du décalage de réponse entre l’anémomètre et la
girouette, ou de toutes façons de l’inertie des systèmes réagissant ensemble
(« anémo-torpille » à une hélice).
On utilise alors les anémomètres à 2 hélices (2D) ou
même à 3 hélices (3D) comme ci-contre lors d’une
expérience visant à corréler la vitesse de propagation
des flammes avec la vitesse du vent.
Chaque hélice est calée à 90° de l’autre et tourne
d’autant plus vite que le vent lui est perpendiculaire.
On obtient une vitesse sur l’axe Nord-Sud, une sur l’axe
Est-Ouest, ce qui permet de reconstituer le vecteur vent
(vitesse et direction), et une, verticale.
Il existe d’autres appareils comme ceux à fil chaud
(mais n’indiquant qu’une vitesse) ou encore les
« soniques », performants et … coûteux !
On peut aussi avoir recours à d’autres techniques, en particulier
celle des «CLB» (de l’américain : Constant Level Balloon),
également nommés « ballons plafonnants ».
Il s’agit d’utiliser un ballon spécial comme traceur des mouvements
de l’air. Celui-ci mesure 90 cm de diamètre et il porte un poids
servant à l’empêcher de trop monter en altitude.
A l’inverse des classiques ballons en caoutchouc, son enveloppe en
mylar indéformable ne peut se distendre, ce qui lui permet de se
comporter comme une bulle d’air, de sorte qu’une fois en équilibre
avec la pression de l’air environnant, ses mouvements ne sont pas
dûs à une différence de densité avec l’air, mais représentent bien les
mouvements de l’air.
On peut alors suivre le déplacement du ballon qui fait partie
intégrante de la masse d‘air en déplacement que l’on étudie.
La poursuite s’effectue :
- soit visuellement, à l’estime, sur de relativement longues distances (parfois plus de 10 km) en
automobile par exemple,
- soit avec des instruments optiques fixes pour obtenir une bonne précision sur les
mouvements de l’air : télémètre pour mesurer la distance observateur-ballon, et
théodolite pour l’estimation de l’angle d’azimut (par rapport au Nord par exemple) et de
l’angle de « site » (hauteur angulaire du ballon par rapport à l’horizon).
On relève la position du ballon
toutes les 30 secondes par exemple,
ce qui permet un suivi assez fin
dans le temps, et par exemple de
calculer la vitesse du vent (du
ballon)…
Le suivi de ces ballons fournit de précieuses informations sur les mouvements de l’air qu’il
faut néanmoins interpréter par la suite.
Dans la photo ci-contre par
exemple, prise en fin de
nuit, le CLB va survoler
l’usine et sa cheminée sur
le versant de la vallée et
confirmer la stabilité de
l’air (due à l’inversion
thermique nocturne) déjà
suggérée par la forme
horizontale aplatie du
panache de fumée. Le
ballon va suivre ici une
trajectoire rectiligne et
horizontale, mais dans
d’autres cas il peut monter
ou descendre plus ou moins
durablement.
Les causes des fluctuations d’altitude (ascendances et
subsidences) sont au nombre de deux, qui peuvent également se
conjuguer :
- thermiques,
- dynamiques.
Qu
ickTime™et un d
écompr e
sseu
r TIFF (noncompr es
sé) sont r eq
uis p
our visionn
er c
et t eim a
ge.
Ascendances thermiques sur une surface chaude.
Dans le premier cas, le moteur de
l’ascension (ou de la descente) de
la masse d’air enveloppant le
ballon est sa différence de densité
avec son environnement. Les
substrats plus chauds génèrent
ainsi des ascendances qui sont la
base de la convection de l’air : des
grosses bulles surchauffées
décollent du sol, et tendent à se
réunir en colonnes au cours de
leur montée. Ce sont ces
cheminées que recherchent les
planeurs et parapentistes qui
tournent pour rester à l’intérieur
d’une de ces « pompes » dont le
diamètre est souvent de l’ordre de
100-200 m, et dont les vitesses
atteignent 3-4 m/s (et même plus).
Inversement, au-dessus d’une
surface froide, l’air s’affaisse car il
est plus lourd, et le ballon descend
lui aussi…
Dans le second cas, le moteur
«dynamique » est lié aux perturbations
mécaniques de l’écoulement par le relief.
rotor
Lorsqu’un relief est situé sur le chemin
d’un flux, celui-ci tend à monter pour
franchir l’obstacle « au vent », d’autant
plus que l’air est « instable » *.
Une fois le relief franchi, l’air redescend, souvent plus bas que son altitude d’origine, comme le
montrent les modèles des physiciens spécialistes de la dynamique des fluides.
En fait, ce type de mouvement est assez complexe dans le détail, d’autant que selon l’angle des
pentes, et surtout selon leur raccord plus ou moins brutal avec la topographie environnante, des
mouvements tourbillonnaires à axe horizontal apparaissent : les « rotors ». Ces rotors jouent un
rôle important sur la concentration des polluants de l’air puisqu’ils tendent à les piéger en les
recyclant sur place dans leur mouvement rotatif.
* Instable : tendance qu’a une masse d’air à monter et à ne pas revenir à son point de départ pour des
raisons de différence de densité : la masse d’air monte tant qu’elle demeure plus chaude que son
environnement. Ce phénomène très courant se produit surtout de jour sur terre en particulier au
printemps et en été, par fort rayonnement solaire chauffant le sol, surtout si de l’air relativement froid en
altitude accentue le gradient thermique …
2. La variabilité spatiale des éléments du climat : les explications.
De fil en aiguille, on voit bien qu’une explication en appelle une autre, et que, immanquablement,
finit par se poser le problème du moteur et des mécanismes.
On y arrive donc …
En simplifiant, ce qui fait varier la température d’un lieu à un autre, c’est essentiellement la chaleur
rayonnante non consommée par l’évaporation d’une part, et d’autre part la chaleur « advectée »
c’est à dire la température intrinsèque de la masse d’air qui recouvre le lieu.
On approche cette « chaleur rayonnante » en la mesurant à l’aide d’un radiomètre Infra-Rouge
(parfois appelé « thermomètre sans contact »), appareil qui capte le rayonnement IR émis par une
surface. Comme ce rayonnement est fonction de l’émissivité du corps émetteur et de sa température
(loi de Stefan) cette mesure donne la température de la surface visée.
Quand on effectue un trajet de seulement quelques mètres, de jour, par beau temps ensoleillé, en
mesurant la température du sol à l’aide d’un thermomètre « infra-rouge », on constate une très
forte variabilité de la température du sol. Une carte de ces températures instantanées montrerait
un véritable patchwork, avec des écarts de plusieurs degrés sur quelques centimètres.
Voici par exemple quelques mesures de différentes surfaces naturelles ou artificielles (maison) :
15:45
17:15
19:15
2:00
8:00
0:00
13:30
18:30
9:30
25
20
heure
°C
Clair
Couvert
15
S
W
10
N
E
5
0
-5
Par ciel clair sans nuages, les
différences entre façades sont
sensibles en journée : près de 15°C
d’écart entre murs exposés au Sud
et au Nord ! à 15h45.
La nuit, les températures baissent
et s’égalisent. Forte amplitude
quotidienne (écart jour-nuit) : 23°
le 3 février
le 4 février
le 5 février
Le 6 février
Par ciel couvert, quasiment
aucune différence, même en
journée (1°C d’écart maxi à
13h30), et les murs sont tous
froids.
Faible amplitude quotidienne : 3°
Températures de la surface des murs d’une maison (villa) selon leur
orientation, du 3 au 6 février 2005 près de Vence (Alpes-Maritimes).
Qui d’entre vous se régale avec sa voiture noire -ou simplement foncée- en été ?
Voici encore des températures comparées de surfaces naturelles variées entre le 3 et le 6 février 2005 :
20 °C
3 et 4 février
5 et 6 février
18
CLAIR
16
COUVERT
14
12
10
8
pré horizontal
pré orienté W pente 15°
6
4
5 et 6 février
2
0
-2
-4
-6
18
:3
0
09
:3
0
00
:0
0
13
:3
0
08
:0
0
19
:0
0
02
:0
0
15
:4
5
17
:1
5
-8
sable-gravier nu
air sous abri
Les effets de l’exposition au soleil
sont nets : 6° de plus sur le pré
orienté à l’ouest, l’après-midi.
De jour le sol est plus chaud que
l’air, mais la nuit l’inversion
apparaît : 10° d’écart entre surface
du pré (dont l’air emprisonné dans
l’herbe fait office d’isolant par
rapport au sol) et air sous abri
(+2m). La surface du sol nu est
donc logiquement moins froide
que celle du pré. Le bénéfice de
l’accumulation de chaleur par le
pré pentu se fait sentir encore en
fin de nuit…
Par temps couvert, tous les écarts
s’amenuisent considérablement.
Ce type de mesure permet de constater que les écarts thermiques entre différents types de substrats
dépendent de ces derniers sous une condition : que le ciel soit dégagé, sans nuages, et on peut rajouter :
que l’air soit le plus sec et pur possible.
Nous allons bientôt voir pourquoi ….
Lorsque le radiomètre infra-rouge est fixé cette fois
sur un satellite (comme ici le Noaa), il couvre ainsi
un grand espace révélant des écarts thermiques
impressionnants selon les surfaces.
On voit très bien les villes ainsi que les plaines de
la vallée du Rhône plus chaudes (en noir). A
l’opposé, le blanc (froid) caractérise soit les
surfaces supérieures des nuages, soit celles des
hautes montagnes.
Par contraste, à cette heure où les inversions
thermiques ne se sont pas encore mises en place,
les vallées plus chaudes forment de beaux liserés
plus foncés.
En fait, la mise en évidence –séduisante et
pédagogique- de la température de surface de la
terre, ne doit pas masquer la complexité des
phénomènes thermiques, que l’on va malgré tout
aborder.
Pour comprendre la variabilité spatiale du climat et en tous cas des températures, il faut comprendre les
mécanismes de transfert de la chaleur et jeter un œil sur l’équation générale du bilan d’énergie.
R+K+C+L=0
Où R est le bilan radiatif, K le transfert d’énergie par conduction, C le transfert d’énergie par advection, et
L la chaleur « latente » libérée ou consommée par les changements d’état de l’eau.
Sans trop rentrer dans les détails :
R, représente l’énergie radiative restant à la surface du sol une fois qu’on a mesuré tout le rayonnement
solaire effectivement parvenu au sol (et rescapé du filtre atmosphérique), tout le rayonnement terrestre *
émis vers l’atmosphère et l’espace, et la partie de rayonnement atmosphérique qui est parvenue au sol.
* c’est ce rayonnement que capte
le satellite, et il se trouve qu’il est
proportionnel à la température
de la surface émettrice… Il faut en
effet se souvenir que plus un corps
est chaud plus il rayonne, et plus
les rayons sont de courte longueur
d’onde.
Application : la surface du soleil (environ 6000°C) rayonne bien plus que celle de la terre (15°C en
moyenne), et majoritairement dans la longueur d’onde du « visible » que notre capteur personnel (nos
yeux) nous permet de jauger, alors que la terre rayonne dans l’infra rouge, de plus grande longueur d’onde.
Le rayonnement IR est facilement absorbé par les gaz à effet de serre (eau, dioxyde de carbone, méthane,
etc), donc les nuits humides ou à ciel couvert ne sont jamais très froides, la perte de chaleur du sol par
rayonnement IR étant limitée. Ainsi tous les records de froid ont lieu par nuit très claire, avec de l’air sec.
Un point important expliquant la plus ou moins grande absorption du rayonnement solaire par le sol
est la couleur de ce dernier : plus elle est claire, plus les rayons sont réfléchis (donc non absorbés), et
moins le sol se réchauffe ; et vice versa.
C’est pourquoi les capteurs solaires sont peints en noir mat (absorption maximale), et que rentrer
dans une auto de couleur noire en été fait passer un plus mauvais moment (sauf pour les amateurs de
bains turcs) qu’avec une auto de couleur claire…
La conduction K est de moindre importance, par rapport au rayonnement, mais elle va transférer la
chaleur –ou le froid- du sol vers l’atmosphère.
Et elle va également régler le transfert de chaleur depuis la surface vers la profondeur du sol en journée,
et inversement de la profondeur vers la surface, de nuit. Et là, les conséquences de la conductivité –
c’est-à-dire de la capacité du sol à conduire la chaleur- sont très grandes pour expliquer les contrastes
thermiques des surfaces :
- Les sols (ou roches) conducteurs sont toujours peu chauds le jour, et peu froids la nuit puisqu’ils
transmettent aisément le flux thermique.
- Les sols peu conducteurs vont au contraire avoir tendance à surchauffer de jour au soleil (puisqu’ils
transmettent peu la chaleur en profondeur): vous avez déjà marché pieds nus sur du sable en été ?!
Par contre la nuit ils sont froids, puisqu’ils ne bénéficient pas de la chaleur interne du sol. De la même
manière d’ailleurs, toujours de nuit, un sol couvert d’herbe est plus froid (gelées) que s’il est nu.
L’advection, au contraire de la conduction ne peut concerner que des fluides (air ou eau,
essentiellement, puisque dans ce processus, les molécules se déplacent avec leur chaleur.
C’est surtout l’intervention de ce mécanisme qui explique que tous les 15 mars par exemple, par ciel
bien dégagé, avec donc un apport radiatif solaire exactement similaire d’une année à l’autre, il ne fait
pourtant pas du tout, parfois, la même température ! Il suffit de se souvenir du début mars 2005…
On aborde à nouveau ici la notion de flux d’air : le vent
c’est de l’advection, qui, selon sa provenance provoque des
températures fort variées…
D’ailleurs on le sait bien intuitivement quand on oppose
une vague de chaleur venue du sud aux frimas
septentrionaux (dans l’hémisphère nord!).
On voit aussi se dessiner maintenant des combinaisons et des interactions :
-par exemple, sur une région dont le sol est foncé et peu conducteur, l’air au contact de ce substrat va
être surchauffé par conduction, et en se déplaçant vers une région moins chaude, il apporte des
calories par advection.
- Autre exemple : après une chute de neige, les rayons solaires vont être massivement réfléchis
(environ 70%), ce qui tend à maintenir la neige au sol puisqu’elle reçoit peu de calories. Par contre, le
skieur, absorbant une partie du rayonnement réfléchi par la neige, en plus de l’apport solaire direct, va
donc être exposé à un surcroît de rayons , ce qui accentue son bronzage !
La chaleur latente va concerner l’énergie (537 calories par gramme d’eau) que consomme l’évaporation,
ou que libère la condensation (la fusion de la glace ou son contraire ont à peu près 7 fois moins de
conséquences).
L’énergie disponible au niveau du sol étant toujours utilisée en priorité pour évaporer, et non pour
chauffer, on comprend pourquoi les secteur humides (étangs, tourbières, mais aussi la mer) ou
simplement le sol après la pluie sont « frais ». Arroser, mouiller le sol en été, est une manière d’empêcher
un trop fort réchauffement… Enrober une bouteille d’eau, de vin… d’un linge maintenu humide en
permanence, permet aussi à ces boissons de conserver leur fraîcheur.
Au total, il n’est pas difficile d’imaginer que l’association de tous ces facteurs aboutit à expliquer les
inégalités de températures que l’on constate entre certains lieux, au même moment, ou dans un même
endroit, mais à des moments différents !
Puisqu’à un moment donné les températures de surfaces voisines sont contrastées (ainsi que de l’air
au-dessus), le gradient thermique (la différence) résultant engendre un gradient de pression : l’air audessus d’un sol surchauffé devient moins dense, s’élève, ce qui fait baisser la pression atmosphérique
à cet endroit. Inversement, l’air froid plus lourd se tasse, et sa pression s’accroît.
L’écart de pression de l’ordre de quelques hecto-Pascals (hPa) existant au même moment au-dessus
de deux substrats thermiquement contrastés provoque un flux compensatoire : la brise.
Cette brise « thermique » existe en particulier dans 3 types de contrastes :
- la terre et la mer (ou un grand lac),
- les vallées et montagnes voisines,
- une grande ville et la campagne environnante.
Ce mécanisme de brise est bien connu et
décrit dans nombre d’ouvrages. La nuit le
continent (où les pentes sommitales) se
refroidit davantage que la mer qui reste à la
même température que le jour. Il s’ensuit un
écoulement de la terre plus froide vers la mer
(ou des sommets vers les vallées en aval). Le
jour, c’est l’inverse…
Les choses se compliquent lorsque le relief
touche la mer, surtout si les vallées sont
parallèles au littoral : la brise de mer (de
terre) est alors perpendiculaire à la brise de
vallée (de montagne), et d’autres
écoulements à échelle plus fine, les brises de
pente, se produisent également. En général,
ils sont les premiers à se mettre en place,
puis cèdent la place aux plus grands
systèmes des brises de vallée ou de
montagne. Cette mise en place s’effectue dès
que la température de chaque substrat se
différencie suffisamment : en matinée (terre
devenant plus chaude) et en soirée (terre
devenant plus froide).
Carrega, 1989
Les brises thermiques sont la règle dans les régions où le vent général (synoptique) n’est pas trop fort ni
fréquent ET où le temps est clair (faible nébulosité). En effet, un fort vent synoptique comme le Mistral
gomme les velléités de brise en balayant tout, mais néanmoins être influencé dans sa vitesse par les effets
thermiques : renforcement fréquent l’après-midi sur les plaines chaudes comme le Luc en Provence.
Un ciel couvert n’est pas favorable à la brise parce qu’il fait obstacle au rayonnement solaire et à l’infrarouge, d’où l’absence de forts échauffements et donc de contrastes.
subsidence anticyclonique
D’autres facteurs interviennent aussi comme
l’instabilité verticale diurne très favorable à la brise
puisque l’air montant « appelle » un remplaçant.
couche instable peu épaisse
Au contraire une forte subsidence anticyclonique
écrase l’air vers le bas ; d’où la faiblesse des brises
diurnes pendant les fortes chaleurs de l’été 2003.
Pourquoi insister sur ces mécanismes de brise ? Parce qu’ils sont un moteur local essentiel d’advection
d’air et parce qu’ils influencent la perception que l’on a du climat. La brise de mer va rendre ainsi plus
vivable les fortes canicules, la brise de terre renforcée par un effet Venturi par exemple (accélération
comme dans une tuyère) se produisant dans les vallées rectilignes (comme celle du Rhône ou à une autre
échelle, celle du Var) persuade les gens qu’il fait très froid, etc. Ces brises sont un bon exemple de
« rétro-action négative » : elles tendent à réduire les inégalités thermiques qui les déclenchent !!
Enfin, on a vu également que le rôle de cette circulation est très important pour le brassage ou l’absence
de brassage de l’air, avec les conséquences imaginables pour la pollution atmosphérique.
3. La cartographie de cette variabilité spatiale : les enjeux …
On comprend sans peine que connaître et être capable de reproduire à tout moment ou sur la moyenne
d’une trentaine d’années cette variabilité spatiale présente un très grand intérêt. Les applications sont
nombreuses et, mieux utilisées, permettraient de faire des économies et parfois de sauver des vies.
Mieux savoir comment varie la température sur un espace permet par exemple de :
- Mieux cibler l’isolation thermique d’une maison, ou sa puissance de chauffage* ;
- Savoir où risque majoritairement d’apparaître le verglas sur une route ;
- Montrer du doigt aux jardiniers amateurs ou aux agriculteurs les lieux où le gel est plus fort, pour
éviter de planter des espèces inadaptées ou fragiles ;
On peut évidemment raisonner de même pour d’autres paramètres que la température, comme par
exemple l’humidité (relative ou absolue), la pluie, le vent (là c’est encore plus difficile…).
La meilleure manière de
représenter un phénomène
dans un espace, c’est de le
cartographier.!
Le problème étant de savoir
quelle logique on va suivre pour
construire cette carte…..
* Bien sûr des normes existent et sont appliquées, mais elles divisent le pays en seulement 3 ou 4 domaines climatiques, et sont
incapables de prendre en compte le relief et les contraintes qu’il impose au climat…
Il existe deux logiques principales et donc deux démarches pour représenter un paramètre climatique dans
un espace :
- Une logique déductive, déterministe :
Utiliser les connaissances physiques que l’on a du phénomène : par exemple pour cartographier les
températures à un moment donné d’une journée, tenir compte du rayonnement fourni par le soleil à tous
moments, calculer quelle quantité d’énergie est absorbée par le sol (angle d’incidence des rayons sur le
sol, albédo, conductivité, chaleur spécifique, etc), déduire le rayonnement propre du sol, ajouter celui de
l’atmosphère qui parvient au sol, déduire l’énergie consommée par l’évaporation, prendre en compte la
conduction dans le sol et dans l’air, ainsi que l’énergie advectée par le vent et celle qui part dans la
convection verticale… On voit que c’est élégant, logique et efficace, mais c’est aussi lourd, compliqué,
long (même pour un ordinateur) et donc coûteux ! Et il faut tout de même des stations de mesures pour
valider le modèle.
De plus, produire une carte représentant une moyenne sur une longue période devient très problématique !
- Une logique inductive, statistique :
On peut aussi raisonner autrement, à condition que des mesures du paramètre recherché existent ; ce qui
est souvent le cas puisque des stations météorologiques sont installées par ci, par là,constituant parfois un
véritable réseau. Les stations classiques « manuelles » constituent encore, mais de moins en moins la
trame de fond des postes de mesure. Elles sont de plus en plus remplacées par des stations automatiques.
Les manuelles n’offrent pas de mesures « continues », mais des mini ou maxi quotidiennes, et parfois une
valeur toutes les 3 heures. Les automatiques enregistrent en continu, ce qui est un avantage indéniable,
même si c’est tout n’est pas rose dans le domaine…
Mais ces mesures vont être à la base de la démarche inductive… Le principe est de rechercher
une relation forte entre un point de mesure et autre chose…
Il y a là deux raisonnements possibles :
-Ou bien on considère que chaque station donne des mesures qui ressemblent d’autant plus à celles des
stations voisines que ces dernières sont proches, et le but du jeu va être de quantifier les relations entre
chaque poste et ses voisins. La philosophie implicite fondé sur la loi de Newton et les modèles
gravitaires qui en ont découlé, étant qu’un poste ressemble d’autant plus à un autre poste qu’il en est
proche. Bien sûr toutes sortes de distances entre postes sont utilisées, en passant par l’inverse de la
distance au carré, la racine carrée de la distance, son logarithme, etc, etc… On parle ici
d’autocorrélation spatiale.
- Ou bien la relation recherchée ne concerne pas les postes voisins mais l’environnement physique de
chaque station. Dans ce cas, on recherche des liens entre les données d’un poste et les caractéristiques
environnementales de ce poste. Par exemple : son altitude, son exposition, la valeur de pente du
versant, son altitude relative par rapport au fond de la vallée, sa distance à la mer, etc
L’outil permettant ce type d’analyse multivariée étant la régression multiple. Il va montrer que la
température baisse avec l’altitude, surtout de jour, mais moins la nuit, que plus on s’éloigne de la mer
en été, plus la température diurne augmente (mais c’est l’inverse en hiver, car la mer est relativement
chaude à ce moment-là), que plus un poste est situé en fond de vallée, plus il y fait froid la nuit (par
temps clair), etc, etc… On peut utiliser ici le terme de régressions environnementales.
Quelle méthode choisir, l’autocorrélation spatiale ou la régression environnementale ?
1- L’autocorrélation spatiale :
Cette grande famille comporte diverses méthodes comme les fonctions Spline ou encore les différents
types de Krigeage. Utiliser cette logique donne d’excellents résultats en conditions topographiques
monotones, comme une plaine, et dans les lieux ou le gradient est plutôt uniforme et surtout là où il n’y a
pas d’effets de seuils ou de contrastes brutaux.
Mais en montagne ou en relief contrasté, c’est perdre l’information contenue dans la topographie
puisque la seule information utilisée est la valeur des postes plus ou moins voisins. C’est aussi aboutir à
de graves erreurs, localement, puisque l’information disponible pour un point quelconque dépend de la
position des stations les plus proches.
Si par exemple, en simplifiant, le point A dont on cherche la température est encadré par 2 postes B et C,
la valeur de A sera proche de celles de B et C. problème : si B et C sont en vallée, et A sur une crête, A va
se voir attribuer une valeur de vallée…
Or il faut savoir que beaucoup de logiciels de cartographie automatiques fonctionnent par défaut de cette
manière, sans que les utilisateurs non avertis se posent la moindre question !! C’est une forme débile
d’utilisation irréfléchie de la technique « presse-bouton », malheureusement de plus en plus fréquente.
Comme en plus les couleurs sont belles, alors …. Pourquoi se poser des questions ???
2- La régression environnementale :
Elle est séduisante au sens où elle permet d’introduire une logique tenant compte indirectement de la
physique des processus. En effet, introduire l’exposition, c’est prendre en compte indirectement la
rayonnement solaire potentiel, utiliser l’altitude, c’est tenir compte de la pression atmosphérique et des
ces effets sur la température, quantifier l’altitude relative (versant, crête, fond de vallée, etc) c’est voir si
l’air froid nocturne pourra stagner et se stratifier en inversion thermique si on est en position basse
(vallée) ou au contraire ne fera que dévaler une pente sans « stationner »…
Cette logique est applicable à une condition : c’est que certains tests prouvent que l’on peut l’appliquer, et
que les coefficients de corrélation entre variable dépendante (la température, par exemple) et variables
indépendantes (altitude, exposition, etc) soient satisfaisants. C’est à dire de l’ordre de 0,90, soit environ
80% de variance expliquée (et pas 0,40 !!)…
On peut parfaitement la croiser avec la précédente, en particulier pour voir si les résidus de régression du
modèle (c’est à dire les différences en chaque point entre sa valeur calculée par le modèle et sa valeur
réelle, mesurée, ont une structure spatiale, et en arriver même à « kriger » les résidus.
Tout ceci est un peu complexe, et nous n’insisterons pas sur les détails techniques; en revanche en
voici des applications sur la cartographie des températures, et celle de la pluie.
Carrega, 1992
Carte des températures minimales
du 5 juillet 1991
dans les Alpes-Maritimes.
Le modèle de régression
environnementale a été établi à
partir d’un réseau de 20 stations
automatiques.
Chaque « pixel » (surface
élémentaire) mesure 200 m de coté.
La gamme des températures va du
violet -froid- en haute montagne ; au
rouge -chaud.
On observe bien l’inversion
nocturne de température, avec les
fonds des vallées du Var, et surtout
de la Tinée ou du Cians.
Carte représentant le relief en Toscane (Italie)
Carrega, Garcia 2000
Il s’agit d’un Modèle Numérique de Terrain (MNT), avec une maille de 900 m de coté (environ), dont
les nœuds ont une altitude connue.
Carte représentant la quantité maximale de précipitation en 24 heures susceptible se produire en
moyenne une fois par siècle : soit une chance sur 100 chaque année.
Selon la logique de l’autocorrélation spatiale (fonction Spline).
Carrega, Garcia 2000
Carte représentant la quantité maximale de précipitation en 24 heures susceptible se produire en
moyenne une fois par siècle : soit une chance sur 100 chaque année.
Selon la logique de l’autocorrélation spatiale (Krigeage).
Carrega, Garcia 2000
Carte représentant la quantité maximale de précipitation en 24 heures susceptible se produire en
moyenne une fois par siècle : soit une chance sur 100 chaque année.
Selon la logique de la régression environnementale, avec krigeage des résidus.
On remarque la relation, moins évidente dans les deux cartes précédentes, entre le relief et la pluie…
Carrega, Garcia 2000
Conclusion partielle et provisoire :
La variation temporelle des éléments du climat est aujourd’hui sur-médiatisée.
Par contre la variation spatiale est souvent peu connue et réduite dans les esprits à l’échelle macro
ou à l’échelle micro. C’est pourtant à l’échelle topoclimatique que se produise beaucoup de
phénomènes climatiques qui comptent pour la vie humaine, et en particulier dans le domaine du
risque : orage violent, crue « éclair », constitution de lacs d’air froid et verglas, accumulation
d’humidité et condensation (brouillard, nuages ), accentuation de la vitesse du vent, y compris lors
des tempêtes, etc
Je ne reviendrai pas davantage sur l’intérêt de cette échelle et sur ses applications humaines et
économiques, mais j’insiste par contre sur le fait que c’est une climatologie qui peut se pratiquer
tous les jours, assez aisément, que ce soit en ville où à la campagne ! Sans forcément beaucoup de
moyens techniques, mais avec un peu d’astuce et surtout beaucoup de curiosité.
Vence, le 22 mai 2005
Pierre CARREGA
[email protected]
Téléchargement