Monsieur Michel DEMAZURE - Cité des Sciences et de l`Industrie

publicité
“ Oser le savoir ”
Conférence du 24 juin 2000
La tempête, les inondations en France : quelles en sont les causes ? Peut-on
les prévoir et limiter leurs conséquences ?
"Le climat sous surveillance" était le thème des conférences-débats "Oser le savoir" du mois
de juin 2000. C'est dans ce cadre que cette conférence a été réalisée sur le thème "La
tempête, les inondations en France : quelles en sont les causes ? Peut-on les prévoir et
limiter leurs conséquences ?", avec Philippe Bourgeault et Hervé Letreut.
Monsieur Philippe Bourgeault est ingénieur en chef en météorologie, responsable du Groupe
de météorologie moyenne échelle au Centre national de recherches en météorologie de
Météo France. Il est également spécialiste de modélisation numérique et d'organisation de
campagnes de mesures ; il dirige depuis peu la campagne de mesures MAP (Mesoscale
Alpin Program) en Autriche avec Franck Roux que nous avons accueilli ici à la Cité dans les
rencontres sur l'exposition. Il est enseignant à l'Ecole polytechnique et il a obtenu en 1997 la
médaille d'argent du CNRS.
Monsieur Hervé Letreut est Directeur de recherches au Laboratoire de météorologie
dynamique du CNRS, à l'Ecole Normale supérieure, à l'Ecole polytechnique et à Paris VI. Il
est également professeur chargé de cours à l'Ecole polytechnique. Il a reçu en 1990 la
médaille de bronze du CNRS, en 1992 le Prix Philippe Morris, en 1994 le Prix Becquerel de
l'Académie des Sciences, et en 1999 l'Academia European. Il a fait plusieurs séjours à
l'étranger, notamment à la NASA. Actuellement, il est adjoint au Directeur de laboratoire de
météorologie dynamique pour le site de Paris VI, il est également coordinateur du pôle de
modélisation de l'IPSL qui est une fédération de laboratoires en région parisienne. Il a écrit
dans de nombreuses publications internationales et il a également écrit plusieurs ouvrages
dont "Climate Sensivity, Physical Process and their validation", et également "Océans et
atmosphère".
Philippe Bourgeault
Nous
allons
essayer
de
parler
d’événements
météorologiques
violents,
et
plus
particulièrement de ceux qui se sont produits l'année dernière. En forme d'entrée en matière,
il m'a semblé intéressant de rappeler un peu de combien d’événements nous parlons, de
faire une petite statistique, ce sont des chiffres assez intéressants et que j'ai pris sur le
Cité des Sciences et de l’Industrie
1
Conférence du 24 juin 2000
La tempête, les inondations en France
serveur Internet de Météo France. Si vous souhaitez trouver plus de précisions sur ces
chiffres, vous pouvez vous adresser à ce serveur Internet.
Lorsque nous parlons d’événements météorologiques violents, il n'est pas facile d'emblée de
savoir de quoi on parle. En effet, un événement météorologique qui va être considéré
comme violent dans une région particulière, peut être considéré comme banal dans une
autre région, et même en France il y a des différences de climat relativement importantes, ce
qui fait que les seuils qui sont fixés par les autorités de la Sécurité civile pour déclencher une
alerte météorologique varient beaucoup entre le nord et le sud de la France. J'ai donc pensé
qu'une manière objective de définir et de quantifier les événements météorologiques violents
était tout simplement de compter les messages d'alerte que Météo France envoie aux
autorités de Sécurité civile. Concernant la totalité de ces messages, il s'agit de chiffres qui
sont quand même relativement importants, qui varient de 99 en 1994 à 259 en 1999. Nous
avons le pourcentage du nombre de ces messages d'alerte qui sont jugés pertinents par les
autorités de la Sécurité civile, dont 19 % en 1999 représentent les fausses alertes. Nous
avons également le nombre d'absence d'alertes, les phénomènes dangereux qui n'ont pas
du tout été prévus, il est de 13 pour 1999 à comparer aux 259 qui ont été prévus pour cette
année-là, dont 80 % ont bien été prévus.
On peut faire un certain nombre de remarques sur ces chiffres. Tout d'abord, on constate
une assez grande variabilité d'une année à l'autre, ce qui est bien normal car c'est la
variabilité naturelle du climat. D'autre part, on a l'impression qu'il y a une petite tendance,
encore qu'il est très difficile de prévoir sur six ans, il est tout à fait possible qu'en 2000 ou en
2001 on retrouve des niveaux comparables à ceux de 1997 et de 1998. En moyenne à peu
près 80 % des alertes sont jugées pertinentes par la Sécurité civile, et un tout petit nombre
d'absences d'alertes. La répartition des messages d'alerte par type de phénomènes
météorologiques violents est également relativement intéressante, les fortes précipitations,
les orages qui combinent un certain nombre de facteurs de danger, les phénomènes de vent
violent, la neige et le verglas, les avalanches et le froids qui sont des événements beaucoup
moins nombreux. Nous aborderons plus particulièrement les fortes précipitations et les forts
vents.
Le plan de l'exposé s'articulera surtout autour d'études de cas, plus particulièrement deux
événements violents qui sont encore dans toutes les mémoires, la tempête sur le nord de la
France survenue le 26 décembre 1999, et la grande inondation de l'Aude du 13 novembre
1999. Tout d'abord, quelques repères historiques pour situer l'événement par rapport à la
climatologie, ensuite, quels sont les mécanismes de formation, pourquoi ce genre de
Cité des Sciences et de l’Industrie
2
Conférence du 24 juin 2000
La tempête, les inondations en France
phénomènes arrivent-ils ? Comment se forment-ils ? Quelles sont les performances de la
prévision telle qu'elle a été réalisée, qu'est-ce qui a été prévu, qu'est-ce qui ne l'a pas été et
pourquoi ? Nous terminerons sur les cherches en cours et les perspectives d'amélioration
des prévisions de ces événements.
Pour parler de la tempête de Noël 1999, il faut resituer le paysage météorologie de la
période du 21 au 28 décembre. L'Atlantique et l'Europe occidentale ont été intéressés par
cinq dépressions principales, il y a eu d'autres petites dépressions que nous oublierons pour
les commodités de l'exposé. La première que nous appelons la dépression A, a pris
naissance le 21 décembre à zéro heure quelque part sur le nord-est des Etats-Unis et s'est
déplacée pour traverser l'Atlantique, et à peu près au milieu de l'Atlantique au lieu de
prolonger sa direction vers la France, elle a obliqué vers le nord, ce qui correspond à un
comportement relativement normal pour une dépression météorologique. La seconde
dépression s'est formée le 24 décembre à zéro heure, et s'est formée en fait au milieu de
l'Atlantique. Elle a suivi également une trajectoire relativement classique passant sur le nord
de l'Angleterre et allant jusqu'à la Norvège et, l'événement intéressant c'est que le 24
décembre à 6 heures du matin s'est créé quelque part au sud de Terre-Neuve, très loin de
chez nous, une dépression qui a, elle, voyagé selon une trajectoire très, très, très au sud et
qui ne s'est pas incurvée vers le nord, ce qui fait que ça l'a amenée à traverser le nord du
pays le 26 décembre au matin.
Egalement le 25 décembre à 18 heures la deuxième tempête est née juste au milieu de
l'Atlantique, elle a suivi une trajectoire au sud de la précédente, et elle s'est également
développée, elle a traversé la France en provoquant des dégâts sur la partie sud de la
France cette fois-ci, - Je ne parlerai pas de la seconde tempête, faute de temps, je ne
parlerai que de la première quoi que les deux événements sont assez comparables en
intensité - et nous avons eu également ce qu'on appelle une onde qui est une tempête
manquée qui s'est formée le lendemain de la deuxième tempête, pratiquement au même
endroit et qui elle, par contre, ne s'est pas développée. Donc, le travail du météorologiste
consiste vraiment à faire la part entre les événements qui vont aller jusqu'au bout et se
développer et ceux qui, au contraire, vont avorter en cours de route.
Durant cette tempête du 26 décembre, des vents ont été enregistrés sur le territoire, - je
vous rappelle que l'événement s'est produit aux premières heures de la matinée et que la
tempête a traversé le pays entre 5 heures et 10 heures du matin -, un nombre important de
régions ont été affectées pour lesquels les vents maximaux instantanés enregistrés ont été
supérieurs à 150 km/h. On distingue en météorologie deux mesures du vent, le vent maximal
Cité des Sciences et de l’Industrie
3
Conférence du 24 juin 2000
La tempête, les inondations en France
instantané qui correspond à un vent qui va se maintenir pendant quelques secondes au plus,
qui est évidemment beaucoup plus fort que le vent moyen qui, lui, est calculé sur une
moyenne de dix minutes, et qui va à cause de l'effet de moyenne être, en général, au moins
de 50 % plus faible. Celui qui était intéressant à prévoir pour les dégâts et pour la protection
des populations c'est le vent maximal instantané. Des valeurs supérieures à 150 km/h sur
une grande partie de la moitié nord du territoire, et des valeurs également importantes sur le
reste du pays.
Comment cet événement se compare-t-il à des événements récents ? Est-il vraiment aussi
rare que ça ? Si on recherche dans les archives sur une vingtaine d'années pour lesquelles
on a vraiment de très bonnes mesures du vent maximal instantané, des éléments qui
permettent de faire des comparaisons extrêmement fines, et uniquement sur la partie nord
de la France, on ne trouve en fait que trois événements qui approchent un peu en intensité
l'événement du 26 décembre. Il s'agit de la tempête du 15 octobre 1987 qui avait affecté
uniquement la Bretagne, de la tempête du 3 février 1990 qui a eu une trajectoire comparable
à celle du 26 décembre 1999, mais avec une intensité tout de même beaucoup moins forte,
et puis la tempête du 26 février 1990 qui avait, elle, uniquement affecté la Normandie et le
nord de la France.
Il est intéressant de noter que si on parle uniquement des vents maximaux, ces vents
maximaux observés durant la tempête du 15 octobre 1987 sont en fait supérieurs aux vents
maximaux enregistrés lors de la dernière tempête. Simplement, ces vents maximaux n'ont
intéressé qu'une petite partie de la France, la Bretagne et la Normandie, ce qui fait qu'elle
est restée peut-être un peu moins présent dans les mémoires, mais on voit bien que les
tempêtes très violentes, en fait, ne sont pas si rares que ça. En réalité, ce qui compte ce
n'est pas la violence de l'événement mais c'est là où il passe. Nous verrons par la suite
d'autres événements sur l'Atlantique où on voit qu'il y a des tempêtes extrêmement violentes,
beaucoup plus violentes que celles dont nous allons parler, mais simplement elles ne
passent pas sur la France, et on n'en parle pas. Ce qui rend l'événement exceptionnel ce
n'est pas sa force, c'est sa trajectoire. Au point de vue de la durée de retour, si on essaye de
calculer des retours, ce qui est assez compliqué vu le peu de données disponibles sur les
rafales, sur le vent maximal instantané, on est amené à donner un ordre de grandeur de plus
d'une centaine d'années, c'est donc un événement qui se passe extrêmement rarement sur
la France on le sait bien.
Pourquoi ces événements se forment-ils et de quelle manière se forment-ils ? Un acteur
essentiel de la météorologie de nos latitudes c'est ce qu'on appelle le courant jet qui est un
Cité des Sciences et de l’Industrie
4
Conférence du 24 juin 2000
La tempête, les inondations en France
tube de vent extrêmement fort, en général supérieur à 200 km/h, qui fait tout le tour de la
planète et qui est situé à une altitude d'environ 10 km, et qui existe quasiment en
permanence. C'est le moteur du système, le phénomène météorologique de base de la
météorologie de l'hémisphère nord. Qu'est-ce qui explique la formation du courant jet ? C'est
un phénomène mécanique extrêmement simple. Un principe de base, c'est la conservation
des moments cinétiques. Par exemple, un patineur qui fait du patinage artistique, lorsqu'il
veut tourner sur lui-même, il commence avec les bras relativement écartés, il prend de l'élan
et ensuite il repli ses bras vers lui-même, et cette action de replier ses bras sur lui-même a
tendance a entraîner, à mettre en rotation de plus en plus rapide son corps. C'est la
conséquence directe de la conservation des moments cinétiques, chaque fois qu'un corps
physique ramène la masse vers le centre de rotation, automatiquement la vitesse de rotation
s'accentue et le phénomène est tout à fait exponentiel, la vitesse de rotation s'accentue
extrêmement vite.
C'est ce phénomène qui est à la base de la création du courant jet. En raison des différences
de température entre l'équateur et le pôle, il est nécessaire que des particules d'air en
permanence se déplacent depuis l'équateur vers les pôles. Ce mouvement-là a pour effet de
contracter la masse de l'atmosphère vers l'axe des pôles qui est la bi-rotation, et de mettre
l'atmosphère en rotation de plus en plus forte. La vitesse de rotation initiale à l'équateur est
égale à la vitesse de rotation de la terre, et en raison de la concentration de la masse vers
l'axe des pôles, la vitesse de rotation s'accentue, ce qui fait que l'atmosphère prend un
mouvement qui est circulaire par rapport à la terre solide, par rapport à la planète, et tourne
de l'Ouest vers l'Est.
Si la terre était parfaitement plate, et s'il n'y avait pas de différence entre les continents et les
océans, on peut dire que le courant jet serait parfaitement circulaire, ce serait un phénomène
très, très simple à comprendre. Par contre, nous avons de grandes chaînes de montagne
comme l'Himalaya, les Rocheuses, et d'autres, et ces grandes chaînes de montagnes ont
pour influence de briser la symétrie du courant jet, et de faire osciller ce courant jet, ce qui
fait qu'il a des branches qui sont relativement complexes. Une des branches qui va nous
intéresser particulièrement c'est la branche Atlantique Nord qui, au lieu de suivre un cercle
de latitude, remonte depuis les grandes plaines des Etats-Unis en passant sur la côte Est, et
en direction de l'Europe, et puis s'incurve un peu vers l'Angleterre et la Norvège. C'est dans
cette branche du courant jet que vont prendre naissance les fameuses tempêtes qui
affectent notre pays.
Cité des Sciences et de l’Industrie
5
Conférence du 24 juin 2000
La tempête, les inondations en France
Pourquoi ces tempêtes prennent naissance ? Il s'agit d'un jet extrêmement rapide qui va
atteindre en général 200 à 300 km/h, et comme tout jet de fluide, ce jet est
fondamentalement instable. Si on regarde une fumée avec un panache de fumée, on voit
très bien que la fumée ne s'éloigne jamais d'une manière parfaitement laminaire, elle crée
toujours des oscillations qui se développent. Et les tempêtes prennent naissance par
instabilité fondamentale du courant jet en haute et moyenne altitude. De plus, il y a le
mécanisme de moteur thermique dont on parle souvent, qui correspond au fait qu'au sud du
courant jet on a une atmosphère relativement chaude, au nord du courant jet on a une
atmosphère relativement froide, et le travail de l'atmosphère consiste à retransporter la
chaleur du sud vers le nord pour répartir la chaleur et la température, ce qui fait que ça
fonctionne un petit peu comme un cycle thermique, comme un moteur de voiture, il y a
transformation d'énergie potentielle en énergie cinétique, et donc ces tempêtes ont tendance
à se développer tout simplement parce que l'air chaud a tendance à monter, les trajectoires
des particules sont des trajectoires ascendantes et cela insuffle de l'énergie dans la tempête
qui se développe tout en se déplaçant vers le nord-ouest en se rapprochant de l'Europe.
Si on veut comprendre les tempêtes qui affectent notre pays, il faut aller les chercher très
loin en amont. Nous avons fait une statistique il y a quelques années à partir de 72
trajectoires de tempêtes, correspondant à cinq hivers successifs. Si on affecte l'heure zéro
au moment où la tempête passe au voisinage de l'Europe occidentale, on va trouver en
général le centre de la tempête 12 heures plus tôt dans une zone, 24 heures plus tôt dans
une autre, et si on remonte jusqu'à trois jours, on va trouver très clairement le centre de la
tempête, évidemment la tempête sera beaucoup moins développée, mais son centre sera
situé dans une enveloppe qui est quelque part sur le nord-est des Etats-Unis.
Pourquoi certaines de ces tempêtes se développent-elles ? Et pourquoi les autres restent
finalement des événements bénins ? C'est tout l'art de la météorologie d'arriver à
comprendre ceci. Nous avons produit un schéma de synthèse sur la tempête du 26
décembre 1999, que l'on peut retrouver sur un de nos sites Internet, et il faut bien être
conscient du fait qu'il représente l'état actuel sur la recherche sur cette tempête. C'est un
événement tout à fait extraordinaire qui va générer énormément de travaux. Déjà
actuellement dans le monde il y a certainement plusieurs dizaines de chercheurs qui
essayent d'interpréter cet événement, il est absolument certain que d'ici deux ou trois ans il y
aura des thèses qui seront soutenues à l'université pour expliquer cette tempête. Ceci est
l'état actuel du consensus des connaissances sur cette tempête, mais il y aura peut-être un
chercheur génial qui va arriver avec des nouvelles qui démontreront qu'il y a un processus
particulier qui a été responsable de l'amplification particulière de cette tempête, et on peut
Cité des Sciences et de l’Industrie
6
Conférence du 24 juin 2000
La tempête, les inondations en France
dire à l'heure actuelle que l'élément central de l'explication c'est le courant jet. Le courant jet
a pris pendant la période du 24 au 25 décembre 1999 une position qui est relativement
inhabituelle, elle n'est pas extrêmement rare, cette position est probablement prise au moins
une fois par hiver, et à elle seule elle ne suffit pas à expliquer ce qui s'est passé.
Pourquoi le courant jet a-t-il pris cette position ? Là, il faut chercher l'explication dans
l'interaction avec les deux premières tempêtes, la dépression A et la dépression B. On pense
que la dépression A et la dépression B ont interagit d'une certaine manière avec le courant
jet pour lui permettre de se déplacer légèrement vers le sud, et puis surtout de s'étendre et
d'arriver avec sa pointe carrément sur notre pays, c'est le premier acte. Le deuxième acte
c'est la naissance de la tempête de Noël. Cette naissance intervient très précisément entre
le 24 décembre à 6 heures et le 25 décembre à zéro heure, c'est ce qu'on appelle la genèse
de cette tempête.
Pourquoi est-elle née précisément ici ? Il y a là un principe qui est bien connu en
météorologie, c'est le fait qu'à cause des lois de la mécanique des fluides, lorsqu'on a une
accélération des vents en haute altitude qui est le courant jet, à l'endroit où le vent accélère
c'est ce qu'on appelle la zone d'entrée du courant jet, et du côté droit de la zone d'entrée du
courant jet il y a un phénomène d'ascendance de l'air à grande échelle, ascendance
extrêmement rapide mais qui est tout à fait continue et régulière. Les particules qui passent
en surface au voisinage du sol sous cette zone d'ascendance sont soumises à un
phénomène de contraction de la masse, parce que lorsque la masse monte pour compenser
cette ascendance des particules, il faut qu'il y ait des particules qui se rassemblent au sol, et
donc on retrouve le phénomène cinétique qui est le phénomène d'accélération de la rotation
à cause de la concentration du mouvement cinétique. Simplement là ce phénomène se
produit à une plus petite échelle, et la moindre petite perturbation météorologique qui passe
dans cette zone critique qui est l'entrée droite du courant jet, va avoir tendance à s'amplifier
à cause de ce phénomène de conservation du mouvement cinétique.
Ensuite, cette tempête est créée, que se passe-t-il ? Elle se déplace pendant deux jours, elle
longe le courant jet, c'est un phénomène qui est assez habituel, et en se déplaçant elle ne
s'amplifie pas, elle conserve pratiquement toujours la même intensité. Et vers la fin de son
cycle de vie, c'est-à-dire le 26 vers minuit, elle arrive à traverser le courant jet, et la tempête
va passer sous une deuxième zone critique qui est cette fois-ci la zone de sortie gauche du
jet. Donc, la symétrie est à faire entre l'entrée droite et la sortie gauche du jet, et là on a le
même mécanisme dynamique qui se produit, la zone de sortie gauche du jet c'est une zone
d'ascendance de grande échelle, et donc de nouveau une zone d'amplification des
Cité des Sciences et de l’Industrie
7
Conférence du 24 juin 2000
La tempête, les inondations en France
tempêtes, et c'est là évidemment que la tempête va s'amplifier au moment même où elle
aborde les côtes de notre pays, alors que d'habitude les tempêtes diminuent d'intensité à
cause du frottement sur le sol.
Finalement, le caractère exceptionnel de cette tempête est dû à la conjonction de trois
facteurs qui sont eux-mêmes relativement rares, tout d'abord la mise en forme du courant jet
selon ce schéma qui n'est pas très habituel, ensuite le passage d'une tempête en entrée
droite du jet, et le passage de la même tempête en sortie gauche du jet. Si on calcule les
probabilités, on multiplie trois probabilités relativement faibles entre elles, et cela donne une
probabilité extrêmement faible, finalement, que ce phénomène survienne. On peut dire qu'en
quelque sorte c'est un hasard, mais qui reste à l'intérieur des phénomènes relativement bien
connus et compris.
Comment la tempête du 26 décembre a-t-elle été prévue par les modèles numériques de
Météo France ? C'est une question qui a donné lieu à pas mal de débats, et au risque de
vous surprendre peut-être, la tempête a été relativement bien prévue par les modèles de
Météo France, pour preuve la prévision et une approximation de la réalité, c'est-à-dire
l'analyse qui sert à initialiser les cycles de prévision du modèle, ont été réalisées par Météo
France. La prévision a été faite à partir du 25 décembre à zéro heures, c'est une prévision à
24 heures, elle montre que la tempête s'approche du pays, elle n'est pas encore très
importante à ce moment-là, la prévision correspond très bien à l'analyse. Six heures plus
tard, nous sommes à 6 heures du matin le 26 décembre, la tempête est sur Paris, elle est
très bien située par le modèle, simplement la prévision de la pression au centre de la
tempête est de 979 hectopascals, alors que la réalité est à 974 hectopascals, et on sait que
même au niveau des mesures brutes, on a observé jusqu'à 965 hectopascals, donc quelque
chose d'encore plus creux que ça. Clairement, là le modèle a sous-estimé l'intensité de
l'événement.
Encore six heures plus tard on voit que la tempête a déjà quitté la France, elle est sur
l'Allemagne et elle est toujours extrêmement bien localisée, la prévision est toujours
parfaitement en phase avec l'observation. On peut dire qu'au niveau de la trajectoire, le
modèle numérique de Météo France, qui est le modèle Arpège, a réalisé un très bon travail,
par contre, au niveau de l'intensité du phénomène, clairement il a sous-estimé de plusieurs
millibars, donc de plusieurs dizaines de mètres par seconde l'intensité de la tempête.
Comment la prévision a été faite ? Par les prévisionnistes, parce que le modèle en lui-même
n'est qu'un outil d'aide aux prévisionnistes. Les prévisionnistes de Météo France, comme
Cité des Sciences et de l’Industrie
8
Conférence du 24 juin 2000
La tempête, les inondations en France
ceux de tous les services météorologiques du monde, ne regardent pas un seul modèle de
prévision, mais ils regardent un grand nombre de modèles de prévision pour avoir une idée
de la fiabilité de la prévision. Toutes ces prévisions correspondent au moment où la tempête
était sur Paris, de nouveau avec l'analyse vérifiant avec cette tempête extrêmement creuse
sur Paris, avec la prévision du modèle français qui est la meilleure des quatre. La prévision
du modèle anglais est la deuxième au point de vue qualité, pour elle la tempête est à peu
près au même endroit à 6 heures du matin le 26, mais elle est prévue encore moins intense
que dans le modèle français. La prévision du modèle allemand commence à être un petit
peu fausse en localisation, et encore plus faible, et la prévision du modèle européen est
quasiment dans les choux. La veille du 26 décembre, dans la journée du 25 les
prévisionnistes avaient l'ensemble de ces résultats à leur disposition, et ils devaient prendre
une décision, ce qui est leur travail.
Qu'est-ce qui a été fait ? D'une part, une série d'alarmes a été émise dès le samedi matin
vers 10-11heures, en signalant qu'une tempête avec des vents de 100 km/h traverserait la
France dans la nuit et dans le courant de la matinée prochaine, ce qui correspondait au point
de vue timing de l'événement à quelque chose d'à peu près correct. Ensuite, dans
l'après-midi les soupçons se sont confirmés et là Météo France a émis un communiqué de
presse dans lequel la prévision a été un petit peu aggravée, on a parlé de vents de
110 km/h, et puis de vents de 140 km/h sur les côtes et de 130 km/h sur les reliefs des
Vosges. Ce qui était encore tout à fait en dessous de la réalité, puisque la réalité a été plutôt
de 150 km/h en fait, et il s'agit effectivement d'une erreur de prévision de l'intensité qui est
assez importante, mais qui se situe bien à la limite de l'état de l'art. Et en tout cas, ce qu'il est
important de dire c'est que grâce à ces alertes émises dans l'après-midi du vendredi, un
grand nombre de mesures de précaution, de protection ont pu être prises ; en effet, toutes
les grues à tour qui sont extrêmement sensibles aux forts vents on pu être protégées, et les
grandes roues des Champs Elysées, par exemple, qui étaient montées pour la fête du
Millénaire ont également été protégées grâce à cette prévision, quel qu'ait pu être son
caractère imprécis.
Comment raisonne le prévisionniste ? Là, évidemment il se trouve que ce jour-là c'était la
prévision du modèle français qui était la meilleure, mais je pourrais dire que c'est presque un
peu par hasard, il arrive d'autres situations où c'est la prévision du modèle anglais qui est la
meilleure, ou bien celle du modèle européen, aucun modèle est le meilleur à tous les coups,
c'est tantôt l'un, tantôt l'autre. Et justement, le problème qui se pose au niveau de la
recherche c'est comment faire pour améliorer et rendre plus fiables ces prévisions.
Cité des Sciences et de l’Industrie
9
Conférence du 24 juin 2000
La tempête, les inondations en France
Quelles sont les voies de recherches ? Nous avons acquis la quasi-certitude que les
différences de prévisions entre les quatre modèles ne sont pas liées à la formulation des
modèles, mais sont liées uniquement à la connaissance des conditions initiales de calcul,
l'état des paramètres météorologiques sur l'Atlantique. Ce qu'il faut améliorer c'est la
connaissance des conditions initiales, et on le fait à partir de quatre voies d'approche. Pour
ce qui concerne uniquement la première voie d'approche c'est le ciblage des observations.
Depuis que la météorologie existe, les prévisions sont faites à partir d'observations qui sont
réalisées toujours aux mêmes points, il existe un réseau de mesures qui est fixe, qui repose
sur des radios sondages, et il mesure toujours au même point et quasiment aux mêmes
heures. Des études théoriques ont permis de montrer qu'au contraire, l'atmosphère est très
variable et les mesures qui sont réellement utiles pour faire une prévision ne sont pas
toujours au même endroit, elles sont parfois à un endroit, parfois à un autre.
Nous avons donc organisé il y a trois ans, en 1997, une très grande campagne internationale
qui s'appelle FASTEX et qui avait pour objectif de renforcer les mesures sur l'Atlantique de
manière à améliorer la prévision des tempêtes, mais de renforcer les mesures de manière
intelligente, et non pas en faisant des mesures systématiques toujours au même endroit.
Pour réaliser cette campagne, on est obligé de faire appel à une très forte collaboration
internationale, on a pu réunir pratiquement les services météorologiques et les agences de
recherches tous les pays de la façade Atlantique, depuis l'Angleterre, l'Islande, le Canada,
jusqu'aux Etats-Unis, et même le Portugal et l'Espagne, et on a pu ainsi rassembler un grand
nombre de vecteurs de recherches comme des gros avions, et puis quelques bateaux.
Pendant deux mois ces systèmes ont réalisé des mesures de la façon suivante : supposons
que l'on veuille améliorer la prévision du 19 février, c'était en 1997, on veut améliorer la
prévision sur l'Europe le 19 février, nous avons maintenant la possibilité dans les modèles
numériques de prévision de calculer quelles sont les modifications à l'état initial qui ont le
plus d'influence dans la prévision deux jours plus tard. Si on s'intéresse à l'initialisation du
modèle deux jours avant, le 17 février, le modèle sait calculer lui-même où il y a un besoin
de faire des mesures, il s'agit d'un paramètre qui est la température à 3.000 mètres environ,
et on sait que si on modifie l'état initial suivant un schéma c'est là qu'on aura la plus grande
sensibilité.
C'est très important, parce que ça veut dire que si on fait une erreur sur la température dans
une zone donnée, et en particulier si on fait une erreur sur la restitution de cette structure
particulière de température, le modèle sera complètement faux. Ce qui veut dire qu'il faut
concentrer les mesures dans cette zone pour ce jour-là, mais pas forcément pour tous les
jours, un autre jour ce sera ailleurs. Durant cette campagne nous avions des avions de
Cité des Sciences et de l’Industrie
10
Conférence du 24 juin 2000
La tempête, les inondations en France
recherches à notre disposition, en particulier des avions basés à Terre-Neuve, et on a pu
concevoir une trajectoire, un vol particulier, qui a permis d'échantillonner les mesures de
température dans cette structure particulière, et qui a donc permis d'améliorer l'état initial de
l'atmosphère dans cette zone-là.
Le résultat c'est une prévision qui est nettement améliorée, sur laquelle nous voyons la
trajectoire de la tempête en question le 17 février, elle s'est déplacée selon une trajectoire
assez classique, elle est arrivée le 19 février quelque part au nord de l'Angleterre,
l'observation de cette tempête a montré qu'était d'une intensité de 958 millibars ce jour-là, il
s'agissait d'une véritable tempête. Une remarque, cette tempête est bien plus forte que celle
qui est passée sur la France en décembre 1999, nous comparons 958 à 965 millibars, ceci
montre bien que ce n'est pas l'événement lui-même qui est rare, c'est simplement sa
trajectoire, ceci est un événement assez courant dans ces parages. La tempête était prévue
à 968 millibars avec les mesures spéciales réalisées par les avions de recherches, donc une
prévision parfaite, et sans ces mesures spéciales il était prévu 944 millibars, et là la prévision
était à la hausse dans un sens opposé à celui qui nous intéresse, c'est-à-dire que la
prévision était pour une tempête trop forte, mais une erreur de prévision à la hausse de
tempête est aussi grave qu'une erreur à la baisse.
Nous savons maintenant comment acquérir des mesures qui permettent d'améliorer la
prévision des tempêtes sur l'Europe occidentale. Nous avons pu réaliser des études sur une
vingtaine de cas différents, vingt tempêtes différentes durant 1997, et pratiquement à chaque
fois on réussit à améliorer la prévision de cette tempête.
Concernant les inondations, quelques repères historique. On a l'impression qu'il y a de plus
en plus d'inondations, mais il faut rappeler qu'en octobre 1940 on a observé une pluie de
1.000 millimètres en 24 heures, ce qui paraît être au-delà du concevable, plus que ce qui
tombe en un an en 24 heures dans la région du Roussillon et de la Catalogne, qui a fait 700
victimes. Les inondations ne remontent pas à l'année dernière, si on fait des statistiques on
trouve que 119 épisodes produisant au moins 190 millimètres en 24 heures ont été
répertoriés depuis une quarantaine d'années. Les grandes inondations récentes sont celles
du 3 octobre 1988 à Nîmes où on a observé 400 millimètres en neuf heures, celle du 22
septembre 1992 à Vaison-la-Romaine où on a observé 300 millimètres en 12 heures, et puis
bien sûr celle de l'Aude. Pour mémoire, signalons celle de Barentin, puisqu'elle est très
récente, si on peut dire, seulement 80 millimètres en deux heures, c'était quand même un
événement un peu moins fort en magnitude.
Cité des Sciences et de l’Industrie
11
Conférence du 24 juin 2000
La tempête, les inondations en France
Cet épisode pluvieux a provoqué des précipitations supérieures à 500 millimètres sur une
partie du département de l'Aude. La durée de retour de cet événement là encore est de
l'ordre d'une centaine d'années, encore qu'il est extrêmement difficile de parler de durée de
retour pour des événements aussi rares. Concernant les mécanismes, là aussi ce qui frappe
c'est que ce sont des mécanismes qui sont pratiquement classiques, c'est simplement la
conjonction de phénomènes qui sont rares entre eux, car chacun de ces phénomènes est
relativement rare, et leur conjonction amène à un résultat qui est tout à fait exceptionnel et
qui est effectivement très rare. Mais il n'y a rien de particulièrement nouveau dans la création
de cet événement.
Que se passe-t-il ? On a de l'air chaud et humide qui converge sur le golfe du Lion, nous
sommes en novembre, la température de la Méditerranée est encore relativement chaude,
c'est un point très important, donc l'air se charge d'humidité, il s'accélère dans la partie
convergente entre la Montagne Noire et les Pyrénées, et l'air s'élève puisqu'il y a une
certaine pente. Pour passer du rivage méditerranéen au seuil de Naurouze il y a une
certaine pente, donc l'air a tendance à se condenser et à former des nuages. En altitude, à
environ 10 km, on a une circulation complètement différente et qui amène de l'air
relativement froid qui vient du nord, qui suit un trajet assez complexe, qui va vers le sud, qui
retourne vers le nord et qui amène de l'air froid juste au-dessus de l'air chaud qui vient de la
Méditerranée.
La première raison de l'événement c'est la juxtaposition sur la verticale d'air chaud et d'air
froid qui crée une situation instable. La deuxième raison de l'événement, et nous retrouvons
une fois de plus le phénomène d'ascendance créé à la sortie d'Auch, du Gers, on a une
accélération et puis une décélération de l'écoulement, on a en quelque sorte de nouveau un
courant jet, un mini courant jet, et nous avons un phénomène d'ascendance lié à la sortie
gauche du courant jet qui va favoriser la création d'un système nuageux. Le troisième
phénomène, ce sont évidemment les très, très forts vents qui vont amener un air
extrêmement humide qui va se caler pendant un grand nombre d'heures sous la forme d'une
bande allongée qui a été extrêmement pluvieuse.
La prévision de cet événement a été numériquement relativement bonne, on a quelques
observations de quantités de pluie recueillies, et puis la prévision du modèle opérationnel
Aladin qui est un de nos modèles de prévision opérationnelle, et on s'aperçoit que cette
prévision donne une pluie totale de 150 millimètres en 18 heures, relativement bien située
sur l'Est du département de l'Aude. 150 millimètres c'est beaucoup moins que les 500 qui ont
été observés, mais c'est quand même très inhabituel pour ce modèle numérique, je pense
Cité des Sciences et de l’Industrie
12
Conférence du 24 juin 2000
La tempête, les inondations en France
que c'est une des premières fois que ce modèle numérique prévoit 150 millimètres de pluie.
Et c'est là où on voit le rôle de l'expertise du prévisionniste, il connaît son modèle et il sait
très bien que 150 millimètres c'est quelque chose de très, très rare, et il se dit que peut-être
le modèle est faux, mais de toute façon il sait que c'est un phénomène exceptionnel, et il va
déclencher une alerte.
Les pluies se sont produites dans la nuit du 12 au 13 novembre, dès le 11 novembre à
15 heures 45, c'est-à-dire vingt-quatre heures avant l'événement, il y a eu une série d'alertes
aux pluies exceptionnelles qui ont été émises, et ces alertes ont été aggravées le lendemain,
à peu près six heures avant l'événement, et à ce moment-là on a commencé à parler dans
les bulletins d'alertes d'une quantité totale de précipitation de 400 millimètres, ce qui était
une première, on n'a jamais fait une prévision de 400 millimètres de pluie, et la réalité a été à
500 millimètres, on peut dire que c'était globalement une prévision assez réussie. Par contre,
que se passe-t-il lorsque le grand public reçoit une prévision de 400 millimètres de pluie ? A
l'heure actuelle on s'aperçoit que personne n'est capable de comprendre ce que ça
représente, et il faut que nous, Météo France, fassions un effort pour mieux expliquer au
public la gravité de l'événement.
Quelques voies de recherche concernant cet événement : on s'aperçoit que le principal
besoin, si on veut préciser plus encore la localisation de la forte pluie et son intensité, c'est
d'améliorer la connaissance des particules nuageuses. Dans les nuages il y a des
gouttelettes d'eau ou bien des cristaux de glace, et ces gouttelettes d'eau peuvent avoir des
tailles extrêmement variables selon les nuages, et évidemment suivant sa taille, la
gouttelette tombera plus ou moins vite, et la vitesse de chute de la goutte de pluie va être un
élément clé de la qualité de la prévision qui pourra être faite. Nous avons donc besoin
d'acquérir des mesures nettement plus précises, une connaissance nettement plus précise
des caractéristiques des gouttelettes qui existent dans les nuages. Pour cela nous avons
monté en automne 1999 une campagne de mesures qui s'appelait le Mesoscale Alpin
Program, MAP, qui consistait de nouveau à rassembler un grande nombre de pays et de
moyens pour mesurer les caractéristiques des nuages similaires à ceux qui ont été observés
dans l'inondation de l'Aude. La campagne de mesures s'est déroulée dans le nord-ouest de
l'Italie dans la plaine du Pô, c'est la zone d'Europe où il pleut le plus en automne et nous
étions à peu près sûrs de rencontrer de très grands nuages. Une richesse de moyens a été
rassemblée lors de cette campagne de mesures : un grand nombre de radars de recherches
et un grand nombre d'avions qui ont permis de faire des pénétrations dans les nuages pour
mesurer réellement les caractéristiques des gouttelettes d'eau et d'autres caractéristiques.
Cette campagne a été présentée ici par Franck Roux dans le cadre de ces conférences.
Cité des Sciences et de l’Industrie
13
Conférence du 24 juin 2000
La tempête, les inondations en France
Pour terminer sur une note d'optimisme, récemment nous avons réalisé une simulation de
l'événement du 12 novembre avec un modèle numérique différent, un modèle de recherche.
Il s'agit d'un modèle infiniment plus cher au point de vue temps de calculs que les modèles
opérationnels, il est environ cent fois plus cher, le résultat est disponible cent fois plus tard
que le résultat du modèle opérationnel, il est donc totalement impossible dans l'état actuel
des moyens de calculs de se servir de ce modèle pour faire des prévisions.
Quelles sont les caractéristiques de ce modèle ? Sa capacité de zoomer sur un événement
particulier, nous avons ici un calcul qui est réalisé sur deux grilles de calculs différents, sa
grande grille qui est assez classique avec un point de calcul tous les 10 km, c'est presque la
précision actuelle des modèles opérationnels, et puis la petite grille qui, elle, est beaucoup
plus fine avec un point de calcul tous les 2,5 km. Par exemple, un résultat de ce modèle est
une comparaison entre les événements nuageux, une observation par les radars sur laquelle
on voit la formation de l'événement sur la côte du golfe du Lion, et puis son développement
sous la forme d'une grande bande un peu dans l'intérieur des terres, et son apogée dans la
nuit du 12 au 13. Et puis la prévision par le modèle de recherches, il s'agit là d'un paramètre
qui est directement comparable à celui qui est observé, qui est la réflectivité au radar, c'est
donc quelque chose qui est assez proche de la pluie instantanée, et on voit que le modèle
avec un décalage d'une heure au maximum simule relativement bien l'initiation du
phénomène exceptionnel sur la côte du golfe du Lion, et puis son développement sous la
forme d'une bande relativement allongée sur le département de l'Aude, et le modèle simule
également relativement bien la disparition de ce phénomène dans la journée qui a suivi
l'inondation. Il y a donc quand même beaucoup d'espoir sur une amélioration encore de la
précision de la prévision de ces inondations.
Les mécanismes physiques qui sont à l'origine de ces événement exceptionnels sont
parfaitement compris dans leur ensemble, et je pense que nous pouvons dire qu'ils resteront
les mêmes dans les climats futurs. D'autre part, la qualité des prévisions météo est
maintenant essentiellement limitée par la connaissance de l'état initial et également la
puissance de calculs. Plus les ordinateurs sont puissants, plus les prévisions seront précises
et on peut déjà le prouver, et je pense avoir pu vous convaincre que grâce aux recherches
qui sont effectuées la prévision des phénomènes extrêmes fera encore des progrès. Je
voudrais également insister sur le fait qu'il s'agit d’événements qui resteront toujours difficiles
à prévoir. L'intensité précise d'une tempête restera toujours extrêmement difficile à prévoir,
et le délai d'anticipation que nous serons capables de donner ne dépassera probablement
jamais trois à cinq jours, en raison des limitations même du phénomène.
Cité des Sciences et de l’Industrie
14
Conférence du 24 juin 2000
La tempête, les inondations en France
Hervé Letreut
Je suis climatologue, je m'occupe d'une équipe qui travaille sur des problèmes d'évolution du
climat à plus long terme. La question qui a été posée à propos de la tempête était de savoir
si l'occurrence de cette tempête pouvait être associée à ce qu'on appelle le changement
climatique global, ou l'évolution du climat en réponse à l'effet de serre.
La réponse est non, et je vais argumenter le fait que cette réponse négative doit être un petit
peu nuancée de quelques remarques. En fait, la notion de climat est une notion statistique.
On va donc passer d'une description événementielle, de la manière dont l'atmosphère
évolue, on regarde les événements isolément, et de quelle manière les statistiques peuvent
évoluer. Lorsqu'on a un événement aussi extrême que celui-là qui revient tous les cent ans, il
est clair qu'essayer de caractériser une évolution dans son retour statistique est quelque
chose d'extrêmement difficile. Un événement aussi extrême de toute façon ne peut pas être
associé à un changement progressif et lent du système climatique, et a priori il n'est pas
associé au changement climatique.
Néanmoins, on a de bonnes raisons de penser que le climat commence à changer, que le
climat va changer, et le fait que cet événement-là ne soit pas associé nécessairement au
changement climatique ne veut pas dire qu'on ne soit pas dans un régime de changement
climatique, et ne veut pas dire qu'in fine, si on fait des statistiques très longues, on n'aie pas
association d’événements extrêmes, modification de la récurrence des événements
extrêmes sur la France avec l'évolution du climat.
Quelques idées essentielles. A-t-on des raisons de penser que le climat peut changer ? Une
raison simple, les variations de la composition chimique de la planète. Si on compare
l'évolution, sur une période de 200.000 ans à aujourd'hui, du dioxyde de carbone on note
que par rapport à cette échelle de temps relativement longue, cette évolution récente est
d'une brutalité extrême avec une modification très forte de la composition chimique de la
planète. Même chose pour le méthane, on constate une évolution tout au long des dernières
centaines de milliers d'années, avec les variations très importantes du climat qu'on a pu
avoir, glaciaire et interglaciaire, et puis l'évolution récente qui est un triplement de cette
quantité de méthane. On a donc des raisons de penser que le climat change, et en même
temps il faut nuancer ça, et une manière de le nuancer c'est de représenter un peu plus dans
le détail ce qui s'est passé au cours des dernières années.
Cité des Sciences et de l’Industrie
15
Conférence du 24 juin 2000
La tempête, les inondations en France
Par exemple, si on observe des modèles développés dans nos laboratoires, une simulation
de l'évolution du carbone atmosphérique, un des premiers gaz à effet de serre susceptible
de réchauffer la planète depuis 1860, cette évolution étant représentée par deux courbes,
une courbe observée et une autre étant le résultat d'une simulation assez complexe où on a
la dynamique de l'océan, la dynamique de l'atmosphère, les injections de carbone dans
l'atmosphère par l'activité industrielle, on voit que sur toute la période récente déjà écoulée le
modèle simule assez bien ce qui se passe, et on voit l'évolution future. Et on voit clairement
que ce qui pose problème c'est moins ce qui a déjà été acquis que l'évolution future. Derrière
ce débat récurrent sur le problème du changement climatique, il y a toujours l'idée qu'on est
déjà dans le changement climatique, que le fait de savoir si les catastrophes climatiques que
l'on peut voir, comme les tempêtes de cet hiver ou les inondations graves ou les inondations
qui ont eu lieu ailleurs dans le monde, ou les sécheresses peuvent être ou non attribués au
changement climatique est quelque chose de significatif.
En fait, on voit bien qu'on n'est pas encore dans la partie qui suscite de l'inquiétude à propos
du changement climatique, on est au tout début du processus. L'augmentation des gaz à
effet de serre n'est en fait sensible fortement que depuis deux ou trois décennies, et c'est
son évolution future qui pose problème. Il y a dans le débat sur l'attribution ou non de ces
tempêtes au changement climatique une petite distorsion des faits qui confond deux
attitudes, l'attitude des scientifiques qui, nécessairement, face à un changement qui
commence à avoir lieu essayent de se poser des questions, et savoir si on peut
effectivement lier les modifications de la circulation atmosphérique à ce début de
modification de la composition chimique de l'atmosphère, et donc au début de
réchauffement, et puis en fait l'inquiétude réelle qui est une inquiétude pour le futur.
Pour le même modèle et pour des observations de la même période, si on observe les
températures c'est un petit peu plus chahuté, on a une certaine variabilité naturelle des
températures. Si on observe la courbe de température observée depuis 1860, reconstituée
plus qu'observée, elle subit des variations, des fluctuations, et puis la courbe modélisée subit
elle aussi des fluctuations, l'amplitude de ces fluctuations est pour le moment d'un ordre de
grandeur presque égale en termes de réchauffement des dernières années, et là aussi ce
qui compte c'est le réchauffement futur. Le réchauffement actuel est encore dans la phase
initiale où il est difficile à distinguer des fluctuations naturelles du climat. Il faut donc faire très
attention à cette idée-là, on est au niveau du changement climatique dans une phase initiale
où tout est compliqué parce qu'en fait tout ce qui est variabilité naturelle et variabilité
provoquée par l'homme est d'un ordre de grandeur équivalent.
Cité des Sciences et de l’Industrie
16
Conférence du 24 juin 2000
La tempête, les inondations en France
Toujours sur cette même idée de distinguer éventuellement ce qui est dû à l'activité humaine
et ce qui est dû aux fluctuations climatiques, les processus qui affectent le système
climatique sont très complexes. Par exemple, sur un diagramme sur lequel sont exprimées
des valeurs en watt/m² qui correspondent à un forçage de l'atmosphère, on constate ce
qu'on appelle les gaz à effet de serre, qui réchauffent le climat, et un certain nombre d'autres
processus, l'ozone qui ne s'accumule pas de la même manière, il a une chimie beaucoup
plus rapide, des aérosols qui sont des petites particules liquides, solides, qui sont injectées
dans l'atmosphère, qui eux aussi ne s'accumulent pas vraiment dans l'atmosphère mais, par
contre, peuvent refroidir le climat. Les aérosols ont pour particularité de s'accumuler, comme
ils ont une chimie très rapide, ils ne sont pas mélangés à la surface de la terre, donc ils ont
tendance à avoir une distribution plus dense dans les régions industrielles, sur l'Europe, sur
les Etats-Unis, ils affectent donc le climat d'une manière géographiquement compliquée. Par
contre, ils n'affectent pas le climat d'une manière aussi durable, on n'attend pas une
croissance de l'effet des aérosols dans le futur, qui soit aussi grande que l'effet des gaz à
effet de serre.
Dans une certaine manière on est, en fait, dans un niveau de modification du climat où on a
pour le moment des facteurs complexes, et le facteur simple qui sera dominant au siècle
prochain, la croissance de ces gaz à effet de serre bien mélangés qui s'accumulent dans
l'atmosphère, pour le moment ne s'est pas imposé de manière décisive, et on a coexistence
de processus qui, pour le moment, ont encore une amplitude similaire et qui vont affecter le
climat de manière complexe.
Si on veut essayer de voir comment le climat va se modifier, on peut se poser deux
questions. Tout d'abord, comment sera le climat d'une planète plus chaude ? Et est-ce qu'on
a déjà des signes que nous sommes en train d'évoluer vers un climat de ce type-là ? Le
problème du changement climatique futur c'est qu'on ne peut l'appréhender que par des
modèles, et que les modèles donnent des résultats qui sont convergents, et avec une
certaine marge d'incertitudes qui fait qu'on doit relativiser la prévision de ces modèles. A
l'échéance d'un doublement du CO², c'est-à-dire à l'échéance de 2050 à peu près, la
prévision d'une quinzaine de modèles, il y a deux modèles français, celui de Météo France et
celui de notre institut, il y a deux modèles australiens, quatre ou cinq modèles américaines,
ce sont des modèles qui ont été développés un petit peu partout sur la planète, et on a pu
montrer le réchauffement climatique à une échéance qui correspond à 2050 à peu près. Ce
réchauffement est en moyenne de deux degrés avec à l'Equateur une certaine dispersion
entre les modèles, dispersion qui s'accroît dans les zones qui sont délicates à modéliser, en
haute altitude, et dispersion qu'on retrouve à toutes les latitudes. Si on prend l'ensemble des
Cité des Sciences et de l’Industrie
17
Conférence du 24 juin 2000
La tempête, les inondations en France
autres modèles on constate une certaine convergence qualitative, et puis une divergence
dans le détail.
Ceci est quelque chose qu'on retrouve si on s'intéresse à un champ plus important qui est le
champ de précipitations. A l'échelle globale, le changement de précipitations simulé par
l'ensemble de ces modèles, toujours aux alentours de 2050 qui est une date hypothétique
qui dépend de ce qu'on fait en matière d'émission de carbone, on retrouve une augmentation
de précipitations plus forte dans les moyennes latitudes, une augmentation de précipitations
plus forte aussi dans les moyennes latitudes de l'hémisphère sud, et puis dans la région
équatoriale on a un pic de précipitations, ce sont des zones où normalement il pleut, les
zones sèches du sud tropique s'assèchent ou restent stationnaires, mais avec à chaque fois
une incertitude relativement large.
Comment peut-on expliquer cette incertitude liée à la prévision des climats futurs ? On peut
l'expliquer essentiellement par ce que ces modèles climatiques représentent, ce qui nous
amène au fait que le climat est une affaire qui se décline d'abord à l'échelle globale, et puis
progressivement doit prendre en compte des échelles régionales. Sur une image
partiellement synthétique, une image radar de la planète, on y retrouve des impacts qui
correspondent à l'endroit où l'air monte, et cette structuration de la montée de l'air se fait à
grande échelle, il y a une zone où l'air monte près de l'Equateur avec des impacts très
précis, et au contraire des zones où l'air monte lentement avec des traînées très lentes aux
moyennes latitudes, et puis entre ces régions équatoriales et de moyennes latitudes on a
des régions où l'air ne monte pas du tout. Il descend en fait, et on a une structuration à
grande échelle de la circulation atmosphérique. Cette structuration à grande échelle est celle
qui va guider l'évolution du climat futur, et si on regarde la carte des précipitations on y
retrouve plus de précipitations ou climat plus chaud dans la zone où l'air monte, moins de
précipitations dans la zone où l'air descend, et plus de précipitations à nouveau dans les
régions de ces dépressions de moyenne latitude.
Et on a donc une association assez grande entre ce que l'on sait prévoir, et la grande échelle
atmosphérique. On voit que ce que les modèles représentent de manière convergente, c'est
tout ce qui est associé à la grande échelle atmosphérique. Et là, il n'y a pas de mystère, c'est
parce qu'en fait les modèles eux-mêmes ne simulent que cette grande échelle
atmosphérique, donc un modèle climatique est un modèle qui est capable de simuler les
anticyclones, les dépressions, mais certainement pas le détail de ce qui peut se passer à
petite échelle. La manière dont on représente dans les modèles climatiques ce qui se passe
à petite échelle est responsable de la divergence entre les différentes simulations.
Cité des Sciences et de l’Industrie
18
Conférence du 24 juin 2000
La tempête, les inondations en France
Les modèles climatiques ne peuvent pas représenter ces petites échelles pour des raisons
de temps de calculs. Par exemple, certains modèles climatiques nécessitaient il y a encore
quinze ans trente heures de temps de calculs pour faire un mois de simulations. Depuis
quelques années, une minute de temps de calculs suffit, ce qui veut dire qu'on a pu depuis
quelques années utiliser ces modèles pour faire des simulations du climat futur, mais ce sont
des choses qu'on fait de manière toute récente, et avec des résolutions un peu améliorées
maintenant on est à la limite de ce que les ordinateurs actuels nous permettent de faire si on
veut essayer de se projeter dans un futur lointain comme 2050. Il y a donc une raison
technique qui fait qu'on limite la prévision des modèles à cette grande échelle
atmosphérique.
Et puis, il y a une autre raison, c'est que cette grande échelle existe, et en fait la plupart des
processus qui vont l'influencer se situent à des échelles tellement petites qu'on ne gagne pas
grand chose dans un premier temps à essayer de les représenter. En fait, on a une
association statistique entre la grande échelle et la petite, et cette association sera toujours
statistique, c'est-à-dire que la grande échelle va toujours dépendre d'une manière qui n'est
pas déterministe, qui n'est pas complètement contrainte, de ce qui se passe à petite échelle.
En fait, le cœur du problème climatique va être qu'est-ce que l'on peut dire de l'association
entre les changements de la circulation atmosphérique, du climat de la planète, qui sont
caractérisés à grande échelle, dont on sait qu'ils vont probablement avoir lieu. On a toutes
les raisons de penser que ces changements de circulation, ces changements de température
à grande échelle vont avoir lieu, comment peut-on essayer de voir de quelle manière ils sont
associés à des variations climatiques à grande échelle ? Il y a le problème de la prévision de
ces climats futurs qui dépend de la petite échelle, et puis le problème retour qui est celui de
savoir comment à partir de scénarios de grande échelle on peut affiner localement et
essayer de savoir si localement on va avoir un impact fort de ces changements climatiques.
Pour essayer de voir comment on passe de cette grande échelle climatique à l'échelle
climatique, on peut essayer de s'appuyer sur ce qui se passe depuis le début du siècle. Si on
regarde l'évolution des températures depuis le début du siècle, on constate une évolution
récente vers un réchauffement qui est relativement avéré maintenant et qui s'explique assez
facilement, et le plus facilement par l'augmentation des gaz à effet de serre, mais certains
processus ne sont pas dus aux gaz à effet de serre, on a ici une variabilité qui est
partiellement naturelle, peut-être aussi provoquée par l'homme dans la dernière phase.
Cité des Sciences et de l’Industrie
19
Conférence du 24 juin 2000
La tempête, les inondations en France
Quoi qu'il en soit, on a un changement climatique, et ce changement climatique depuis le
début du siècle, qu'il soit d'origine humaine ou non, est corroboré par un certain nombre de
données. Par exemple des contenus thermiques dans l'océan, qui sont d'ailleurs des
données partiellement indépendantes mais qui donnent une évolution globale relativement
similaire, on a des données de glaciers concernant l'évolution de leur étendue au cours des
dernières décennies, on constate une tendance à la fonte des glaciers, et on a des indices
qui montrent que nous sommes dans un changement climatique. De quelle manière peut-on
essayer d'utiliser ce changement climatique pour voir de quelle manière un changement
global peut affecter le climat local ?
La manière dont travaillent les météorologues, très souvent, c'est de définir des indices. En
gros, on a une évolution globale du climat de la planète qui va se traduire régionalement de
manière statistique. Ce qu'ont construit les météorologues et les climatologues depuis
longtemps, ce sont des indices qui permettent de décrire ces statistiques-là. Par exemple, un
indice extrêmement utile qui nous ramènera lui aussi au climat de l'Europe, c'est l'indice
NAO, l'indice North Atlantic Oscillation, qui correspond en gros à une normalisation des
pressions entre Reykjavik et Lisbonne, qui mesure l'intensité relative de l’anticyclone des
Açores et de la dépression du nord-ouest de l'Atlantique. Cet indice est défini sur une base
saisonnière, il intègre des événement nombreux, c'est un indice qui va caractériser la
statistique des situations météorologiques de façon saisonnière sur l'Europe. Cet indice a
évolué au fil du siècle, et on reconnaît assez bien dans l'évolution au cours des dernières
décennies, une évolution qui est très parallèle à l'évolution des températures. On a un
maximum qui se situe plus ou moins après guerre, un creux dans les années 60 et puis une
augmentation chahutée, et depuis quelques années on a plutôt une augmentation de cet
indice NAO. Ceci est une mesure statistique de l'évolution du climat sur l'Europe et qui
montre que nous avons a priori une certaine évolution du climat sur l'Europe.
On peut passer de l'échelle globale à une échelle régionale et puis à une échelle encore un
petit peu plus régionale, finalement, chaque fois par une espèce de cascade statistique,
chaque échelle apporte son signal, et elle est liée à une échelle plus petite par un argument
statistique. Une analyse statistique simultanée de la précipitation obtenue par des méthodes
mathématiques relativement complexes techniquement, permet de dégager des modes qui
varient ensemble, de la précipitation et de la pression. On peut associer à ce mode de
variation des dépressions un mode de variation des précipitations et toujours à partir de
données historiques constater qu'on a en association avec cette évolution des dépressions
au niveau de la mer une évolution des précipitations sur l'Europe avec une structure en
tri-pôle, c'est-à-dire une évolution dans un sens positif en Europe du Nord, négatif en Europe
Cité des Sciences et de l’Industrie
20
Conférence du 24 juin 2000
La tempête, les inondations en France
centrale, et qu'on retrouve positif sur la Méditerranée et l'Afrique, l'idée c'est que ces deux
structures évoluent ensemble. On a des structures organisées de manière régionale qui
fluctuent dans le temps et qui fluctuent de manière relativement organisées. Et ce qu'on
appelle climat c'est cette modulation de la variabilité climatique régionale par des termes qui
évoluent plus lentement.
Si on revient au problème du changement climatique global, il y a eu des tentatives qui ont
été faites par différents modèles pour essayer d'associer, de décrire dans le futur l'évolution
de ces termes, l'indice Nord Atlantique dans un climat plus chaud, et dans un climat plus
chaud ce que les modèles montrent c'est qu'effectivement on a augmentation de ces indices
qui décrivent les climats régionaux, de cet indice NAO qui décrit l'amplitude relative de
l’anticyclone des Açores et de la dépression au large de l'Islande.
Pour conclure, la première idée c'est que le climat c'est une notion globale mais on peut en
décliner les effets régionaux sous forme de statistiques emboîtées, et à chaque étape on a
une incertitude. On a une incertitude sur son forçage global avec le rôle des aérosols, on a
une incertitude sur la réponse des modèles. Les différents modèles ont un certain spectre
d'incertitude, on a une incertitude sur la manière dont cette prévision des modèles se projette
à l'échelle régionale via les indices, parce que ces indices ne sont qu'une description
statistique de ce qui se passe. Enfin une dernière incertitude que nous ne savons pas décrire
pour le moment, qui serait d'associer les régimes de climat moyens de type NAO qui
décrivent les tempêtes normales à l'occurrence de tempêtes anormales, comme les
tempêtes que nous avons eues en décembre.
Effectivement, lorsqu'on pose la question de savoir si la tempête de décembre est le résultat
d'un changement climatique, on est très en mal de répondre par l'affirmative, parce qu'en fait
cette tempête se situe tout au bout de ce processus de désintégration statistique, avec un
temps de retour très faible, et il est très difficile de montrer qu'elle est due à quoi que ce soit
d'autre que le hasard. Par contre, et c'est pour ça qu'on a tendance à nuancer nos réponses,
essayer de dire que le climat est stationnaire, c'est quelque chose qui est probablement faux,
et le fait qu'on ne puisse pas montrer dès maintenant des impacts climatiques et des
fluctuations du climat moyen sur l'Europe qui soient significatifs ne veut pas dire que le climat
ne vas pas changer, il va changer de manière statistique, de manière complexe, mais
probablement la stationnarité du climat est l'hypothèse la moins probable pour le futur.
Quelle est la valeur ou la représentation des indices du Nord Atlantique dont vous avez
parlé ? Est-ce un indice de température ?
Cité des Sciences et de l’Industrie
21
Conférence du 24 juin 2000
La tempête, les inondations en France
Hervé Letreut
Ça correspond à une différence normalisée de pressions entre Lisbonne et Reykjavik, en
moyenne saisonnière, c'est une manière de caractériser la position ou l'intensité moyenne
des anticyclones et des dépressions sur l'Europe. C'est un indice qui va représenter la
statistique du temps sur une saison, mais qui ne va pas rentrer dans le détail des tempêtes
qui y sont associées. Là, que c'est uniquement la pression, ça décrit des régimes plus
complexes, et ça décrit aussi le comportement de systèmes qui se traduisent par des
variations d'autres variables.
Par rapport aux variations du temps, par exemple en 2050 il y aura un réchauffement de la
planète. A l'heure actuelle la tempête était prévue, mais sa cause n'était pas le
réchauffement de la planète. Que peut-il se passer jusqu'en 2050, est-ce que ce
réchauffement peut agir sur temps ?
Hervé Letreut
Le changement climatique c'est un changement de statistique, un changement climatique sur
l'Europe, effectivement ça veut dire des changements de statistiques de précipitations qui
seront probablement significatifs. Mais la région européenne n'est pas la région la plus facile
pour caractériser ces changements climatiques. Très probablement le changement
climatique futur ne se traduira pas majoritairement ou plus fortement sur l'Europe, mais plutôt
sur d'autres régions, les changements de précipitations, par exemple, seront plus intenses
dans les régions du Sud. Le changement climatique ce n'est pas un changement uniforme,
on aura toujours des sécheresses, des épisodes d'inondation, et les modèles le montrent,
nous aurons toujours des fluctuations, des hivers chauds, des hivers froids. Simplement, la
récurrence de ces événements ne sera pas la même.
Monsieur Philippe Bourgeault
Ce que nous pouvons dire actuellement c'est qu'il y a un consensus raisonnable selon lequel
sur la France en 2050 il fera entre un et deux degrés de plus en moyenne, ce qui veut dire
que bien sûr l'atmosphère contiendra un peu plus d'humidité, et lorsqu'il y a aura des pluies
exceptionnelles on s'attend à ce qu'elles soient encore plus fortes que maintenant.
Concernant les tempêtes, c'est une question beaucoup plus difficile, suivant la manière dont
on compte les événements on peut, dans les modèles, en trouver plus ou moins, et en fait la
conclusion c'est que nous ne savons conclure et il faut vraiment faire appel à des recherches
théoriques relativement poussées pour essayer de trouver des arguments, mais ces
arguments sont encore en cours de construction et personne ne peut dire actuellement si
Cité des Sciences et de l’Industrie
22
Conférence du 24 juin 2000
La tempête, les inondations en France
vraiment on sait si la fréquence des tempêtes va augmenter ou non, elle pourrait augmenter
ou diminuer, on entre dans l'inconnu.
Par rapport à l'immensité de la planète, la science ne craint pas l'immensité, je pense aux
deux calottes glacières, lorsque les scientifiques étudient par rapport aux régions habitées
toutes les études préventives et imaginées, les deux calottes glacières font-elles partie du
cerveau futur de la science par rapport au changement du climat ? Et quel serait l'effet ?
Philippe Bourgeault
Lorsqu'on fait des études climatiques, la grande échelle est pilotée par les processus qui se
situent à toutes les latitudes et, en particulier, dans les régions polaires. Le problème de
savoir ce que deviennent les glaciers, ce que devient l'étendue du sol couvert de glace ou de
neige de manière plus générale, c'est quelque chose que nous cherchons à simuler. Mais là
aussi nous avons des difficultés à le faire, ce qu'on peut penser de manière générale c'est
que tout ce qui est banquise, la glace sur l'eau va rétrocéder de manière forte, on a même
des simulations qui montrent qu'on pourrait ne plus avoir de banquise en Arctique avant la fin
du siècle prochain, c'est une possibilité et non une certitude.
Par contre, concernant les grands glaciers continentaux, la calotte Antarctique et la calotte
du Groenland ne sont pas menacées à l'échelle du siècle prochain, c'est-à-dire qu'elles ont
une température qui est suffisamment en dessous de zéro que même un certain
réchauffement ne les menace pas. Au contraire, on peut penser que dans un premier temps
comme il y aura plus d'eau dans l'atmosphère, plus de neige retombera sur ces calottes et
qu'elles auront peut-être même une tendance à grossir transitoirement.
A une plus grande échelle de temps, ça reste quelque chose de très mystérieux et il y a là
difficulté vraiment à argumenter sur ce qui peut se passer au-delà d'un siècle, en particulier
sur une partie de l'Antarctique qui est sous l'eau, ce que ça peut devenir au XXIe personne le
sait.
Vous avez dit qu'effectivement les tempêtes, ou mêmes les catastrophes naturelles quelles
qu'elles soient, dépendent de la façon dont elles sont perçues. Une météorite qui tombe sur
Paris n'aura pas du tout le même impact qu'une météorite qui tomberait au milieu du Sahara.
C'est exactement la même chose pour les tempêtes ou les inondations. Je pense qu'en
général des gens ordinaires il faut bien se rendre compte de ça, et de plus il y a une
médiatisation de tout ce qui est un peu exceptionnel qui n'existait pas autrefois. Si
aujourd'hui se passait une inondation comme celle de 1910 à Paris, on en parlerait plus qu'à
Cité des Sciences et de l’Industrie
23
Conférence du 24 juin 2000
La tempête, les inondations en France
l'époque, et ça coûterait également beaucoup plus cher aux assureurs et à l'Etat pour
indemniser. Ceci dit, même s'il y a un réchauffement global de la terre, se pose le problème
de l'amplitude qu'il peut y avoir à l'intérieur d'un réchauffement global. La terre se réchauffe
ou non, mais même si elle ne se réchauffait pas, on pourrait très bien avoir des extrêmes
dont l'amplitude est beaucoup plus grande. En fait les catastrophes sont des extrêmes qui se
produisent de façon complètement anormale, avoir -50° à Paris, par exemple, ou bien avoir
une année où tombe 10 mètres d'eau à Paris, et ça peut être complètement indépendant
d'un réchauffement global ou non.
Actuellement, un certain nombre de gens prêchent le catastrophisme, et on a du mal à
percevoir ce qui se passe. Si on prend une courbe de Gauss, par exemple, pour savoir si la
variance des phénomènes va augmenter ou non, c'est ce qui est important localement pour
une catastrophe ou une tempête. Je comprends les nuances que Monsieur Letreut a apporté
au propos parce que si j'ai bien compris, dans l'état actuel des choses on est pratiquement
impuissant à savoir si même un réchauffement global de la Terre pourrait amener des
modifications considérables des amplitudes des phénomènes catastrophiques, et des
choses qui seraient susceptibles d'influer sur les activités humaines, ou des pertes de vies,
ou autres.
Philippe Letreut
Vous avez tout à fait raison d'insister sur l'importance des extrêmes, mais le discours qui est
tenu actuellement sur le climat prend parfaitement en compte cet aspect-là, et lorsque les
scientifiques disent que le niveau moyen de l'océan va monter environ de 50 centimètres
d'ici à la fin du siècle prochain, il y a des centaines de personnes qui travaillent sur la
conséquence au niveau des événements extrêmes. 50 centimètres d'augmentation moyenne
du niveau de l'océan ça ne veut rien dire comme ça, mais ça veut dire que les cyclones au
Bengladesh vont noyer 300 km de territoire en plus. Et il est écrit dans les rapports du
groupe intergouvernemental d'études sur le climat que si le scénario climatique consensuel
actuel est exact, personne ne sait s'il est exact, mais s'il est exact il y aura des milliards de
personnes qui devront changer de lieu de résidence d'ici la fin du XXIe siècle, c'est écrit
dans les rapports officiels.
Philippe Bourgeault
La notion d'extrêmes se décline de manière très différente lorsqu'on est aux moyennes
latitudes ou quand on est dans les régions tropicales. Quand on est en région tropicale on a
un climat qui à l'échelle saisonnière est relativement stable, avec de temps en temps ces
poussées d'adrénaline que sont les cyclones, mais les sécheresses se développent à
Cité des Sciences et de l’Industrie
24
Conférence du 24 juin 2000
La tempête, les inondations en France
l'échelle de plusieurs mois. Et un changement climatique en région tropicale c'est quelque
chose qui peut se produire plus facilement, des anomalies significatives, que dans nos
régions, c'est-à-dire qu'on peut facilement avoir des périodes de sécheresse prolongées,
donc des incidences fortes du climat sur l'activité humaine en région tropicale qui soient
associées au changement climatique.
A nos latitudes, nous avons un climat qui est naturellement variable, de manière beaucoup
plus forte, et un météorologue est parfaitement capable de dire que son modèle paraissait
juste, mais qu'il est en train de devenir faux, parce qu'il voit bien qu'il reproduit une structure
qui ne ressemble pas du tout à ce qu'il voit sur le satellite. Nous réfléchissons pour un futur
qui se chiffre à quelques années à donner aux prévisionnistes plus de moyens d'action sur le
modèle et lui donner la possibilité d'interagir avec le modèle et de corriger vraiment à sa
volonté l'état initial du modèle pour tenir compte d'une information qui viendrait d'arriver et
qui lui paraîtrait très importante, et qui nécessiterait de modifier la prévision. Mais cela n'est
pas pour avant deux ou trois ans, nous allons conduire une période d'expérimentation en
2001 qui durera une année, et si cette période d'expérimentation est concluante, à son issue,
on réfléchira à mettre tout cela en service opérationnel l'année suivante ou un peu après.
Avez-vous beaucoup de modèles qui sont validés ? Je crois que pour valider un modèle il
faut un certain nombre d'années, et là vous débutez.
Philippe Bourgeault
Le travail de validation des modèles se construit de deux manières, il y a d'abord la
validation du modèle dans sa capacité à reproduire le climat actuel, c'est un travail que nous
faisons en continu, lorsque je dis que nous sommes capables d'intégrer des modèles depuis
cinq ans à l'échelle du siècle prochain, le travail de construction d'un modèle climatique, ou
des modèles météo qui sont un peu les mêmes, c'est quelque chose qui a commencé il y a
vingt ou trente ans, et depuis cette époque-là les gens travaillent de manière permanente à
essayer d'améliorer la représentation du climat moyen de leurs modèles. Les jeux de
données sont construits, des analyses de toutes les données observées sur des périodes de
plusieurs décennies ont été conduites, des climatologies de données satellitaires sont
organisées justement pour valider les modèles climatiques, il y a un travail technique qui est
important pour valider les modèles par rapport au climat actuel.
Si on veut évaluer les modèles par rapport à un changement climatique, un pas
supplémentaire est à franchir parce que nous avons des processus clés qui sont
précisément ceux qu'on ne voit pas à l'œuvre dans un climat stationnaire, et qui vont être
Cité des Sciences et de l’Industrie
25
Conférence du 24 juin 2000
La tempête, les inondations en France
extrêmement importants. Là on est obligé de réfléchir à l'échelle de processus importants, le
rôle des nuages, le rôle de la végétation, et on s'appuie là plus une expérience physique liée
aux processus. Mais tout ce travail de validation en continu est celui de tous les gens qui
sont dans nos laboratoires.
Vous parliez de puissance des ordinateurs, mais puisque ce sont des modèles pour les
années à venir, l'ordinateur a donc tout le temps de travailler pendant deux ou trois jours.
Philippe Bourgeault
Parce qu'en fait la simulation où on regarde la température évoluer depuis 1860 jusqu'à
2050, c'est une simulation qui a été faite dans notre laboratoire, elle a été lancée, à l'époque
c'était un C90 le plus gros ordinateur du CNRS, en juillet 1999, elle a tourné dans l'ordinateur
jusqu'à fin janvier 2000. Ce sont donc des simulations qui sont restées dans le plus gros
ordinateur pendant sept à huit mois, nous sommes quand même à la marge de ce qu'on peut
faire avec les ordinateurs actuels. Si on augmentait la résolution, il ne nous faudrait plus huit
mois de travail mais plusieurs années.
Hervé Letreut
Chaque fois qu'on veut doubler la précision du calcul, le temps de calcul est multiplié par
huit, donc nous sommes coincés, nous dépendons des progrès de l'industrie informatique.
Cité des Sciences et de l’Industrie
26
Téléchargement