“ Oser le savoir ” Conférence du 24 juin 2000 La tempête, les inondations en France : quelles en sont les causes ? Peut-on les prévoir et limiter leurs conséquences ? "Le climat sous surveillance" était le thème des conférences-débats "Oser le savoir" du mois de juin 2000. C'est dans ce cadre que cette conférence a été réalisée sur le thème "La tempête, les inondations en France : quelles en sont les causes ? Peut-on les prévoir et limiter leurs conséquences ?", avec Philippe Bourgeault et Hervé Letreut. Monsieur Philippe Bourgeault est ingénieur en chef en météorologie, responsable du Groupe de météorologie moyenne échelle au Centre national de recherches en météorologie de Météo France. Il est également spécialiste de modélisation numérique et d'organisation de campagnes de mesures ; il dirige depuis peu la campagne de mesures MAP (Mesoscale Alpin Program) en Autriche avec Franck Roux que nous avons accueilli ici à la Cité dans les rencontres sur l'exposition. Il est enseignant à l'Ecole polytechnique et il a obtenu en 1997 la médaille d'argent du CNRS. Monsieur Hervé Letreut est Directeur de recherches au Laboratoire de météorologie dynamique du CNRS, à l'Ecole Normale supérieure, à l'Ecole polytechnique et à Paris VI. Il est également professeur chargé de cours à l'Ecole polytechnique. Il a reçu en 1990 la médaille de bronze du CNRS, en 1992 le Prix Philippe Morris, en 1994 le Prix Becquerel de l'Académie des Sciences, et en 1999 l'Academia European. Il a fait plusieurs séjours à l'étranger, notamment à la NASA. Actuellement, il est adjoint au Directeur de laboratoire de météorologie dynamique pour le site de Paris VI, il est également coordinateur du pôle de modélisation de l'IPSL qui est une fédération de laboratoires en région parisienne. Il a écrit dans de nombreuses publications internationales et il a également écrit plusieurs ouvrages dont "Climate Sensivity, Physical Process and their validation", et également "Océans et atmosphère". Philippe Bourgeault Nous allons essayer de parler d’événements météorologiques violents, et plus particulièrement de ceux qui se sont produits l'année dernière. En forme d'entrée en matière, il m'a semblé intéressant de rappeler un peu de combien d’événements nous parlons, de faire une petite statistique, ce sont des chiffres assez intéressants et que j'ai pris sur le Cité des Sciences et de l’Industrie 1 Conférence du 24 juin 2000 La tempête, les inondations en France serveur Internet de Météo France. Si vous souhaitez trouver plus de précisions sur ces chiffres, vous pouvez vous adresser à ce serveur Internet. Lorsque nous parlons d’événements météorologiques violents, il n'est pas facile d'emblée de savoir de quoi on parle. En effet, un événement météorologique qui va être considéré comme violent dans une région particulière, peut être considéré comme banal dans une autre région, et même en France il y a des différences de climat relativement importantes, ce qui fait que les seuils qui sont fixés par les autorités de la Sécurité civile pour déclencher une alerte météorologique varient beaucoup entre le nord et le sud de la France. J'ai donc pensé qu'une manière objective de définir et de quantifier les événements météorologiques violents était tout simplement de compter les messages d'alerte que Météo France envoie aux autorités de Sécurité civile. Concernant la totalité de ces messages, il s'agit de chiffres qui sont quand même relativement importants, qui varient de 99 en 1994 à 259 en 1999. Nous avons le pourcentage du nombre de ces messages d'alerte qui sont jugés pertinents par les autorités de la Sécurité civile, dont 19 % en 1999 représentent les fausses alertes. Nous avons également le nombre d'absence d'alertes, les phénomènes dangereux qui n'ont pas du tout été prévus, il est de 13 pour 1999 à comparer aux 259 qui ont été prévus pour cette année-là, dont 80 % ont bien été prévus. On peut faire un certain nombre de remarques sur ces chiffres. Tout d'abord, on constate une assez grande variabilité d'une année à l'autre, ce qui est bien normal car c'est la variabilité naturelle du climat. D'autre part, on a l'impression qu'il y a une petite tendance, encore qu'il est très difficile de prévoir sur six ans, il est tout à fait possible qu'en 2000 ou en 2001 on retrouve des niveaux comparables à ceux de 1997 et de 1998. En moyenne à peu près 80 % des alertes sont jugées pertinentes par la Sécurité civile, et un tout petit nombre d'absences d'alertes. La répartition des messages d'alerte par type de phénomènes météorologiques violents est également relativement intéressante, les fortes précipitations, les orages qui combinent un certain nombre de facteurs de danger, les phénomènes de vent violent, la neige et le verglas, les avalanches et le froids qui sont des événements beaucoup moins nombreux. Nous aborderons plus particulièrement les fortes précipitations et les forts vents. Le plan de l'exposé s'articulera surtout autour d'études de cas, plus particulièrement deux événements violents qui sont encore dans toutes les mémoires, la tempête sur le nord de la France survenue le 26 décembre 1999, et la grande inondation de l'Aude du 13 novembre 1999. Tout d'abord, quelques repères historiques pour situer l'événement par rapport à la climatologie, ensuite, quels sont les mécanismes de formation, pourquoi ce genre de Cité des Sciences et de l’Industrie 2 Conférence du 24 juin 2000 La tempête, les inondations en France phénomènes arrivent-ils ? Comment se forment-ils ? Quelles sont les performances de la prévision telle qu'elle a été réalisée, qu'est-ce qui a été prévu, qu'est-ce qui ne l'a pas été et pourquoi ? Nous terminerons sur les cherches en cours et les perspectives d'amélioration des prévisions de ces événements. Pour parler de la tempête de Noël 1999, il faut resituer le paysage météorologie de la période du 21 au 28 décembre. L'Atlantique et l'Europe occidentale ont été intéressés par cinq dépressions principales, il y a eu d'autres petites dépressions que nous oublierons pour les commodités de l'exposé. La première que nous appelons la dépression A, a pris naissance le 21 décembre à zéro heure quelque part sur le nord-est des Etats-Unis et s'est déplacée pour traverser l'Atlantique, et à peu près au milieu de l'Atlantique au lieu de prolonger sa direction vers la France, elle a obliqué vers le nord, ce qui correspond à un comportement relativement normal pour une dépression météorologique. La seconde dépression s'est formée le 24 décembre à zéro heure, et s'est formée en fait au milieu de l'Atlantique. Elle a suivi également une trajectoire relativement classique passant sur le nord de l'Angleterre et allant jusqu'à la Norvège et, l'événement intéressant c'est que le 24 décembre à 6 heures du matin s'est créé quelque part au sud de Terre-Neuve, très loin de chez nous, une dépression qui a, elle, voyagé selon une trajectoire très, très, très au sud et qui ne s'est pas incurvée vers le nord, ce qui fait que ça l'a amenée à traverser le nord du pays le 26 décembre au matin. Egalement le 25 décembre à 18 heures la deuxième tempête est née juste au milieu de l'Atlantique, elle a suivi une trajectoire au sud de la précédente, et elle s'est également développée, elle a traversé la France en provoquant des dégâts sur la partie sud de la France cette fois-ci, - Je ne parlerai pas de la seconde tempête, faute de temps, je ne parlerai que de la première quoi que les deux événements sont assez comparables en intensité - et nous avons eu également ce qu'on appelle une onde qui est une tempête manquée qui s'est formée le lendemain de la deuxième tempête, pratiquement au même endroit et qui elle, par contre, ne s'est pas développée. Donc, le travail du météorologiste consiste vraiment à faire la part entre les événements qui vont aller jusqu'au bout et se développer et ceux qui, au contraire, vont avorter en cours de route. Durant cette tempête du 26 décembre, des vents ont été enregistrés sur le territoire, - je vous rappelle que l'événement s'est produit aux premières heures de la matinée et que la tempête a traversé le pays entre 5 heures et 10 heures du matin -, un nombre important de régions ont été affectées pour lesquels les vents maximaux instantanés enregistrés ont été supérieurs à 150 km/h. On distingue en météorologie deux mesures du vent, le vent maximal Cité des Sciences et de l’Industrie 3 Conférence du 24 juin 2000 La tempête, les inondations en France instantané qui correspond à un vent qui va se maintenir pendant quelques secondes au plus, qui est évidemment beaucoup plus fort que le vent moyen qui, lui, est calculé sur une moyenne de dix minutes, et qui va à cause de l'effet de moyenne être, en général, au moins de 50 % plus faible. Celui qui était intéressant à prévoir pour les dégâts et pour la protection des populations c'est le vent maximal instantané. Des valeurs supérieures à 150 km/h sur une grande partie de la moitié nord du territoire, et des valeurs également importantes sur le reste du pays. Comment cet événement se compare-t-il à des événements récents ? Est-il vraiment aussi rare que ça ? Si on recherche dans les archives sur une vingtaine d'années pour lesquelles on a vraiment de très bonnes mesures du vent maximal instantané, des éléments qui permettent de faire des comparaisons extrêmement fines, et uniquement sur la partie nord de la France, on ne trouve en fait que trois événements qui approchent un peu en intensité l'événement du 26 décembre. Il s'agit de la tempête du 15 octobre 1987 qui avait affecté uniquement la Bretagne, de la tempête du 3 février 1990 qui a eu une trajectoire comparable à celle du 26 décembre 1999, mais avec une intensité tout de même beaucoup moins forte, et puis la tempête du 26 février 1990 qui avait, elle, uniquement affecté la Normandie et le nord de la France. Il est intéressant de noter que si on parle uniquement des vents maximaux, ces vents maximaux observés durant la tempête du 15 octobre 1987 sont en fait supérieurs aux vents maximaux enregistrés lors de la dernière tempête. Simplement, ces vents maximaux n'ont intéressé qu'une petite partie de la France, la Bretagne et la Normandie, ce qui fait qu'elle est restée peut-être un peu moins présent dans les mémoires, mais on voit bien que les tempêtes très violentes, en fait, ne sont pas si rares que ça. En réalité, ce qui compte ce n'est pas la violence de l'événement mais c'est là où il passe. Nous verrons par la suite d'autres événements sur l'Atlantique où on voit qu'il y a des tempêtes extrêmement violentes, beaucoup plus violentes que celles dont nous allons parler, mais simplement elles ne passent pas sur la France, et on n'en parle pas. Ce qui rend l'événement exceptionnel ce n'est pas sa force, c'est sa trajectoire. Au point de vue de la durée de retour, si on essaye de calculer des retours, ce qui est assez compliqué vu le peu de données disponibles sur les rafales, sur le vent maximal instantané, on est amené à donner un ordre de grandeur de plus d'une centaine d'années, c'est donc un événement qui se passe extrêmement rarement sur la France on le sait bien. Pourquoi ces événements se forment-ils et de quelle manière se forment-ils ? Un acteur essentiel de la météorologie de nos latitudes c'est ce qu'on appelle le courant jet qui est un Cité des Sciences et de l’Industrie 4 Conférence du 24 juin 2000 La tempête, les inondations en France tube de vent extrêmement fort, en général supérieur à 200 km/h, qui fait tout le tour de la planète et qui est situé à une altitude d'environ 10 km, et qui existe quasiment en permanence. C'est le moteur du système, le phénomène météorologique de base de la météorologie de l'hémisphère nord. Qu'est-ce qui explique la formation du courant jet ? C'est un phénomène mécanique extrêmement simple. Un principe de base, c'est la conservation des moments cinétiques. Par exemple, un patineur qui fait du patinage artistique, lorsqu'il veut tourner sur lui-même, il commence avec les bras relativement écartés, il prend de l'élan et ensuite il repli ses bras vers lui-même, et cette action de replier ses bras sur lui-même a tendance a entraîner, à mettre en rotation de plus en plus rapide son corps. C'est la conséquence directe de la conservation des moments cinétiques, chaque fois qu'un corps physique ramène la masse vers le centre de rotation, automatiquement la vitesse de rotation s'accentue et le phénomène est tout à fait exponentiel, la vitesse de rotation s'accentue extrêmement vite. C'est ce phénomène qui est à la base de la création du courant jet. En raison des différences de température entre l'équateur et le pôle, il est nécessaire que des particules d'air en permanence se déplacent depuis l'équateur vers les pôles. Ce mouvement-là a pour effet de contracter la masse de l'atmosphère vers l'axe des pôles qui est la bi-rotation, et de mettre l'atmosphère en rotation de plus en plus forte. La vitesse de rotation initiale à l'équateur est égale à la vitesse de rotation de la terre, et en raison de la concentration de la masse vers l'axe des pôles, la vitesse de rotation s'accentue, ce qui fait que l'atmosphère prend un mouvement qui est circulaire par rapport à la terre solide, par rapport à la planète, et tourne de l'Ouest vers l'Est. Si la terre était parfaitement plate, et s'il n'y avait pas de différence entre les continents et les océans, on peut dire que le courant jet serait parfaitement circulaire, ce serait un phénomène très, très simple à comprendre. Par contre, nous avons de grandes chaînes de montagne comme l'Himalaya, les Rocheuses, et d'autres, et ces grandes chaînes de montagnes ont pour influence de briser la symétrie du courant jet, et de faire osciller ce courant jet, ce qui fait qu'il a des branches qui sont relativement complexes. Une des branches qui va nous intéresser particulièrement c'est la branche Atlantique Nord qui, au lieu de suivre un cercle de latitude, remonte depuis les grandes plaines des Etats-Unis en passant sur la côte Est, et en direction de l'Europe, et puis s'incurve un peu vers l'Angleterre et la Norvège. C'est dans cette branche du courant jet que vont prendre naissance les fameuses tempêtes qui affectent notre pays. Cité des Sciences et de l’Industrie 5 Conférence du 24 juin 2000 La tempête, les inondations en France Pourquoi ces tempêtes prennent naissance ? Il s'agit d'un jet extrêmement rapide qui va atteindre en général 200 à 300 km/h, et comme tout jet de fluide, ce jet est fondamentalement instable. Si on regarde une fumée avec un panache de fumée, on voit très bien que la fumée ne s'éloigne jamais d'une manière parfaitement laminaire, elle crée toujours des oscillations qui se développent. Et les tempêtes prennent naissance par instabilité fondamentale du courant jet en haute et moyenne altitude. De plus, il y a le mécanisme de moteur thermique dont on parle souvent, qui correspond au fait qu'au sud du courant jet on a une atmosphère relativement chaude, au nord du courant jet on a une atmosphère relativement froide, et le travail de l'atmosphère consiste à retransporter la chaleur du sud vers le nord pour répartir la chaleur et la température, ce qui fait que ça fonctionne un petit peu comme un cycle thermique, comme un moteur de voiture, il y a transformation d'énergie potentielle en énergie cinétique, et donc ces tempêtes ont tendance à se développer tout simplement parce que l'air chaud a tendance à monter, les trajectoires des particules sont des trajectoires ascendantes et cela insuffle de l'énergie dans la tempête qui se développe tout en se déplaçant vers le nord-ouest en se rapprochant de l'Europe. Si on veut comprendre les tempêtes qui affectent notre pays, il faut aller les chercher très loin en amont. Nous avons fait une statistique il y a quelques années à partir de 72 trajectoires de tempêtes, correspondant à cinq hivers successifs. Si on affecte l'heure zéro au moment où la tempête passe au voisinage de l'Europe occidentale, on va trouver en général le centre de la tempête 12 heures plus tôt dans une zone, 24 heures plus tôt dans une autre, et si on remonte jusqu'à trois jours, on va trouver très clairement le centre de la tempête, évidemment la tempête sera beaucoup moins développée, mais son centre sera situé dans une enveloppe qui est quelque part sur le nord-est des Etats-Unis. Pourquoi certaines de ces tempêtes se développent-elles ? Et pourquoi les autres restent finalement des événements bénins ? C'est tout l'art de la météorologie d'arriver à comprendre ceci. Nous avons produit un schéma de synthèse sur la tempête du 26 décembre 1999, que l'on peut retrouver sur un de nos sites Internet, et il faut bien être conscient du fait qu'il représente l'état actuel sur la recherche sur cette tempête. C'est un événement tout à fait extraordinaire qui va générer énormément de travaux. Déjà actuellement dans le monde il y a certainement plusieurs dizaines de chercheurs qui essayent d'interpréter cet événement, il est absolument certain que d'ici deux ou trois ans il y aura des thèses qui seront soutenues à l'université pour expliquer cette tempête. Ceci est l'état actuel du consensus des connaissances sur cette tempête, mais il y aura peut-être un chercheur génial qui va arriver avec des nouvelles qui démontreront qu'il y a un processus particulier qui a été responsable de l'amplification particulière de cette tempête, et on peut Cité des Sciences et de l’Industrie 6 Conférence du 24 juin 2000 La tempête, les inondations en France dire à l'heure actuelle que l'élément central de l'explication c'est le courant jet. Le courant jet a pris pendant la période du 24 au 25 décembre 1999 une position qui est relativement inhabituelle, elle n'est pas extrêmement rare, cette position est probablement prise au moins une fois par hiver, et à elle seule elle ne suffit pas à expliquer ce qui s'est passé. Pourquoi le courant jet a-t-il pris cette position ? Là, il faut chercher l'explication dans l'interaction avec les deux premières tempêtes, la dépression A et la dépression B. On pense que la dépression A et la dépression B ont interagit d'une certaine manière avec le courant jet pour lui permettre de se déplacer légèrement vers le sud, et puis surtout de s'étendre et d'arriver avec sa pointe carrément sur notre pays, c'est le premier acte. Le deuxième acte c'est la naissance de la tempête de Noël. Cette naissance intervient très précisément entre le 24 décembre à 6 heures et le 25 décembre à zéro heure, c'est ce qu'on appelle la genèse de cette tempête. Pourquoi est-elle née précisément ici ? Il y a là un principe qui est bien connu en météorologie, c'est le fait qu'à cause des lois de la mécanique des fluides, lorsqu'on a une accélération des vents en haute altitude qui est le courant jet, à l'endroit où le vent accélère c'est ce qu'on appelle la zone d'entrée du courant jet, et du côté droit de la zone d'entrée du courant jet il y a un phénomène d'ascendance de l'air à grande échelle, ascendance extrêmement rapide mais qui est tout à fait continue et régulière. Les particules qui passent en surface au voisinage du sol sous cette zone d'ascendance sont soumises à un phénomène de contraction de la masse, parce que lorsque la masse monte pour compenser cette ascendance des particules, il faut qu'il y ait des particules qui se rassemblent au sol, et donc on retrouve le phénomène cinétique qui est le phénomène d'accélération de la rotation à cause de la concentration du mouvement cinétique. Simplement là ce phénomène se produit à une plus petite échelle, et la moindre petite perturbation météorologique qui passe dans cette zone critique qui est l'entrée droite du courant jet, va avoir tendance à s'amplifier à cause de ce phénomène de conservation du mouvement cinétique. Ensuite, cette tempête est créée, que se passe-t-il ? Elle se déplace pendant deux jours, elle longe le courant jet, c'est un phénomène qui est assez habituel, et en se déplaçant elle ne s'amplifie pas, elle conserve pratiquement toujours la même intensité. Et vers la fin de son cycle de vie, c'est-à-dire le 26 vers minuit, elle arrive à traverser le courant jet, et la tempête va passer sous une deuxième zone critique qui est cette fois-ci la zone de sortie gauche du jet. Donc, la symétrie est à faire entre l'entrée droite et la sortie gauche du jet, et là on a le même mécanisme dynamique qui se produit, la zone de sortie gauche du jet c'est une zone d'ascendance de grande échelle, et donc de nouveau une zone d'amplification des Cité des Sciences et de l’Industrie 7 Conférence du 24 juin 2000 La tempête, les inondations en France tempêtes, et c'est là évidemment que la tempête va s'amplifier au moment même où elle aborde les côtes de notre pays, alors que d'habitude les tempêtes diminuent d'intensité à cause du frottement sur le sol. Finalement, le caractère exceptionnel de cette tempête est dû à la conjonction de trois facteurs qui sont eux-mêmes relativement rares, tout d'abord la mise en forme du courant jet selon ce schéma qui n'est pas très habituel, ensuite le passage d'une tempête en entrée droite du jet, et le passage de la même tempête en sortie gauche du jet. Si on calcule les probabilités, on multiplie trois probabilités relativement faibles entre elles, et cela donne une probabilité extrêmement faible, finalement, que ce phénomène survienne. On peut dire qu'en quelque sorte c'est un hasard, mais qui reste à l'intérieur des phénomènes relativement bien connus et compris. Comment la tempête du 26 décembre a-t-elle été prévue par les modèles numériques de Météo France ? C'est une question qui a donné lieu à pas mal de débats, et au risque de vous surprendre peut-être, la tempête a été relativement bien prévue par les modèles de Météo France, pour preuve la prévision et une approximation de la réalité, c'est-à-dire l'analyse qui sert à initialiser les cycles de prévision du modèle, ont été réalisées par Météo France. La prévision a été faite à partir du 25 décembre à zéro heures, c'est une prévision à 24 heures, elle montre que la tempête s'approche du pays, elle n'est pas encore très importante à ce moment-là, la prévision correspond très bien à l'analyse. Six heures plus tard, nous sommes à 6 heures du matin le 26 décembre, la tempête est sur Paris, elle est très bien située par le modèle, simplement la prévision de la pression au centre de la tempête est de 979 hectopascals, alors que la réalité est à 974 hectopascals, et on sait que même au niveau des mesures brutes, on a observé jusqu'à 965 hectopascals, donc quelque chose d'encore plus creux que ça. Clairement, là le modèle a sous-estimé l'intensité de l'événement. Encore six heures plus tard on voit que la tempête a déjà quitté la France, elle est sur l'Allemagne et elle est toujours extrêmement bien localisée, la prévision est toujours parfaitement en phase avec l'observation. On peut dire qu'au niveau de la trajectoire, le modèle numérique de Météo France, qui est le modèle Arpège, a réalisé un très bon travail, par contre, au niveau de l'intensité du phénomène, clairement il a sous-estimé de plusieurs millibars, donc de plusieurs dizaines de mètres par seconde l'intensité de la tempête. Comment la prévision a été faite ? Par les prévisionnistes, parce que le modèle en lui-même n'est qu'un outil d'aide aux prévisionnistes. Les prévisionnistes de Météo France, comme Cité des Sciences et de l’Industrie 8 Conférence du 24 juin 2000 La tempête, les inondations en France ceux de tous les services météorologiques du monde, ne regardent pas un seul modèle de prévision, mais ils regardent un grand nombre de modèles de prévision pour avoir une idée de la fiabilité de la prévision. Toutes ces prévisions correspondent au moment où la tempête était sur Paris, de nouveau avec l'analyse vérifiant avec cette tempête extrêmement creuse sur Paris, avec la prévision du modèle français qui est la meilleure des quatre. La prévision du modèle anglais est la deuxième au point de vue qualité, pour elle la tempête est à peu près au même endroit à 6 heures du matin le 26, mais elle est prévue encore moins intense que dans le modèle français. La prévision du modèle allemand commence à être un petit peu fausse en localisation, et encore plus faible, et la prévision du modèle européen est quasiment dans les choux. La veille du 26 décembre, dans la journée du 25 les prévisionnistes avaient l'ensemble de ces résultats à leur disposition, et ils devaient prendre une décision, ce qui est leur travail. Qu'est-ce qui a été fait ? D'une part, une série d'alarmes a été émise dès le samedi matin vers 10-11heures, en signalant qu'une tempête avec des vents de 100 km/h traverserait la France dans la nuit et dans le courant de la matinée prochaine, ce qui correspondait au point de vue timing de l'événement à quelque chose d'à peu près correct. Ensuite, dans l'après-midi les soupçons se sont confirmés et là Météo France a émis un communiqué de presse dans lequel la prévision a été un petit peu aggravée, on a parlé de vents de 110 km/h, et puis de vents de 140 km/h sur les côtes et de 130 km/h sur les reliefs des Vosges. Ce qui était encore tout à fait en dessous de la réalité, puisque la réalité a été plutôt de 150 km/h en fait, et il s'agit effectivement d'une erreur de prévision de l'intensité qui est assez importante, mais qui se situe bien à la limite de l'état de l'art. Et en tout cas, ce qu'il est important de dire c'est que grâce à ces alertes émises dans l'après-midi du vendredi, un grand nombre de mesures de précaution, de protection ont pu être prises ; en effet, toutes les grues à tour qui sont extrêmement sensibles aux forts vents on pu être protégées, et les grandes roues des Champs Elysées, par exemple, qui étaient montées pour la fête du Millénaire ont également été protégées grâce à cette prévision, quel qu'ait pu être son caractère imprécis. Comment raisonne le prévisionniste ? Là, évidemment il se trouve que ce jour-là c'était la prévision du modèle français qui était la meilleure, mais je pourrais dire que c'est presque un peu par hasard, il arrive d'autres situations où c'est la prévision du modèle anglais qui est la meilleure, ou bien celle du modèle européen, aucun modèle est le meilleur à tous les coups, c'est tantôt l'un, tantôt l'autre. Et justement, le problème qui se pose au niveau de la recherche c'est comment faire pour améliorer et rendre plus fiables ces prévisions. Cité des Sciences et de l’Industrie 9 Conférence du 24 juin 2000 La tempête, les inondations en France Quelles sont les voies de recherches ? Nous avons acquis la quasi-certitude que les différences de prévisions entre les quatre modèles ne sont pas liées à la formulation des modèles, mais sont liées uniquement à la connaissance des conditions initiales de calcul, l'état des paramètres météorologiques sur l'Atlantique. Ce qu'il faut améliorer c'est la connaissance des conditions initiales, et on le fait à partir de quatre voies d'approche. Pour ce qui concerne uniquement la première voie d'approche c'est le ciblage des observations. Depuis que la météorologie existe, les prévisions sont faites à partir d'observations qui sont réalisées toujours aux mêmes points, il existe un réseau de mesures qui est fixe, qui repose sur des radios sondages, et il mesure toujours au même point et quasiment aux mêmes heures. Des études théoriques ont permis de montrer qu'au contraire, l'atmosphère est très variable et les mesures qui sont réellement utiles pour faire une prévision ne sont pas toujours au même endroit, elles sont parfois à un endroit, parfois à un autre. Nous avons donc organisé il y a trois ans, en 1997, une très grande campagne internationale qui s'appelle FASTEX et qui avait pour objectif de renforcer les mesures sur l'Atlantique de manière à améliorer la prévision des tempêtes, mais de renforcer les mesures de manière intelligente, et non pas en faisant des mesures systématiques toujours au même endroit. Pour réaliser cette campagne, on est obligé de faire appel à une très forte collaboration internationale, on a pu réunir pratiquement les services météorologiques et les agences de recherches tous les pays de la façade Atlantique, depuis l'Angleterre, l'Islande, le Canada, jusqu'aux Etats-Unis, et même le Portugal et l'Espagne, et on a pu ainsi rassembler un grand nombre de vecteurs de recherches comme des gros avions, et puis quelques bateaux. Pendant deux mois ces systèmes ont réalisé des mesures de la façon suivante : supposons que l'on veuille améliorer la prévision du 19 février, c'était en 1997, on veut améliorer la prévision sur l'Europe le 19 février, nous avons maintenant la possibilité dans les modèles numériques de prévision de calculer quelles sont les modifications à l'état initial qui ont le plus d'influence dans la prévision deux jours plus tard. Si on s'intéresse à l'initialisation du modèle deux jours avant, le 17 février, le modèle sait calculer lui-même où il y a un besoin de faire des mesures, il s'agit d'un paramètre qui est la température à 3.000 mètres environ, et on sait que si on modifie l'état initial suivant un schéma c'est là qu'on aura la plus grande sensibilité. C'est très important, parce que ça veut dire que si on fait une erreur sur la température dans une zone donnée, et en particulier si on fait une erreur sur la restitution de cette structure particulière de température, le modèle sera complètement faux. Ce qui veut dire qu'il faut concentrer les mesures dans cette zone pour ce jour-là, mais pas forcément pour tous les jours, un autre jour ce sera ailleurs. Durant cette campagne nous avions des avions de Cité des Sciences et de l’Industrie 10 Conférence du 24 juin 2000 La tempête, les inondations en France recherches à notre disposition, en particulier des avions basés à Terre-Neuve, et on a pu concevoir une trajectoire, un vol particulier, qui a permis d'échantillonner les mesures de température dans cette structure particulière, et qui a donc permis d'améliorer l'état initial de l'atmosphère dans cette zone-là. Le résultat c'est une prévision qui est nettement améliorée, sur laquelle nous voyons la trajectoire de la tempête en question le 17 février, elle s'est déplacée selon une trajectoire assez classique, elle est arrivée le 19 février quelque part au nord de l'Angleterre, l'observation de cette tempête a montré qu'était d'une intensité de 958 millibars ce jour-là, il s'agissait d'une véritable tempête. Une remarque, cette tempête est bien plus forte que celle qui est passée sur la France en décembre 1999, nous comparons 958 à 965 millibars, ceci montre bien que ce n'est pas l'événement lui-même qui est rare, c'est simplement sa trajectoire, ceci est un événement assez courant dans ces parages. La tempête était prévue à 968 millibars avec les mesures spéciales réalisées par les avions de recherches, donc une prévision parfaite, et sans ces mesures spéciales il était prévu 944 millibars, et là la prévision était à la hausse dans un sens opposé à celui qui nous intéresse, c'est-à-dire que la prévision était pour une tempête trop forte, mais une erreur de prévision à la hausse de tempête est aussi grave qu'une erreur à la baisse. Nous savons maintenant comment acquérir des mesures qui permettent d'améliorer la prévision des tempêtes sur l'Europe occidentale. Nous avons pu réaliser des études sur une vingtaine de cas différents, vingt tempêtes différentes durant 1997, et pratiquement à chaque fois on réussit à améliorer la prévision de cette tempête. Concernant les inondations, quelques repères historique. On a l'impression qu'il y a de plus en plus d'inondations, mais il faut rappeler qu'en octobre 1940 on a observé une pluie de 1.000 millimètres en 24 heures, ce qui paraît être au-delà du concevable, plus que ce qui tombe en un an en 24 heures dans la région du Roussillon et de la Catalogne, qui a fait 700 victimes. Les inondations ne remontent pas à l'année dernière, si on fait des statistiques on trouve que 119 épisodes produisant au moins 190 millimètres en 24 heures ont été répertoriés depuis une quarantaine d'années. Les grandes inondations récentes sont celles du 3 octobre 1988 à Nîmes où on a observé 400 millimètres en neuf heures, celle du 22 septembre 1992 à Vaison-la-Romaine où on a observé 300 millimètres en 12 heures, et puis bien sûr celle de l'Aude. Pour mémoire, signalons celle de Barentin, puisqu'elle est très récente, si on peut dire, seulement 80 millimètres en deux heures, c'était quand même un événement un peu moins fort en magnitude. Cité des Sciences et de l’Industrie 11 Conférence du 24 juin 2000 La tempête, les inondations en France Cet épisode pluvieux a provoqué des précipitations supérieures à 500 millimètres sur une partie du département de l'Aude. La durée de retour de cet événement là encore est de l'ordre d'une centaine d'années, encore qu'il est extrêmement difficile de parler de durée de retour pour des événements aussi rares. Concernant les mécanismes, là aussi ce qui frappe c'est que ce sont des mécanismes qui sont pratiquement classiques, c'est simplement la conjonction de phénomènes qui sont rares entre eux, car chacun de ces phénomènes est relativement rare, et leur conjonction amène à un résultat qui est tout à fait exceptionnel et qui est effectivement très rare. Mais il n'y a rien de particulièrement nouveau dans la création de cet événement. Que se passe-t-il ? On a de l'air chaud et humide qui converge sur le golfe du Lion, nous sommes en novembre, la température de la Méditerranée est encore relativement chaude, c'est un point très important, donc l'air se charge d'humidité, il s'accélère dans la partie convergente entre la Montagne Noire et les Pyrénées, et l'air s'élève puisqu'il y a une certaine pente. Pour passer du rivage méditerranéen au seuil de Naurouze il y a une certaine pente, donc l'air a tendance à se condenser et à former des nuages. En altitude, à environ 10 km, on a une circulation complètement différente et qui amène de l'air relativement froid qui vient du nord, qui suit un trajet assez complexe, qui va vers le sud, qui retourne vers le nord et qui amène de l'air froid juste au-dessus de l'air chaud qui vient de la Méditerranée. La première raison de l'événement c'est la juxtaposition sur la verticale d'air chaud et d'air froid qui crée une situation instable. La deuxième raison de l'événement, et nous retrouvons une fois de plus le phénomène d'ascendance créé à la sortie d'Auch, du Gers, on a une accélération et puis une décélération de l'écoulement, on a en quelque sorte de nouveau un courant jet, un mini courant jet, et nous avons un phénomène d'ascendance lié à la sortie gauche du courant jet qui va favoriser la création d'un système nuageux. Le troisième phénomène, ce sont évidemment les très, très forts vents qui vont amener un air extrêmement humide qui va se caler pendant un grand nombre d'heures sous la forme d'une bande allongée qui a été extrêmement pluvieuse. La prévision de cet événement a été numériquement relativement bonne, on a quelques observations de quantités de pluie recueillies, et puis la prévision du modèle opérationnel Aladin qui est un de nos modèles de prévision opérationnelle, et on s'aperçoit que cette prévision donne une pluie totale de 150 millimètres en 18 heures, relativement bien située sur l'Est du département de l'Aude. 150 millimètres c'est beaucoup moins que les 500 qui ont été observés, mais c'est quand même très inhabituel pour ce modèle numérique, je pense Cité des Sciences et de l’Industrie 12 Conférence du 24 juin 2000 La tempête, les inondations en France que c'est une des premières fois que ce modèle numérique prévoit 150 millimètres de pluie. Et c'est là où on voit le rôle de l'expertise du prévisionniste, il connaît son modèle et il sait très bien que 150 millimètres c'est quelque chose de très, très rare, et il se dit que peut-être le modèle est faux, mais de toute façon il sait que c'est un phénomène exceptionnel, et il va déclencher une alerte. Les pluies se sont produites dans la nuit du 12 au 13 novembre, dès le 11 novembre à 15 heures 45, c'est-à-dire vingt-quatre heures avant l'événement, il y a eu une série d'alertes aux pluies exceptionnelles qui ont été émises, et ces alertes ont été aggravées le lendemain, à peu près six heures avant l'événement, et à ce moment-là on a commencé à parler dans les bulletins d'alertes d'une quantité totale de précipitation de 400 millimètres, ce qui était une première, on n'a jamais fait une prévision de 400 millimètres de pluie, et la réalité a été à 500 millimètres, on peut dire que c'était globalement une prévision assez réussie. Par contre, que se passe-t-il lorsque le grand public reçoit une prévision de 400 millimètres de pluie ? A l'heure actuelle on s'aperçoit que personne n'est capable de comprendre ce que ça représente, et il faut que nous, Météo France, fassions un effort pour mieux expliquer au public la gravité de l'événement. Quelques voies de recherche concernant cet événement : on s'aperçoit que le principal besoin, si on veut préciser plus encore la localisation de la forte pluie et son intensité, c'est d'améliorer la connaissance des particules nuageuses. Dans les nuages il y a des gouttelettes d'eau ou bien des cristaux de glace, et ces gouttelettes d'eau peuvent avoir des tailles extrêmement variables selon les nuages, et évidemment suivant sa taille, la gouttelette tombera plus ou moins vite, et la vitesse de chute de la goutte de pluie va être un élément clé de la qualité de la prévision qui pourra être faite. Nous avons donc besoin d'acquérir des mesures nettement plus précises, une connaissance nettement plus précise des caractéristiques des gouttelettes qui existent dans les nuages. Pour cela nous avons monté en automne 1999 une campagne de mesures qui s'appelait le Mesoscale Alpin Program, MAP, qui consistait de nouveau à rassembler un grande nombre de pays et de moyens pour mesurer les caractéristiques des nuages similaires à ceux qui ont été observés dans l'inondation de l'Aude. La campagne de mesures s'est déroulée dans le nord-ouest de l'Italie dans la plaine du Pô, c'est la zone d'Europe où il pleut le plus en automne et nous étions à peu près sûrs de rencontrer de très grands nuages. Une richesse de moyens a été rassemblée lors de cette campagne de mesures : un grand nombre de radars de recherches et un grand nombre d'avions qui ont permis de faire des pénétrations dans les nuages pour mesurer réellement les caractéristiques des gouttelettes d'eau et d'autres caractéristiques. Cette campagne a été présentée ici par Franck Roux dans le cadre de ces conférences. Cité des Sciences et de l’Industrie 13 Conférence du 24 juin 2000 La tempête, les inondations en France Pour terminer sur une note d'optimisme, récemment nous avons réalisé une simulation de l'événement du 12 novembre avec un modèle numérique différent, un modèle de recherche. Il s'agit d'un modèle infiniment plus cher au point de vue temps de calculs que les modèles opérationnels, il est environ cent fois plus cher, le résultat est disponible cent fois plus tard que le résultat du modèle opérationnel, il est donc totalement impossible dans l'état actuel des moyens de calculs de se servir de ce modèle pour faire des prévisions. Quelles sont les caractéristiques de ce modèle ? Sa capacité de zoomer sur un événement particulier, nous avons ici un calcul qui est réalisé sur deux grilles de calculs différents, sa grande grille qui est assez classique avec un point de calcul tous les 10 km, c'est presque la précision actuelle des modèles opérationnels, et puis la petite grille qui, elle, est beaucoup plus fine avec un point de calcul tous les 2,5 km. Par exemple, un résultat de ce modèle est une comparaison entre les événements nuageux, une observation par les radars sur laquelle on voit la formation de l'événement sur la côte du golfe du Lion, et puis son développement sous la forme d'une grande bande un peu dans l'intérieur des terres, et son apogée dans la nuit du 12 au 13. Et puis la prévision par le modèle de recherches, il s'agit là d'un paramètre qui est directement comparable à celui qui est observé, qui est la réflectivité au radar, c'est donc quelque chose qui est assez proche de la pluie instantanée, et on voit que le modèle avec un décalage d'une heure au maximum simule relativement bien l'initiation du phénomène exceptionnel sur la côte du golfe du Lion, et puis son développement sous la forme d'une bande relativement allongée sur le département de l'Aude, et le modèle simule également relativement bien la disparition de ce phénomène dans la journée qui a suivi l'inondation. Il y a donc quand même beaucoup d'espoir sur une amélioration encore de la précision de la prévision de ces inondations. Les mécanismes physiques qui sont à l'origine de ces événement exceptionnels sont parfaitement compris dans leur ensemble, et je pense que nous pouvons dire qu'ils resteront les mêmes dans les climats futurs. D'autre part, la qualité des prévisions météo est maintenant essentiellement limitée par la connaissance de l'état initial et également la puissance de calculs. Plus les ordinateurs sont puissants, plus les prévisions seront précises et on peut déjà le prouver, et je pense avoir pu vous convaincre que grâce aux recherches qui sont effectuées la prévision des phénomènes extrêmes fera encore des progrès. Je voudrais également insister sur le fait qu'il s'agit d’événements qui resteront toujours difficiles à prévoir. L'intensité précise d'une tempête restera toujours extrêmement difficile à prévoir, et le délai d'anticipation que nous serons capables de donner ne dépassera probablement jamais trois à cinq jours, en raison des limitations même du phénomène. Cité des Sciences et de l’Industrie 14 Conférence du 24 juin 2000 La tempête, les inondations en France Hervé Letreut Je suis climatologue, je m'occupe d'une équipe qui travaille sur des problèmes d'évolution du climat à plus long terme. La question qui a été posée à propos de la tempête était de savoir si l'occurrence de cette tempête pouvait être associée à ce qu'on appelle le changement climatique global, ou l'évolution du climat en réponse à l'effet de serre. La réponse est non, et je vais argumenter le fait que cette réponse négative doit être un petit peu nuancée de quelques remarques. En fait, la notion de climat est une notion statistique. On va donc passer d'une description événementielle, de la manière dont l'atmosphère évolue, on regarde les événements isolément, et de quelle manière les statistiques peuvent évoluer. Lorsqu'on a un événement aussi extrême que celui-là qui revient tous les cent ans, il est clair qu'essayer de caractériser une évolution dans son retour statistique est quelque chose d'extrêmement difficile. Un événement aussi extrême de toute façon ne peut pas être associé à un changement progressif et lent du système climatique, et a priori il n'est pas associé au changement climatique. Néanmoins, on a de bonnes raisons de penser que le climat commence à changer, que le climat va changer, et le fait que cet événement-là ne soit pas associé nécessairement au changement climatique ne veut pas dire qu'on ne soit pas dans un régime de changement climatique, et ne veut pas dire qu'in fine, si on fait des statistiques très longues, on n'aie pas association d’événements extrêmes, modification de la récurrence des événements extrêmes sur la France avec l'évolution du climat. Quelques idées essentielles. A-t-on des raisons de penser que le climat peut changer ? Une raison simple, les variations de la composition chimique de la planète. Si on compare l'évolution, sur une période de 200.000 ans à aujourd'hui, du dioxyde de carbone on note que par rapport à cette échelle de temps relativement longue, cette évolution récente est d'une brutalité extrême avec une modification très forte de la composition chimique de la planète. Même chose pour le méthane, on constate une évolution tout au long des dernières centaines de milliers d'années, avec les variations très importantes du climat qu'on a pu avoir, glaciaire et interglaciaire, et puis l'évolution récente qui est un triplement de cette quantité de méthane. On a donc des raisons de penser que le climat change, et en même temps il faut nuancer ça, et une manière de le nuancer c'est de représenter un peu plus dans le détail ce qui s'est passé au cours des dernières années. Cité des Sciences et de l’Industrie 15 Conférence du 24 juin 2000 La tempête, les inondations en France Par exemple, si on observe des modèles développés dans nos laboratoires, une simulation de l'évolution du carbone atmosphérique, un des premiers gaz à effet de serre susceptible de réchauffer la planète depuis 1860, cette évolution étant représentée par deux courbes, une courbe observée et une autre étant le résultat d'une simulation assez complexe où on a la dynamique de l'océan, la dynamique de l'atmosphère, les injections de carbone dans l'atmosphère par l'activité industrielle, on voit que sur toute la période récente déjà écoulée le modèle simule assez bien ce qui se passe, et on voit l'évolution future. Et on voit clairement que ce qui pose problème c'est moins ce qui a déjà été acquis que l'évolution future. Derrière ce débat récurrent sur le problème du changement climatique, il y a toujours l'idée qu'on est déjà dans le changement climatique, que le fait de savoir si les catastrophes climatiques que l'on peut voir, comme les tempêtes de cet hiver ou les inondations graves ou les inondations qui ont eu lieu ailleurs dans le monde, ou les sécheresses peuvent être ou non attribués au changement climatique est quelque chose de significatif. En fait, on voit bien qu'on n'est pas encore dans la partie qui suscite de l'inquiétude à propos du changement climatique, on est au tout début du processus. L'augmentation des gaz à effet de serre n'est en fait sensible fortement que depuis deux ou trois décennies, et c'est son évolution future qui pose problème. Il y a dans le débat sur l'attribution ou non de ces tempêtes au changement climatique une petite distorsion des faits qui confond deux attitudes, l'attitude des scientifiques qui, nécessairement, face à un changement qui commence à avoir lieu essayent de se poser des questions, et savoir si on peut effectivement lier les modifications de la circulation atmosphérique à ce début de modification de la composition chimique de l'atmosphère, et donc au début de réchauffement, et puis en fait l'inquiétude réelle qui est une inquiétude pour le futur. Pour le même modèle et pour des observations de la même période, si on observe les températures c'est un petit peu plus chahuté, on a une certaine variabilité naturelle des températures. Si on observe la courbe de température observée depuis 1860, reconstituée plus qu'observée, elle subit des variations, des fluctuations, et puis la courbe modélisée subit elle aussi des fluctuations, l'amplitude de ces fluctuations est pour le moment d'un ordre de grandeur presque égale en termes de réchauffement des dernières années, et là aussi ce qui compte c'est le réchauffement futur. Le réchauffement actuel est encore dans la phase initiale où il est difficile à distinguer des fluctuations naturelles du climat. Il faut donc faire très attention à cette idée-là, on est au niveau du changement climatique dans une phase initiale où tout est compliqué parce qu'en fait tout ce qui est variabilité naturelle et variabilité provoquée par l'homme est d'un ordre de grandeur équivalent. Cité des Sciences et de l’Industrie 16 Conférence du 24 juin 2000 La tempête, les inondations en France Toujours sur cette même idée de distinguer éventuellement ce qui est dû à l'activité humaine et ce qui est dû aux fluctuations climatiques, les processus qui affectent le système climatique sont très complexes. Par exemple, sur un diagramme sur lequel sont exprimées des valeurs en watt/m² qui correspondent à un forçage de l'atmosphère, on constate ce qu'on appelle les gaz à effet de serre, qui réchauffent le climat, et un certain nombre d'autres processus, l'ozone qui ne s'accumule pas de la même manière, il a une chimie beaucoup plus rapide, des aérosols qui sont des petites particules liquides, solides, qui sont injectées dans l'atmosphère, qui eux aussi ne s'accumulent pas vraiment dans l'atmosphère mais, par contre, peuvent refroidir le climat. Les aérosols ont pour particularité de s'accumuler, comme ils ont une chimie très rapide, ils ne sont pas mélangés à la surface de la terre, donc ils ont tendance à avoir une distribution plus dense dans les régions industrielles, sur l'Europe, sur les Etats-Unis, ils affectent donc le climat d'une manière géographiquement compliquée. Par contre, ils n'affectent pas le climat d'une manière aussi durable, on n'attend pas une croissance de l'effet des aérosols dans le futur, qui soit aussi grande que l'effet des gaz à effet de serre. Dans une certaine manière on est, en fait, dans un niveau de modification du climat où on a pour le moment des facteurs complexes, et le facteur simple qui sera dominant au siècle prochain, la croissance de ces gaz à effet de serre bien mélangés qui s'accumulent dans l'atmosphère, pour le moment ne s'est pas imposé de manière décisive, et on a coexistence de processus qui, pour le moment, ont encore une amplitude similaire et qui vont affecter le climat de manière complexe. Si on veut essayer de voir comment le climat va se modifier, on peut se poser deux questions. Tout d'abord, comment sera le climat d'une planète plus chaude ? Et est-ce qu'on a déjà des signes que nous sommes en train d'évoluer vers un climat de ce type-là ? Le problème du changement climatique futur c'est qu'on ne peut l'appréhender que par des modèles, et que les modèles donnent des résultats qui sont convergents, et avec une certaine marge d'incertitudes qui fait qu'on doit relativiser la prévision de ces modèles. A l'échéance d'un doublement du CO², c'est-à-dire à l'échéance de 2050 à peu près, la prévision d'une quinzaine de modèles, il y a deux modèles français, celui de Météo France et celui de notre institut, il y a deux modèles australiens, quatre ou cinq modèles américaines, ce sont des modèles qui ont été développés un petit peu partout sur la planète, et on a pu montrer le réchauffement climatique à une échéance qui correspond à 2050 à peu près. Ce réchauffement est en moyenne de deux degrés avec à l'Equateur une certaine dispersion entre les modèles, dispersion qui s'accroît dans les zones qui sont délicates à modéliser, en haute altitude, et dispersion qu'on retrouve à toutes les latitudes. Si on prend l'ensemble des Cité des Sciences et de l’Industrie 17 Conférence du 24 juin 2000 La tempête, les inondations en France autres modèles on constate une certaine convergence qualitative, et puis une divergence dans le détail. Ceci est quelque chose qu'on retrouve si on s'intéresse à un champ plus important qui est le champ de précipitations. A l'échelle globale, le changement de précipitations simulé par l'ensemble de ces modèles, toujours aux alentours de 2050 qui est une date hypothétique qui dépend de ce qu'on fait en matière d'émission de carbone, on retrouve une augmentation de précipitations plus forte dans les moyennes latitudes, une augmentation de précipitations plus forte aussi dans les moyennes latitudes de l'hémisphère sud, et puis dans la région équatoriale on a un pic de précipitations, ce sont des zones où normalement il pleut, les zones sèches du sud tropique s'assèchent ou restent stationnaires, mais avec à chaque fois une incertitude relativement large. Comment peut-on expliquer cette incertitude liée à la prévision des climats futurs ? On peut l'expliquer essentiellement par ce que ces modèles climatiques représentent, ce qui nous amène au fait que le climat est une affaire qui se décline d'abord à l'échelle globale, et puis progressivement doit prendre en compte des échelles régionales. Sur une image partiellement synthétique, une image radar de la planète, on y retrouve des impacts qui correspondent à l'endroit où l'air monte, et cette structuration de la montée de l'air se fait à grande échelle, il y a une zone où l'air monte près de l'Equateur avec des impacts très précis, et au contraire des zones où l'air monte lentement avec des traînées très lentes aux moyennes latitudes, et puis entre ces régions équatoriales et de moyennes latitudes on a des régions où l'air ne monte pas du tout. Il descend en fait, et on a une structuration à grande échelle de la circulation atmosphérique. Cette structuration à grande échelle est celle qui va guider l'évolution du climat futur, et si on regarde la carte des précipitations on y retrouve plus de précipitations ou climat plus chaud dans la zone où l'air monte, moins de précipitations dans la zone où l'air descend, et plus de précipitations à nouveau dans les régions de ces dépressions de moyenne latitude. Et on a donc une association assez grande entre ce que l'on sait prévoir, et la grande échelle atmosphérique. On voit que ce que les modèles représentent de manière convergente, c'est tout ce qui est associé à la grande échelle atmosphérique. Et là, il n'y a pas de mystère, c'est parce qu'en fait les modèles eux-mêmes ne simulent que cette grande échelle atmosphérique, donc un modèle climatique est un modèle qui est capable de simuler les anticyclones, les dépressions, mais certainement pas le détail de ce qui peut se passer à petite échelle. La manière dont on représente dans les modèles climatiques ce qui se passe à petite échelle est responsable de la divergence entre les différentes simulations. Cité des Sciences et de l’Industrie 18 Conférence du 24 juin 2000 La tempête, les inondations en France Les modèles climatiques ne peuvent pas représenter ces petites échelles pour des raisons de temps de calculs. Par exemple, certains modèles climatiques nécessitaient il y a encore quinze ans trente heures de temps de calculs pour faire un mois de simulations. Depuis quelques années, une minute de temps de calculs suffit, ce qui veut dire qu'on a pu depuis quelques années utiliser ces modèles pour faire des simulations du climat futur, mais ce sont des choses qu'on fait de manière toute récente, et avec des résolutions un peu améliorées maintenant on est à la limite de ce que les ordinateurs actuels nous permettent de faire si on veut essayer de se projeter dans un futur lointain comme 2050. Il y a donc une raison technique qui fait qu'on limite la prévision des modèles à cette grande échelle atmosphérique. Et puis, il y a une autre raison, c'est que cette grande échelle existe, et en fait la plupart des processus qui vont l'influencer se situent à des échelles tellement petites qu'on ne gagne pas grand chose dans un premier temps à essayer de les représenter. En fait, on a une association statistique entre la grande échelle et la petite, et cette association sera toujours statistique, c'est-à-dire que la grande échelle va toujours dépendre d'une manière qui n'est pas déterministe, qui n'est pas complètement contrainte, de ce qui se passe à petite échelle. En fait, le cœur du problème climatique va être qu'est-ce que l'on peut dire de l'association entre les changements de la circulation atmosphérique, du climat de la planète, qui sont caractérisés à grande échelle, dont on sait qu'ils vont probablement avoir lieu. On a toutes les raisons de penser que ces changements de circulation, ces changements de température à grande échelle vont avoir lieu, comment peut-on essayer de voir de quelle manière ils sont associés à des variations climatiques à grande échelle ? Il y a le problème de la prévision de ces climats futurs qui dépend de la petite échelle, et puis le problème retour qui est celui de savoir comment à partir de scénarios de grande échelle on peut affiner localement et essayer de savoir si localement on va avoir un impact fort de ces changements climatiques. Pour essayer de voir comment on passe de cette grande échelle climatique à l'échelle climatique, on peut essayer de s'appuyer sur ce qui se passe depuis le début du siècle. Si on regarde l'évolution des températures depuis le début du siècle, on constate une évolution récente vers un réchauffement qui est relativement avéré maintenant et qui s'explique assez facilement, et le plus facilement par l'augmentation des gaz à effet de serre, mais certains processus ne sont pas dus aux gaz à effet de serre, on a ici une variabilité qui est partiellement naturelle, peut-être aussi provoquée par l'homme dans la dernière phase. Cité des Sciences et de l’Industrie 19 Conférence du 24 juin 2000 La tempête, les inondations en France Quoi qu'il en soit, on a un changement climatique, et ce changement climatique depuis le début du siècle, qu'il soit d'origine humaine ou non, est corroboré par un certain nombre de données. Par exemple des contenus thermiques dans l'océan, qui sont d'ailleurs des données partiellement indépendantes mais qui donnent une évolution globale relativement similaire, on a des données de glaciers concernant l'évolution de leur étendue au cours des dernières décennies, on constate une tendance à la fonte des glaciers, et on a des indices qui montrent que nous sommes dans un changement climatique. De quelle manière peut-on essayer d'utiliser ce changement climatique pour voir de quelle manière un changement global peut affecter le climat local ? La manière dont travaillent les météorologues, très souvent, c'est de définir des indices. En gros, on a une évolution globale du climat de la planète qui va se traduire régionalement de manière statistique. Ce qu'ont construit les météorologues et les climatologues depuis longtemps, ce sont des indices qui permettent de décrire ces statistiques-là. Par exemple, un indice extrêmement utile qui nous ramènera lui aussi au climat de l'Europe, c'est l'indice NAO, l'indice North Atlantic Oscillation, qui correspond en gros à une normalisation des pressions entre Reykjavik et Lisbonne, qui mesure l'intensité relative de l’anticyclone des Açores et de la dépression du nord-ouest de l'Atlantique. Cet indice est défini sur une base saisonnière, il intègre des événement nombreux, c'est un indice qui va caractériser la statistique des situations météorologiques de façon saisonnière sur l'Europe. Cet indice a évolué au fil du siècle, et on reconnaît assez bien dans l'évolution au cours des dernières décennies, une évolution qui est très parallèle à l'évolution des températures. On a un maximum qui se situe plus ou moins après guerre, un creux dans les années 60 et puis une augmentation chahutée, et depuis quelques années on a plutôt une augmentation de cet indice NAO. Ceci est une mesure statistique de l'évolution du climat sur l'Europe et qui montre que nous avons a priori une certaine évolution du climat sur l'Europe. On peut passer de l'échelle globale à une échelle régionale et puis à une échelle encore un petit peu plus régionale, finalement, chaque fois par une espèce de cascade statistique, chaque échelle apporte son signal, et elle est liée à une échelle plus petite par un argument statistique. Une analyse statistique simultanée de la précipitation obtenue par des méthodes mathématiques relativement complexes techniquement, permet de dégager des modes qui varient ensemble, de la précipitation et de la pression. On peut associer à ce mode de variation des dépressions un mode de variation des précipitations et toujours à partir de données historiques constater qu'on a en association avec cette évolution des dépressions au niveau de la mer une évolution des précipitations sur l'Europe avec une structure en tri-pôle, c'est-à-dire une évolution dans un sens positif en Europe du Nord, négatif en Europe Cité des Sciences et de l’Industrie 20 Conférence du 24 juin 2000 La tempête, les inondations en France centrale, et qu'on retrouve positif sur la Méditerranée et l'Afrique, l'idée c'est que ces deux structures évoluent ensemble. On a des structures organisées de manière régionale qui fluctuent dans le temps et qui fluctuent de manière relativement organisées. Et ce qu'on appelle climat c'est cette modulation de la variabilité climatique régionale par des termes qui évoluent plus lentement. Si on revient au problème du changement climatique global, il y a eu des tentatives qui ont été faites par différents modèles pour essayer d'associer, de décrire dans le futur l'évolution de ces termes, l'indice Nord Atlantique dans un climat plus chaud, et dans un climat plus chaud ce que les modèles montrent c'est qu'effectivement on a augmentation de ces indices qui décrivent les climats régionaux, de cet indice NAO qui décrit l'amplitude relative de l’anticyclone des Açores et de la dépression au large de l'Islande. Pour conclure, la première idée c'est que le climat c'est une notion globale mais on peut en décliner les effets régionaux sous forme de statistiques emboîtées, et à chaque étape on a une incertitude. On a une incertitude sur son forçage global avec le rôle des aérosols, on a une incertitude sur la réponse des modèles. Les différents modèles ont un certain spectre d'incertitude, on a une incertitude sur la manière dont cette prévision des modèles se projette à l'échelle régionale via les indices, parce que ces indices ne sont qu'une description statistique de ce qui se passe. Enfin une dernière incertitude que nous ne savons pas décrire pour le moment, qui serait d'associer les régimes de climat moyens de type NAO qui décrivent les tempêtes normales à l'occurrence de tempêtes anormales, comme les tempêtes que nous avons eues en décembre. Effectivement, lorsqu'on pose la question de savoir si la tempête de décembre est le résultat d'un changement climatique, on est très en mal de répondre par l'affirmative, parce qu'en fait cette tempête se situe tout au bout de ce processus de désintégration statistique, avec un temps de retour très faible, et il est très difficile de montrer qu'elle est due à quoi que ce soit d'autre que le hasard. Par contre, et c'est pour ça qu'on a tendance à nuancer nos réponses, essayer de dire que le climat est stationnaire, c'est quelque chose qui est probablement faux, et le fait qu'on ne puisse pas montrer dès maintenant des impacts climatiques et des fluctuations du climat moyen sur l'Europe qui soient significatifs ne veut pas dire que le climat ne vas pas changer, il va changer de manière statistique, de manière complexe, mais probablement la stationnarité du climat est l'hypothèse la moins probable pour le futur. Quelle est la valeur ou la représentation des indices du Nord Atlantique dont vous avez parlé ? Est-ce un indice de température ? Cité des Sciences et de l’Industrie 21 Conférence du 24 juin 2000 La tempête, les inondations en France Hervé Letreut Ça correspond à une différence normalisée de pressions entre Lisbonne et Reykjavik, en moyenne saisonnière, c'est une manière de caractériser la position ou l'intensité moyenne des anticyclones et des dépressions sur l'Europe. C'est un indice qui va représenter la statistique du temps sur une saison, mais qui ne va pas rentrer dans le détail des tempêtes qui y sont associées. Là, que c'est uniquement la pression, ça décrit des régimes plus complexes, et ça décrit aussi le comportement de systèmes qui se traduisent par des variations d'autres variables. Par rapport aux variations du temps, par exemple en 2050 il y aura un réchauffement de la planète. A l'heure actuelle la tempête était prévue, mais sa cause n'était pas le réchauffement de la planète. Que peut-il se passer jusqu'en 2050, est-ce que ce réchauffement peut agir sur temps ? Hervé Letreut Le changement climatique c'est un changement de statistique, un changement climatique sur l'Europe, effectivement ça veut dire des changements de statistiques de précipitations qui seront probablement significatifs. Mais la région européenne n'est pas la région la plus facile pour caractériser ces changements climatiques. Très probablement le changement climatique futur ne se traduira pas majoritairement ou plus fortement sur l'Europe, mais plutôt sur d'autres régions, les changements de précipitations, par exemple, seront plus intenses dans les régions du Sud. Le changement climatique ce n'est pas un changement uniforme, on aura toujours des sécheresses, des épisodes d'inondation, et les modèles le montrent, nous aurons toujours des fluctuations, des hivers chauds, des hivers froids. Simplement, la récurrence de ces événements ne sera pas la même. Monsieur Philippe Bourgeault Ce que nous pouvons dire actuellement c'est qu'il y a un consensus raisonnable selon lequel sur la France en 2050 il fera entre un et deux degrés de plus en moyenne, ce qui veut dire que bien sûr l'atmosphère contiendra un peu plus d'humidité, et lorsqu'il y a aura des pluies exceptionnelles on s'attend à ce qu'elles soient encore plus fortes que maintenant. Concernant les tempêtes, c'est une question beaucoup plus difficile, suivant la manière dont on compte les événements on peut, dans les modèles, en trouver plus ou moins, et en fait la conclusion c'est que nous ne savons conclure et il faut vraiment faire appel à des recherches théoriques relativement poussées pour essayer de trouver des arguments, mais ces arguments sont encore en cours de construction et personne ne peut dire actuellement si Cité des Sciences et de l’Industrie 22 Conférence du 24 juin 2000 La tempête, les inondations en France vraiment on sait si la fréquence des tempêtes va augmenter ou non, elle pourrait augmenter ou diminuer, on entre dans l'inconnu. Par rapport à l'immensité de la planète, la science ne craint pas l'immensité, je pense aux deux calottes glacières, lorsque les scientifiques étudient par rapport aux régions habitées toutes les études préventives et imaginées, les deux calottes glacières font-elles partie du cerveau futur de la science par rapport au changement du climat ? Et quel serait l'effet ? Philippe Bourgeault Lorsqu'on fait des études climatiques, la grande échelle est pilotée par les processus qui se situent à toutes les latitudes et, en particulier, dans les régions polaires. Le problème de savoir ce que deviennent les glaciers, ce que devient l'étendue du sol couvert de glace ou de neige de manière plus générale, c'est quelque chose que nous cherchons à simuler. Mais là aussi nous avons des difficultés à le faire, ce qu'on peut penser de manière générale c'est que tout ce qui est banquise, la glace sur l'eau va rétrocéder de manière forte, on a même des simulations qui montrent qu'on pourrait ne plus avoir de banquise en Arctique avant la fin du siècle prochain, c'est une possibilité et non une certitude. Par contre, concernant les grands glaciers continentaux, la calotte Antarctique et la calotte du Groenland ne sont pas menacées à l'échelle du siècle prochain, c'est-à-dire qu'elles ont une température qui est suffisamment en dessous de zéro que même un certain réchauffement ne les menace pas. Au contraire, on peut penser que dans un premier temps comme il y aura plus d'eau dans l'atmosphère, plus de neige retombera sur ces calottes et qu'elles auront peut-être même une tendance à grossir transitoirement. A une plus grande échelle de temps, ça reste quelque chose de très mystérieux et il y a là difficulté vraiment à argumenter sur ce qui peut se passer au-delà d'un siècle, en particulier sur une partie de l'Antarctique qui est sous l'eau, ce que ça peut devenir au XXIe personne le sait. Vous avez dit qu'effectivement les tempêtes, ou mêmes les catastrophes naturelles quelles qu'elles soient, dépendent de la façon dont elles sont perçues. Une météorite qui tombe sur Paris n'aura pas du tout le même impact qu'une météorite qui tomberait au milieu du Sahara. C'est exactement la même chose pour les tempêtes ou les inondations. Je pense qu'en général des gens ordinaires il faut bien se rendre compte de ça, et de plus il y a une médiatisation de tout ce qui est un peu exceptionnel qui n'existait pas autrefois. Si aujourd'hui se passait une inondation comme celle de 1910 à Paris, on en parlerait plus qu'à Cité des Sciences et de l’Industrie 23 Conférence du 24 juin 2000 La tempête, les inondations en France l'époque, et ça coûterait également beaucoup plus cher aux assureurs et à l'Etat pour indemniser. Ceci dit, même s'il y a un réchauffement global de la terre, se pose le problème de l'amplitude qu'il peut y avoir à l'intérieur d'un réchauffement global. La terre se réchauffe ou non, mais même si elle ne se réchauffait pas, on pourrait très bien avoir des extrêmes dont l'amplitude est beaucoup plus grande. En fait les catastrophes sont des extrêmes qui se produisent de façon complètement anormale, avoir -50° à Paris, par exemple, ou bien avoir une année où tombe 10 mètres d'eau à Paris, et ça peut être complètement indépendant d'un réchauffement global ou non. Actuellement, un certain nombre de gens prêchent le catastrophisme, et on a du mal à percevoir ce qui se passe. Si on prend une courbe de Gauss, par exemple, pour savoir si la variance des phénomènes va augmenter ou non, c'est ce qui est important localement pour une catastrophe ou une tempête. Je comprends les nuances que Monsieur Letreut a apporté au propos parce que si j'ai bien compris, dans l'état actuel des choses on est pratiquement impuissant à savoir si même un réchauffement global de la Terre pourrait amener des modifications considérables des amplitudes des phénomènes catastrophiques, et des choses qui seraient susceptibles d'influer sur les activités humaines, ou des pertes de vies, ou autres. Philippe Letreut Vous avez tout à fait raison d'insister sur l'importance des extrêmes, mais le discours qui est tenu actuellement sur le climat prend parfaitement en compte cet aspect-là, et lorsque les scientifiques disent que le niveau moyen de l'océan va monter environ de 50 centimètres d'ici à la fin du siècle prochain, il y a des centaines de personnes qui travaillent sur la conséquence au niveau des événements extrêmes. 50 centimètres d'augmentation moyenne du niveau de l'océan ça ne veut rien dire comme ça, mais ça veut dire que les cyclones au Bengladesh vont noyer 300 km de territoire en plus. Et il est écrit dans les rapports du groupe intergouvernemental d'études sur le climat que si le scénario climatique consensuel actuel est exact, personne ne sait s'il est exact, mais s'il est exact il y aura des milliards de personnes qui devront changer de lieu de résidence d'ici la fin du XXIe siècle, c'est écrit dans les rapports officiels. Philippe Bourgeault La notion d'extrêmes se décline de manière très différente lorsqu'on est aux moyennes latitudes ou quand on est dans les régions tropicales. Quand on est en région tropicale on a un climat qui à l'échelle saisonnière est relativement stable, avec de temps en temps ces poussées d'adrénaline que sont les cyclones, mais les sécheresses se développent à Cité des Sciences et de l’Industrie 24 Conférence du 24 juin 2000 La tempête, les inondations en France l'échelle de plusieurs mois. Et un changement climatique en région tropicale c'est quelque chose qui peut se produire plus facilement, des anomalies significatives, que dans nos régions, c'est-à-dire qu'on peut facilement avoir des périodes de sécheresse prolongées, donc des incidences fortes du climat sur l'activité humaine en région tropicale qui soient associées au changement climatique. A nos latitudes, nous avons un climat qui est naturellement variable, de manière beaucoup plus forte, et un météorologue est parfaitement capable de dire que son modèle paraissait juste, mais qu'il est en train de devenir faux, parce qu'il voit bien qu'il reproduit une structure qui ne ressemble pas du tout à ce qu'il voit sur le satellite. Nous réfléchissons pour un futur qui se chiffre à quelques années à donner aux prévisionnistes plus de moyens d'action sur le modèle et lui donner la possibilité d'interagir avec le modèle et de corriger vraiment à sa volonté l'état initial du modèle pour tenir compte d'une information qui viendrait d'arriver et qui lui paraîtrait très importante, et qui nécessiterait de modifier la prévision. Mais cela n'est pas pour avant deux ou trois ans, nous allons conduire une période d'expérimentation en 2001 qui durera une année, et si cette période d'expérimentation est concluante, à son issue, on réfléchira à mettre tout cela en service opérationnel l'année suivante ou un peu après. Avez-vous beaucoup de modèles qui sont validés ? Je crois que pour valider un modèle il faut un certain nombre d'années, et là vous débutez. Philippe Bourgeault Le travail de validation des modèles se construit de deux manières, il y a d'abord la validation du modèle dans sa capacité à reproduire le climat actuel, c'est un travail que nous faisons en continu, lorsque je dis que nous sommes capables d'intégrer des modèles depuis cinq ans à l'échelle du siècle prochain, le travail de construction d'un modèle climatique, ou des modèles météo qui sont un peu les mêmes, c'est quelque chose qui a commencé il y a vingt ou trente ans, et depuis cette époque-là les gens travaillent de manière permanente à essayer d'améliorer la représentation du climat moyen de leurs modèles. Les jeux de données sont construits, des analyses de toutes les données observées sur des périodes de plusieurs décennies ont été conduites, des climatologies de données satellitaires sont organisées justement pour valider les modèles climatiques, il y a un travail technique qui est important pour valider les modèles par rapport au climat actuel. Si on veut évaluer les modèles par rapport à un changement climatique, un pas supplémentaire est à franchir parce que nous avons des processus clés qui sont précisément ceux qu'on ne voit pas à l'œuvre dans un climat stationnaire, et qui vont être Cité des Sciences et de l’Industrie 25 Conférence du 24 juin 2000 La tempête, les inondations en France extrêmement importants. Là on est obligé de réfléchir à l'échelle de processus importants, le rôle des nuages, le rôle de la végétation, et on s'appuie là plus une expérience physique liée aux processus. Mais tout ce travail de validation en continu est celui de tous les gens qui sont dans nos laboratoires. Vous parliez de puissance des ordinateurs, mais puisque ce sont des modèles pour les années à venir, l'ordinateur a donc tout le temps de travailler pendant deux ou trois jours. Philippe Bourgeault Parce qu'en fait la simulation où on regarde la température évoluer depuis 1860 jusqu'à 2050, c'est une simulation qui a été faite dans notre laboratoire, elle a été lancée, à l'époque c'était un C90 le plus gros ordinateur du CNRS, en juillet 1999, elle a tourné dans l'ordinateur jusqu'à fin janvier 2000. Ce sont donc des simulations qui sont restées dans le plus gros ordinateur pendant sept à huit mois, nous sommes quand même à la marge de ce qu'on peut faire avec les ordinateurs actuels. Si on augmentait la résolution, il ne nous faudrait plus huit mois de travail mais plusieurs années. Hervé Letreut Chaque fois qu'on veut doubler la précision du calcul, le temps de calcul est multiplié par huit, donc nous sommes coincés, nous dépendons des progrès de l'industrie informatique. Cité des Sciences et de l’Industrie 26