impact du changement climatique sur la gestion des réseaux de

publicité
IMPACT DU
CHANGEMENT
CLIMATIQUE
SUR LA GESTION DES
RÉSEAUX DE CHALEUR
Auteurs : C. Déandreis (IPSL), P. Braconnot (IPSL), S. Planton (CNRM-GAME)
Etude réalisée pour l’entreprise DALKIA
Traitement des incertitudes et correction
des données simulées
Cette fiche présente l’analyse des incertitudes associées au traitement statistique de l’indicateur de
vulnérabilité élaborée pour le groupe DALKIA et la
gestion des réseaux de chaleur. Elle décrit les différentes sources d’incertitudes inclues dans l’étude et
les méthodes d’analyses mises en place pour les traiter au mieux. La méthode de correction utilisée pour
réduire la partie quantifiable des biais des modèles est
également présentée.
1. Les différentes sources d’incertitudes
analysées
Parmi l’ensemble des sources d’incertitude existantes (voir la fiche « incertitude » du dossier « mieux
comprendre les risques du changement climatique »),
nous traitons ici deux d’entre elles.
Les incertitudes dues aux limites des modèles sont
prises en compte en comparant les résultats de plusieurs modèles. Nous avons choisi le jeu de données
multi-modèles du projet Européen ENSEMBLES. Il
contient les simulations de 6 modèles Européens1.
Chaque modèle décrit de façon différente les processus physiques, dynamiques et biogéochimiques régissant le climat.
Les incertitudes liées à la variabilité naturelle du
climat sont prises en compte en utilisant des « ensembles de simulations ». Il s’agit pour un modèle
donné de réaliser plusieurs simulations en modifiant
uniquement les conditions initiales de simulation.
1. Le modèle anglais du Met-Office (HADGEM) ; les deux modèles français de
l’IPSL (IPCM4) et du CNRM (CNCMM3) ; les modèles allemands du MPI (MPEH5C)
et du FUB (EGMAM), et le modèle du groupe italien INGV (DMEH5C). La résolution horizontale de ces modèles varie entre 300km et 100km soit environ 4 à 40
points de grille sur la France.
Cet aspect de l’incertitude est analysé pour trois des
six modèles du jeu de données ENSEMBLES pour lesquels nous disposons d’ensemble de simulation.
En revanche, l’incertitude sociétale qui permet de
tenir compte des différentes possibilités d’évolution
de notre société n’est pas prise en compte ici. Un seul
scénario climatique (scénario SRES A1B) a été utilisé. Cette source d’incertitude est négligeable pour
le moyen-terme (2030-2050). Elle devient dominante
pour les projections de la fin du 21e siècle.
En plus de l’utilisation du large jeu de simulations
ENSEMBLES, une partie de l’incertitude associée aux
imperfections des modèles est traitée en corrigeant
les biais des modèles. En effet dans l’étude d’indicateurs de vulnérabilité tels que celui développé pour
la gestion des réseaux de chaleur, il est préférable de
corriger ces biais pour au moins deux raisons :
❚❚ 1) Les indicateurs mettent très souvent en jeu des
seuils de vulnérabilité (seuil de température, de
précipitation,… acceptables pour une activité donnée). Ces seuils sont définis par l’expérience opérationnelle des parties prenantes et donc à partir des
valeurs observées des variables météorologiques.
Comparer des variables biaisées à un seuil fixé sur
les valeurs observées enlèverait toute fiabilité à une
étude de vulnérabilité.
❚❚ 2) Le degré de vulnérabilité est souvent estimé par
analogie à une situation extrême connue. L’analogue permet alors de définir un seuil critique de
dépassement. La comparaison à cet analogue nécessite de travailler sur les valeurs absolues prises par
l’indicateur et non sur les anomalies. Cette comparaison ne peut pas être effectuée proprement en utilisant des données brutes non corrigées.
IMPACT DU CHANGEMENT
CLIMATIQUE SUR LA GESTION
DES RÉSEAUX DE CHALEUR
FIGURE 1 Biais annuel moyen des températures moyennes des modèles de l’IPSL * et du CNRM ** par rapport aux réanalyses ERA40 pour la
période 1961-2000. Les données des modèles sont issues des simulations effectuées dans le cadre du 4e rapport du GIEC. *Institut Pierre
Simon Laplace. **Centre National de Recherche Météorologique
2. Les biais des modèles
Un modèle climatique est une simplification d’un
système énormément plus complexe. Le nombre de
degrés de liberté des modèles actuels est très inférieur
à l’infinité de facteurs intervenant dans l’évolution du
climat. De nombreux biais viennent donc entacher les
résultats des modèles.
Premièrement, les modèles ne simulent pas
parfaitement le climat moyen. L’ampleur de ces
biais moyens varie suivant les variables d’intérêts. Ces
différences sont liées à la capacité des modèles à plus
ou moins bien représenter les processus physiques
contrôlant l’évolution des variables climatiques. En
général, les précipitations moyennes qui mettent en
jeu des processus de très fines échelles sont moins
bien simulées que les températures.
En ce qui concerne la variable « température » qui
nous intéresse dans l’étude des réseaux de chaleur et
de la distribution de gaz, on constate par exemple que
les deux modèles français présentent un biais froid
(Figure 1) dans l’hémisphère nord, plus étendu et
prononcé sur le continent nord européen et asiatique
(Sibérie, Inde du nord, Chine). La répartition de ce
biais diffère d’un modèle à l’autre sur les régions qui
nous intéressent.
INVULNERABLe | DALKIA Incertitudes > PAGE 2
Le biais sur le minimum de température diffère de
celui sur le maximum de température (non montré).
On a donc également un biais sur l’estimation des
écarts intra-journaliers de température (Tmax - Tmin)
comme le montre la Figure 2.
D’autre part, la variabilité jour à jour des états simulés par le modèle est différente de celle observée.
On constate une sous-estimation des phénomènes
extrêmes et plus généralement des différences sur
l’ensemble de la distribution. La Figure 3 présente
les différences modèles/observations pour chaque
tranche (centile) de la distribution des températures
maximale (Tmax), minimale (Tmin) et de l’écart intrajournalier de température (DTR) pour le point de
grille contenant la ville de Paris et pour la période
1961-2000. La droite noire correspond au modèle
parfait (données simulées = données observées pour
toutes les tranches de la distribution). L’écart entre
les courbes rouge ou bleu et cette droite noire représente l’erreur du modèle. Les tronçons de courbe en
dessous (au dessus) de cette droite correspondent à
une surestimation (sous-estimation) du modèle. On
constate par exemple que les faibles valeurs de Tmin
sont surestimées en hiver par le modèle de l’IPSL et
que les fortes valeurs (supérieures à -1°C) sont sous-es-
FIGURE 2 Biais annuel moyen de l’écart intrajournalier de température (DTR = T
– Tmin) pour les modèles de l’IPSL et du CNRM par rapport
max
aux réanalyses ERA40 et pour la période 1961-2000. Les points de grille grisés correspondent aux valeurs non statistiquement significatives au seuil de 95% (obtenues par bootstrap). Les données des modèles sont issues des simulations effectuées dans le cadre du 4e
rapport du GIEC.
DTR
model
model
b) été
a) hiver
Tmean
model
model
Correspondance entre les distributions des réanalyses NCEP et des données simulées (IPSL en rouge et CNRM en bleu) pour les
températures moyennes (Tmax) et l’écart intra-journalier de température (DTR). Les graphes correspondent au point de grille Parisien en
hiver (haut) et en été (bas) sur la période 1961-2000. La droite en trait plein correspond à une représentation parfaite de la réalité par le
modèle.
FIGURE 3
INVULNERABLe | DALKIA Incertitudes > PAGE 3
IMPACT DU CHANGEMENT
CLIMATIQUE SUR LA GESTION
DES RÉSEAUX DE CHALEUR
timés. Dans ce cas une seule correction de la moyenne
ne suffira pas à rétablir le réalisme des données.
3. Les méthodes de correction
Afin de ramener les valeurs des variables simulées
au niveau des valeurs observées, différentes techniques de correction ont été développées. Toutes ces
méthodes de correction sont basées sur une hypothèse dite de stationnarité. On considère que les biais
(moyen et variabilité) du modèle pour la période actuelle resteront sensiblement les mêmes dans le futur.
En d’autre terme, on fait confiance à la trajectoire
simulée par les modèles.
Techniquement, on calcule une fonction de correction pour la période actuelle en comparant les données simulées et les données observées pour une
période commune (1961-2000 par exemple). Puis on
applique cette fonction de correction à l’ensemble des
données simulées par le modèle climatique (périodes
historique et future).
Différentes méthodes de correction ont été développées. La plupart des méthodes de correction sont des
méthodes statistiques et ne sont pas basées sur la physique du climat. Certaines méthodes ne corrigent que
le biais moyen des variables simulées. Elles déplacent
donc l’ensemble de la distribution d’un même facteur
équivalent à la différence entre la moyenne simulée et
la moyenne corrigée (Figure 4.a). C’est le cas des méthodes dites du « delta » et du « débiaisage ». D’autres
méthodes corrigent l’ensemble de la distribution.
Elles permettent de ramener les valeurs des courbes
rouge et bleue de la Figure 2 sur la droite noire du modèle parfait. L’effet de ce type de correction est illustré
sur la Figure 4.b. Elle entraine en général une translation de la distribution (comme pour la correction de la
moyenne) ainsi que le changement de la forme de la
distribution (aplatissement, modification de la symétrie…). Il existe des méthodes plus ou moins compliquées et performantes en fonction de l’étude que l’on
souhaite réaliser (régions et variables d’intérêt). Enfin
une dernière classe de méthode de correction est utilisée lorsque les variables d’intérêts sont trop mal simulées par le modèle climatique. Elles consistent à faire
un lien statistique entre une variable grande échelle
« fiable » et la variable d’intérêt. La méthode des analogues et celle de la classification en type de temps
sont les méthodes les plus connues de cette classe.
Pour l’étude des réseaux de chaleur et des vagues de
froid la méthode quantile/quantile a été utilisée. Elle
permet de corriger l’ensemble de la distribution.
INVULNERABLe | DALKIA Incertitudes > PAGE 4
4. Sélection du jeu de données
de référence
Les résultats de la correction dépendent fortement
du jeu d’observations utilisé. Il doit représenter avec
une bonne fiabilité l’ensemble des variables d’intérêt
et doit couvrir au moins une période de 30 ans.
Idéalement, il faudrait disposer d’un jeu d’observations homogénéisées couvrant l’ensemble du globe
avec une densité régulière. L’homogénéisation est
une technique de correction des séries d’observations.
Elle permet de tenir compte des différences de mode
opératoire qui interviennent au cours du temps sur
un site de mesure (changement d’appareil de mesure,
déplacement du site de mesure, construction d’une
route ou d’un immeuble à proximité du site de mesure…) et engendrent des erreurs importantes dans la
série de données.
A ce jour, ce jeu d’observations n’existe pas. Pour
l’étude de l’indicateur « réseau de chaleur », nous
disposons de 3 alternatives contenant les Tmin et
Tmax nécessaires aux calculs de l’écart intra-journalier de température sur la période 1961-2000 : le jeu
d’observation du Hadley Center (HADGHCND) qui
comprend des données observées interpolées sur une
grille régulière en latitude et longitude (96x73) mais
non homogénéisées ainsi que les réanalyses américaines (NCEP) et Européennes (ERA40) qui sont le
résultat du remaniement d’un jeu d’observations par
un modèle numérique de circulation.
Les écarts intra-journaliers de température contenus
dans ces 3 jeux de données présentent des différences
importantes aussi bien en moyenne qu’en variabilité
(Tableau 1 et Figure 5). Les jeux de données NCEP et
HADGHCND ont des moyennes multi-annuelles très
proches alors que pour la variabilité, on constate une
forte similarité entre ERA40 et HADGHCND.
a) Moyenne 1961-2000
ERA40
NCEP
HAD
Europe
7,1
9,0
8,8
Asie
9,5
12,6
12,4
Texas
10,4
14,5
14,9
b) Variabilité inter journalière 1961-2000
ERA40
NCEP
HAD
Europe
2,6
3,5
2,4
Asie
2,6
3,4
2,6
Texas
3,5
4,4
3,5
TABLEAU 1 Comparaison a) des valeurs moyennes (°C) et b) de la
variabilité (écart type, sans unité) de l’écart intra-journalier de température pour la période 1961-2000 de 3 jeux de données : le jeu
d’observation du Hadley Center (HAD), les réanalyses américaines
(NCEP) et les réanalyses Européennes (ERA40).
a) correction de la moyenne
b) correction de la distribution
modèle corrigé
fréquence (%)
modèle brut
modèle corrigé
fréquence (%)
modèle brut
DTR (degrés C)
DTR (degrés C)
FIGURE 4 Effet de différentes méthodes de correction (a-correction de la moyenne ; b-correction quantile/quantile) sur la distribution de
l’écart intra-journalier de température d’automne. Données issues du modèle de l’IPSL (4e rapport du GIEC) pour la période 1961-2000. En
noir distribution avant correction, en rouge distribution après correction.
FIGURE 5 Variation de l’écart de température intra-journalier au cours d’une année pour l’Europe, la Chine et le Texas. Valeurs moyennes
pour la période 1961-2000 pour les observations du Hadley Center (noir), les ré-analyses européennes (rouge) et les ré-analyses américaines (vert).
Ces différences entraînent de forts écarts sur les valeurs de l’indice (non montré). On observe des similarités entre les jeux de données ERA40 et HADGHCND
alors que les valeurs NCEP sont beaucoup plus fortes.
A ce jour, il n’existe pas d’études permettant de
définir lequel de ces jeux de données est le meilleur.
Il est donc nécessaire de réaliser les corrections sur
ces différents jeux de données pour tenir compte des
différentes possibilités.
Cependant il serait très lourd (augmentation du
temps de travail, et de la difficulté de l’analyse…) de
travailler simultanément sur les 3 jeux de données.
Nous avons donc effectué notre propre sélection au
vu de l’analyse présentée ci-dessus. En particulier on
constate que les deux jeux de données HADGHCND
et ERA40 donnent des résultats très similaires sur
l’indice. D’autre part, les réanalyses ERA40 présentent
une anormalité en ce qui concerne les variations journalières de l’écart intra-journalier de température (année 1983, non montré ici). Pour ces deux raisons, il a
donc été décidé d’éliminer le jeu de données ERA40
et de ne travailler qu’avec HADGHCND et NCEP. La
correction par rapport à ces 2 jeux de données qui correspondent respectivement à une borne inférieure et
une borne supérieure des valeurs de l’indicateur permet de tenir compte du maximum d’incertitude liée
à notre méthode de correction.
INVULNERABLe | DALKIA Incertitudes > PAGE 5
IMPACT DU CHANGEMENT
CLIMATIQUE SUR LA GESTION
DES RÉSEAUX DE CHALEUR
5. Illustration de l’effet de la correction
sur les distributions présente et future
La comparaison sur la Figure 6 des données observées et simulées de la période 1961-2000 illustre
l’efficacité de la correction. Après correction (courbe
bleue hachurée) la distribution des données simulées
se confond quasiment avec celle des observations
(courbe noire) alors qu’elle était très différente avant
correction (courbe bleue continue). Il reste un très
léger biais sur la représentation des valeurs les plus
extrêmes.
La correction modifie fortement la forme de la distribution (courbe bleue continue vs hachurée). En
particulier, l’étalement est fortement réduit. La correction augmente la valeur des écarts intra-journalier de
température les plus faibles et limite la fréquence des
valeurs fortes simulées par le modèle. La variabilité de
l’écart intra-journalier de température est fortement
réduite par la correction.
Les deux courbes rouges présentent les données
simulées pour la période 2071-2100 avant (trait continue) et après (trait hachuré) correction. La correction modifie amplement la forme de la distribution
des données futures simulées (et donc de la variabilité des écarts intra-journalier de température). On se
rapproche de la forme de la distribution des données
observées 1961-2000. On conserve cependant les principales tendances du signal non corrigé: une augmentation des valeurs fortes des écarts intra-journaliers de
température et une réduction des plus faibles valeurs.
7. Bilan
La correction des données est nécessaire pour analyser des indicateurs de vulnérabilité tels que ceux
développés dans INVULNERABLE. Cependant, il
manque des jeux d’observations parfaitement fiables
pour effectuer ces corrections. Ce manque engendre
une source d’incertitude supplémentaire sur les estimations faites. Le diagramme de la Figure 8 présente
la cascade d’incertitude associée à l’étude des réseaux
de chaleur en tenant compte de cette source d’incertitude supplémentaire.
Idéalement, on souhaiterait estimer l’ensemble des
incertitudes existantes (triangle hachuré). Dans la réalité on ne peut estimer qu’une partie de l’incertitude
(triangle blanc) plus ou moins importante en fonction
du degré de complexi‡té que nous apportons à l’analyse et des jeux de données dont nous disposons. Ces
incertitudes se traduisent sur le résultat par la proposition, non pas d’une valeur unique de l’indicateur en
2050 ou 2100, mais d’une « fourchette » de valeurs
possibles plus ou moins larges (voir les Figures 5 et 6
de la fiche « indicateur de vulnérabilité : élaboration
et analyse »).
6. Comparaison de l’ensemble
des incertitudes
La Figure 7 présente la dispersion totale des résultats
compte tenu de l’incertitude sur les modèles, sur la
méthode de correction et sur la variabilité naturelle
du climat.
On constate qu’en général l’incertitude totale
augmente au cours du temps : les résultats sont
plus dispersés à la fin du siècle que pour la période
1961-2000. Pour la période 1961-2000, la dispersion
provient du jeu de donnée de correction. Dans le
futur, les incertitudes sur les modèles et la variabilité
du climat viennent se rajouter.
INVULNERABLe | DALKIA Incertitudes > PAGE 6
FIGURE 6 Correction des écarts intra-journaliers de température
(DTR) simulés par le modèle du CNRM à partir de la méthode
quantile/quantile et des observations du Hadley Center. Les distributions pour les périodes 1961-2000 (courbes bleues) et 20712100 (courbes rouges) sont comparées avant (trait plein) et après
(trait hachuré) correction à la distribution des observations de la
période 1961-2000 (courbe noire).
12
1961−2000
2030−2061
2071−2100
8
0
2
4
6
8
6
4
0
2
Europe W−E
Chine Orient.
Chine Orient.
Tibet
1961−2000
2030−2061
2071−2100
6
4
2
0
0
3
6
9
8
12
1961−2000
2030−2061
2071−2100
Europe W−E
automne (SON)
12
18
été (JJA)
15
Europe Nord
Tibet
10
nombre de jours par saison
10
1961−2000
2030−2061
2071−2100
Europe Nord
nombre de jours par saison
printemps (MAM)
10
12
hiver (DJF)
Europe Nord
Europe W−E
Chine Orient.
Tibet
Europe Nord
Europe W−E
Chine Orient.
Tibet
FIGURE 7 Evolution de l’indicateur par saison pour les 4 régions d’intérêt (Europe du Nord, Europe de l’Est et de l’Ouest, Chine orientale
et plateau tibétain) sur les périodes 1961-2000, 2031-2060, 2071-2100. Chaque « boite à moustache » représente, pour une période, une
région et une saison données, la dispersion totale des résultats (minimum et maximum), le 25e et 75e percentiles (boite centrale), la valeur
médiane (trait à l’intérieur de la boite centrale) et la valeur moyenne (cercle à l’intérieur de la boite centrale). Les boites ont été obtenues
à partir des données de l’ensemble des simulations et des deux méthodes de correction;
INVULNERABLe | DALKIA Incertitudes > PAGE 7
IMPACT DU CHANGEMENT
CLIMATIQUE SUR LA GESTION
DES RÉSEAUX DE CHALEUR
Scénario A1B
Incertitudes sociétales
(non traitées)
Modèles :
CNCMM3
DMEH5C
EGMAM
IPCM4
HADGEM2
MPEH5C
Correction:
NCEP
HADGHCND
Incertitudes modèles +
variabilité naturelle
Incertitudes liées à
la correction
Autres incertitudes
(non traitées)
FIGURE 8 Cascade d’incertitude de l’analyse détaillé de l’indicateur de vulnérabilité pour les réseaux de chaleur. Triangle hachuré = incertitude totale. Triangle blanc = incertitude traitée dans l’étude.
INVULNERABLe | DALKIA Incertitudes > PAGE 8
Téléchargement