Cette fiche présente l’analyse des incertitudes as-
sociées au traitement statistique de l’indicateur de
vulnérabilité élaborée pour le groupe DALKIA et la
gestion des réseaux de chaleur. Elle décrit les diffé-
rentes sources d’incertitudes inclues dans l’étude et
les méthodes d’analyses mises en place pour les trai-
ter au mieux. La méthode de correction utilisée pour
réduire la partie quantifiable des biais des modèles est
également présentée.
1. Les différentes sources d’incertitudes
analysées
Parmi l’ensemble des sources d’incertitude exis-
tantes (voir la fiche « incertitude » du dossier « mieux
comprendre les risques du changement climatique »),
nous traitons ici deux d’entre elles.
Les incertitudes dues aux limites des modèles sont
prises en compte en comparant les résultats de plu-
sieurs modèles. Nous avons choisi le jeu de données
multi-modèles du projet Européen ENSEMBLES. Il
contient les simulations de 6 modèles Européens1.
Chaque modèle décrit de façon différente les proces-
sus physiques, dynamiques et biogéochimiques régis-
sant le climat.
Les incertitudes liées à la variabilité naturelle du
climat sont prises en compte en utilisant des « en-
sembles de simulations ». Il s’agit pour un modèle
donné de réaliser plusieurs simulations en modifiant
uniquement les conditions initiales de simulation.
1. Le modèle anglais du Met-Office (HADGEM); les deux modèles français de
l’IPSL (IPCM4) et du CNRM (CNCMM3); les modèles allemands du MPI (MPEH5C)
et du FUB (EGMAM), et le modèle du groupe italien INGV (DMEH5C). La résolu-
tion horizontale de ces modèles varie entre 300km et 100km soit environ 4 à 40
points de grille sur la France.
Cet aspect de l’incertitude est analysé pour trois des
six modèles du jeu de données ENSEMBLES pour les-
quels nous disposons d’ensemble de simulation.
En revanche, l’incertitude sociétale qui permet de
tenir compte des différentes possibilités d’évolution
de notre société n’est pas prise en compte ici. Un seul
scénario climatique (scénario SRES A1B) a été uti-
lisé. Cette source d’incertitude est négligeable pour
le moyen-terme (2030-2050). Elle devient dominante
pour les projections de la fin du 21e siècle.
En plus de l’utilisation du large jeu de simulations
ENSEMBLES, une partie de l’incertitude associée aux
imperfections des modèles est traitée en corrigeant
les biais des modèles. En effet dans l’étude d’indica-
teurs de vulnérabilité tels que celui développé pour
la gestion des réseaux de chaleur, il est préférable de
corriger ces biais pour au moins deux raisons :
1) Les indicateurs mettent très souvent en jeu des
seuils de vulnérabilité (seuil de température, de
précipitation,… acceptables pour une activité don-
née). Ces seuils sont définis par l’expérience opéra-
tionnelle des parties prenantes et donc à partir des
valeurs observées des variables météorologiques.
Comparer des variables biaisées à un seuil fixé sur
les valeurs observées enlèverait toute fiabilité à une
étude de vulnérabilité.
2) Le degré de vulnérabilité est souvent estimé par
analogie à une situation extrême connue. L’ana-
logue permet alors de définir un seuil critique de
dépassement. La comparaison à cet analogue néces-
site de travailler sur les valeurs absolues prises par
l’indicateur et non sur les anomalies. Cette compa-
raison ne peut pas être effectuée proprement en uti-
lisant des données brutes non corrigées.
Auteurs : C. Déandreis (IPSL), P. Braconnot (IPSL), S. Planton (CNRM-GAME)
Etude réalisée pour l’entreprise DALKIA
IMPACT DU
CHANGEMENT
CLIMATIQUE
SUR LA GESTION DES
RÉSEAUX DE CHALEUR
Traitement des incertitudes et correction
des données simulées
INVULNERABLe | DALKIA Incertitudes > PAGE 2
IMPACT DU CHANGEMENT
CLIMATIQUE SUR LA GESTION
DES RÉSEAUX DE CHALEUR
2. Les biais des modèles
Un modèle climatique est une simplification d’un
système énormément plus complexe. Le nombre de
degrés de liberté des modèles actuels est très inférieur
à l’infinité de facteurs intervenant dans l’évolution du
climat. De nombreux biais viennent donc entacher les
résultats des modèles.
Premièrement, les modèles ne simulent pas
parfaitement le climat moyen. L’ampleur de ces
biais moyens varie suivant les variables d’intérêts. Ces
différences sont liées à la capacité des modèles à plus
ou moins bien représenter les processus physiques
contrôlant l’évolution des variables climatiques. En
général, les précipitations moyennes qui mettent en
jeu des processus de très fines échelles sont moins
bien simulées que les températures.
En ce qui concerne la variable « température » qui
nous intéresse dans l’étude des réseaux de chaleur et
de la distribution de gaz, on constate par exemple que
les deux modèles français présentent un biais froid
(Figure 1) dans l’hémisphère nord, plus étendu et
prononcé sur le continent nord européen et asiatique
(Sibérie, Inde du nord, Chine). La répartition de ce
biais diffère d’un modèle à l’autre sur les régions qui
nous intéressent.
Le biais sur le minimum de température diffère de
celui sur le maximum de température (non montré).
On a donc également un biais sur l’estimation des
écarts intra-journaliers de température (Tmax - Tmin)
comme le montre la Figure 2.
D’autre part, la variabilité jour à jour des états si-
mulés par le modèle est différente de celle observée.
On constate une sous-estimation des phénomènes
extrêmes et plus généralement des différences sur
l’ensemble de la distribution. La Figure 3 présente
les différences modèles/observations pour chaque
tranche (centile) de la distribution des températures
maximale (Tmax), minimale (Tmin) et de l’écart intra-
journalier de température (DTR) pour le point de
grille contenant la ville de Paris et pour la période
1961-2000. La droite noire correspond au modèle
parfait (données simulées = données observées pour
toutes les tranches de la distribution). L’écart entre
les courbes rouge ou bleu et cette droite noire repré-
sente l’erreur du modèle. Les tronçons de courbe en
dessous (au dessus) de cette droite correspondent à
une surestimation (sous-estimation) du modèle. On
constate par exemple que les faibles valeurs de Tmin
sont surestimées en hiver par le modèle de l’IPSL et
que les fortes valeurs (supérieures à -1°C) sont sous-es-
FIGURE 1 Biais annuel moyen des températures moyennes des modèles de l’IPSL* et du CNRM** par rapport aux réanalyses ERA40 pour la
période 1961-2000. Les données des modèles sont issues des simulations effectuées dans le cadre du 4e rapport du GIEC. *Institut Pierre
Simon Laplace. **Centre National de Recherche Météorologique
INVULNERABLe | DALKIA Incertitudes > PAGE 3
FIGURE 2 Biais annuel moyen de l’écart intrajournalier de température (DTR = Tmax – Tmin) pour les modèles de l’IPSL et du CNRM par rapport
aux réanalyses ERA40 et pour la période 1961-2000. Les points de grille grisés correspondent aux valeurs non statistiquement signifi-
catives au seuil de 95% (obtenues par bootstrap). Les données des modèles sont issues des simulations effectuées dans le cadre du 4e
rapport du GIEC.
a) hiver
Tmean
b) été
FIGURE 3 Correspondance entre les distributions des réanalyses NCEP et des données simulées (IPSL en rouge et CNRM en bleu) pour les
températures moyennes (Tmax) et lécart intra-journalier de température (DTR). Les graphes correspondent au point de grille Parisien en
hiver (haut) et en été (bas) sur la période 1961-2000. La droite en trait plein correspond à une représentation parfaite de la réalité par le
modèle.
DTR
modelmodel
model model
INVULNERABLe | DALKIA Incertitudes > PAGE 4
IMPACT DU CHANGEMENT
CLIMATIQUE SUR LA GESTION
DES RÉSEAUX DE CHALEUR
timés. Dans ce cas une seule correction de la moyenne
ne suffira pas à rétablir le réalisme des données.
3. Les méthodes de correction
Afin de ramener les valeurs des variables simulées
au niveau des valeurs observées, différentes tech-
niques de correction ont été développées. Toutes ces
méthodes de correction sont basées sur une hypo-
thèse dite de stationnarité. On considère que les biais
(moyen et variabilité) du modèle pour la période ac-
tuelle resteront sensiblement les mêmes dans le futur.
En d’autre terme, on fait confiance à la trajectoire
simulée par les modèles.
Techniquement, on calcule une fonction de correc-
tion pour la période actuelle en comparant les don-
nées simulées et les données observées pour une
période commune (1961-2000 par exemple). Puis on
applique cette fonction de correction à l’ensemble des
données simulées par le modèle climatique (périodes
historique et future).
Différentes méthodes de correction ont été dévelop-
pées. La plupart des méthodes de correction sont des
méthodes statistiques et ne sont pas basées sur la phy-
sique du climat. Certaines méthodes ne corrigent que
le biais moyen des variables simulées. Elles déplacent
donc l’ensemble de la distribution d’un même facteur
équivalent à la différence entre la moyenne simulée et
la moyenne corrigée (Figure 4.a). C’est le cas des mé-
thodes dites du « delta » et du « débiaisage ». D’autres
méthodes corrigent l’ensemble de la distribution.
Elles permettent de ramener les valeurs des courbes
rouge et bleue de la Figure 2 sur la droite noire du mo-
dèle parfait. L’effet de ce type de correction est illustré
sur la Figure 4.b. Elle entraine en général une transla-
tion de la distribution (comme pour la correction de la
moyenne) ainsi que le changement de la forme de la
distribution (aplatissement, modification de la symé-
trie…). Il existe des méthodes plus ou moins compli-
quées et performantes en fonction de l’étude que l’on
souhaite réaliser (régions et variables d’intérêt). Enfin
une dernière classe de méthode de correction est utili-
sée lorsque les variables d’intérêts sont trop mal simu-
lées par le modèle climatique. Elles consistent à faire
un lien statistique entre une variable grande échelle
« fiable » et la variable d’intérêt. La méthode des ana-
logues et celle de la classification en type de temps
sont les méthodes les plus connues de cette classe.
Pour l’étude des réseaux de chaleur et des vagues de
froid la méthode quantile/quantile a été utilisée. Elle
permet de corriger l’ensemble de la distribution.
4. Sélection du jeu de données
de référence
Les résultats de la correction dépendent fortement
du jeu d’observations utilisé. Il doit représenter avec
une bonne fiabilité l’ensemble des variables d’intérêt
et doit couvrir au moins une période de 30 ans.
Idéalement, il faudrait disposer d’un jeu d’observa-
tions homogénéisées couvrant l’ensemble du globe
avec une densité régulière. L’homogénéisation est
une technique de correction des séries d’observations.
Elle permet de tenir compte des différences de mode
opératoire qui interviennent au cours du temps sur
un site de mesure (changement d’appareil de mesure,
déplacement du site de mesure, construction d’une
route ou d’un immeuble à proximité du site de me-
sure…) et engendrent des erreurs importantes dans la
série de données.
A ce jour, ce jeu d’observations n’existe pas. Pour
l’étude de l’indicateur « réseau de chaleur », nous
disposons de 3 alternatives contenant les Tmin et
Tmax nécessaires aux calculs de l’écart intra-journa-
lier de température sur la période 1961-2000 : le jeu
d’observation du Hadley Center (HADGHCND) qui
comprend des données observées interpolées sur une
grille régulière en latitude et longitude (96x73) mais
non homogénéisées ainsi que les réanalyses améri-
caines (NCEP) et Européennes (ERA40) qui sont le
résultat du remaniement d’un jeu d’observations par
un modèle numérique de circulation.
Les écarts intra-journaliers de température contenus
dans ces 3 jeux de données présentent des différences
importantes aussi bien en moyenne qu’en variabilité
(Tableau 1 et Figure 5). Les jeux de données NCEP et
HADGHCND ont des moyennes multi-annuelles très
proches alors que pour la variabilité, on constate une
forte similarité entre ERA40 et HADGHCND.
a) Moyenne 1961-2000
Europe Asie Texas
ERA40 7,1 9,5 10,4
NCEP 9,0 12,6 14,5
HAD 8,8 12,4 14,9
b) Variabilité inter journalière 1961-2000
Europe Asie Texas
ERA40 2,6 2,6 3,5
NCEP 3,5 3,4 4,4
HAD 2,4 2,6 3,5
TABLEAU 1 Comparaison a) des valeurs moyennes (°C) et b) de la
variabilité (écart type, sans unité) de l’écart intra-journalier de tem-
pérature pour la période 1961-2000 de 3 jeux de données: le jeu
d’observation du Hadley Center (HAD), les réanalyses américaines
(NCEP) et les réanalyses Européennes (ERA40).
INVULNERABLe | DALKIA Incertitudes > PAGE 5
Ces différences entraînent de forts écarts sur les va-
leurs de l’indice (non montré). On observe des simila-
rités entre les jeux de données ERA40 et HADGHCND
alors que les valeurs NCEP sont beaucoup plus fortes.
A ce jour, il n’existe pas d’études permettant de
définir lequel de ces jeux de données est le meilleur.
Il est donc nécessaire de réaliser les corrections sur
ces différents jeux de données pour tenir compte des
différentes possibilités.
Cependant il serait très lourd (augmentation du
temps de travail, et de la difficulté de l’analyse…) de
travailler simultanément sur les 3 jeux de données.
Nous avons donc effectué notre propre sélection au
vu de l’analyse présentée ci-dessus. En particulier on
constate que les deux jeux de données HADGHCND
et ERA40 donnent des résultats très similaires sur
l’indice. D’autre part, les réanalyses ERA40 présentent
une anormalité en ce qui concerne les variations jour-
nalières de l’écart intra-journalier de température (an-
née 1983, non montré ici). Pour ces deux raisons, il a
donc été décidé d’éliminer le jeu de données ERA40
et de ne travailler qu’avec HADGHCND et NCEP. La
correction par rapport à ces 2 jeux de données qui cor-
respondent respectivement à une borne inférieure et
une borne supérieure des valeurs de l’indicateur per-
met de tenir compte du maximum d’incertitude liée
à notre méthode de correction.
fréquence (%)
DTR (degrés C) DTR (degrés C)
fréquence (%)
modèle brut
modèle corrigé
modèle brut
modèle corrigé
b) correction de la distributiona) correction de la moyenne
FIGURE 4 Effet de différentes méthodes de correction (a-correction de la moyenne; b-correction quantile/quantile) sur la distribution de
l’écart intra-journalier de température d’automne. Données issues du modèle de l’IPSL (4e rapport du GIEC) pour la période 1961-2000. En
noir distribution avant correction, en rouge distribution après correction.
FIGURE 5 Variation de l’écart de température intra-journalier au cours d’une année pour l’Europe, la Chine et le Texas. Valeurs moyennes
pour la période 1961-2000 pour les observations du Hadley Center (noir), les ré-analyses européennes (rouge) et les ré-analyses améri-
caines (vert).
1 / 8 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !