INVULNERABLe | DALKIA Incertitudes > PAGE 4
IMPACT DU CHANGEMENT
CLIMATIQUE SUR LA GESTION
DES RÉSEAUX DE CHALEUR
timés. Dans ce cas une seule correction de la moyenne
ne suffira pas à rétablir le réalisme des données.
3. Les méthodes de correction
Afin de ramener les valeurs des variables simulées
au niveau des valeurs observées, différentes tech-
niques de correction ont été développées. Toutes ces
méthodes de correction sont basées sur une hypo-
thèse dite de stationnarité. On considère que les biais
(moyen et variabilité) du modèle pour la période ac-
tuelle resteront sensiblement les mêmes dans le futur.
En d’autre terme, on fait confiance à la trajectoire
simulée par les modèles.
Techniquement, on calcule une fonction de correc-
tion pour la période actuelle en comparant les don-
nées simulées et les données observées pour une
période commune (1961-2000 par exemple). Puis on
applique cette fonction de correction à l’ensemble des
données simulées par le modèle climatique (périodes
historique et future).
Différentes méthodes de correction ont été dévelop-
pées. La plupart des méthodes de correction sont des
méthodes statistiques et ne sont pas basées sur la phy-
sique du climat. Certaines méthodes ne corrigent que
le biais moyen des variables simulées. Elles déplacent
donc l’ensemble de la distribution d’un même facteur
équivalent à la différence entre la moyenne simulée et
la moyenne corrigée (Figure 4.a). C’est le cas des mé-
thodes dites du « delta » et du « débiaisage ». D’autres
méthodes corrigent l’ensemble de la distribution.
Elles permettent de ramener les valeurs des courbes
rouge et bleue de la Figure 2 sur la droite noire du mo-
dèle parfait. L’effet de ce type de correction est illustré
sur la Figure 4.b. Elle entraine en général une transla-
tion de la distribution (comme pour la correction de la
moyenne) ainsi que le changement de la forme de la
distribution (aplatissement, modification de la symé-
trie…). Il existe des méthodes plus ou moins compli-
quées et performantes en fonction de l’étude que l’on
souhaite réaliser (régions et variables d’intérêt). Enfin
une dernière classe de méthode de correction est utili-
sée lorsque les variables d’intérêts sont trop mal simu-
lées par le modèle climatique. Elles consistent à faire
un lien statistique entre une variable grande échelle
« fiable » et la variable d’intérêt. La méthode des ana-
logues et celle de la classification en type de temps
sont les méthodes les plus connues de cette classe.
Pour l’étude des réseaux de chaleur et des vagues de
froid la méthode quantile/quantile a été utilisée. Elle
permet de corriger l’ensemble de la distribution.
4. Sélection du jeu de données
de référence
Les résultats de la correction dépendent fortement
du jeu d’observations utilisé. Il doit représenter avec
une bonne fiabilité l’ensemble des variables d’intérêt
et doit couvrir au moins une période de 30 ans.
Idéalement, il faudrait disposer d’un jeu d’observa-
tions homogénéisées couvrant l’ensemble du globe
avec une densité régulière. L’homogénéisation est
une technique de correction des séries d’observations.
Elle permet de tenir compte des différences de mode
opératoire qui interviennent au cours du temps sur
un site de mesure (changement d’appareil de mesure,
déplacement du site de mesure, construction d’une
route ou d’un immeuble à proximité du site de me-
sure…) et engendrent des erreurs importantes dans la
série de données.
A ce jour, ce jeu d’observations n’existe pas. Pour
l’étude de l’indicateur « réseau de chaleur », nous
disposons de 3 alternatives contenant les Tmin et
Tmax nécessaires aux calculs de l’écart intra-journa-
lier de température sur la période 1961-2000 : le jeu
d’observation du Hadley Center (HADGHCND) qui
comprend des données observées interpolées sur une
grille régulière en latitude et longitude (96x73) mais
non homogénéisées ainsi que les réanalyses améri-
caines (NCEP) et Européennes (ERA40) qui sont le
résultat du remaniement d’un jeu d’observations par
un modèle numérique de circulation.
Les écarts intra-journaliers de température contenus
dans ces 3 jeux de données présentent des différences
importantes aussi bien en moyenne qu’en variabilité
(Tableau 1 et Figure 5). Les jeux de données NCEP et
HADGHCND ont des moyennes multi-annuelles très
proches alors que pour la variabilité, on constate une
forte similarité entre ERA40 et HADGHCND.
a) Moyenne 1961-2000
Europe Asie Texas
ERA40 7,1 9,5 10,4
NCEP 9,0 12,6 14,5
HAD 8,8 12,4 14,9
b) Variabilité inter journalière 1961-2000
Europe Asie Texas
ERA40 2,6 2,6 3,5
NCEP 3,5 3,4 4,4
HAD 2,4 2,6 3,5
TABLEAU 1 Comparaison a) des valeurs moyennes (°C) et b) de la
variabilité (écart type, sans unité) de l’écart intra-journalier de tem-
pérature pour la période 1961-2000 de 3 jeux de données: le jeu
d’observation du Hadley Center (HAD), les réanalyses américaines
(NCEP) et les réanalyses Européennes (ERA40).