Rapport GEPCI2 2004 - Institut national des sciences de l`Univers

publicité
Prospective en Calcul Intensif
pour
La Communauté des Sciences de l’Univers
2004 – 2008
CNRS - Septembre 2004
Rapport du Groupe d'Etudes Prospectives
en Calcul Intensif
(GEPCI2)
Septembre 2004
2
SOMMAIRE
I - Introduction
II – Le groupe d'experts GEPCI-2
A - Lettre de mission
B - Composition
C - Méthode de travail
III – Enjeux et besoins pour la communauté
climat-environnement
A - Quelques chiffres généraux
B – La modélisation climatique
C – La modélisation océanique
D – La modélisation en météorologie et
chimie atmosphérique à mésoéchelle
IV – Enjeux et besoins pour la communauté astrophysique
V - Enjeux et besoins pour la communauté des Sciences
de la Terre
VI – Conclusions et Recommandations
Rapport Sept 2004 v 1.1
3
I - Introduction
Le calcul à haute performance, en particulier pour la modélisation, a pris une grande
importance pour l'avancement des recherches et la compétitivité scientifique internationale
des laboratoires de Sciences de l'Univers. De plus, le contexte des capacités de calcul lourd
disponibles évolue rapidement aussi bien sur le plan européen que mondial, créant une
situation de compétition accrue pour la communauté SDU française.
Dans ce but, la direction de l'INSU a mis en place un "Groupe d'Etudes Prospectives sur le
Calcul Intensif" (GEPCI2) afin de prolonger sur la période 2005-2008 la synthèse qui avait
été réalisée pour les années 1999-2003 par le groupe d'experts présidé par Pierre Valiron
en 1998.
Au-delà d'un simple état des lieux, la mission confiée à ce groupe de proposition est de
susciter une nouvelle réflexion visant à réaliser une prospective glissante des besoins des
communautés relevant du département SDU sur les supercalculateurs de l'IDRIS et des
autres organismes nationaux pour les quatre prochaines années. Le cadre fixé par la lettre
de mission à cette analyse est de s'appuyer en particulier sur les besoins exprimés dans les
prospectives menées par l'INSU et ses commissions spécialisées. Dans la mesure du
possible, les besoins nationaux doivent être replacés dans la perspective du contexte
international.
L'objectif du présent rapport est donc en premier lieu de faire le point sur les besoins
en calcul relevant actuellement du vectoriel suite au remplacement du NEC de l'IDRIS
à prévoir en 2005.
Le rapport résume les premières conclusions formulées par le GEPCI2.
De nombreuses questions sont de fait posées aujourd’hui: évolution des modèles, de leur
résolution, développement des méthodes d’assimilation, choix des outils de diagnostics et
d’analyse, place de la recherche fondamentale vis-à-vis de l’opérationnel, etc.. Constatant
qu'une simple extrapolation sur la base des moyens actuels semble insuffisante, les
membres du GEPCI2 ont cherché à formuler plus précisément les besoins par une
prospective technique fondée sur la prospective scientifique existante.
Afin d’initier ce processus, il a semblé utile d'orienter le débat par quelques questions
générales auxquelles le travail du GEPCI2 a essayé de répondre :
- Quels sont les "grands défis de modélisation" qui se posent à la communauté SDU,
discipline par discipline?
- Quelles sont les priorités scientifiques nationales ou internationales qui restent hors
d'atteinte avec les moyens actuels de l'IDRIS, mais qu'une machine de classe mondiale
"Earth Simulator" permettrait d'attaquer? Même question pour une machine intermédiaire de
classe européenne?
- Est-il possible de déduire une stratégie technique des priorités scientifiques? La situation
est-elle la même pour l'ensemble des disciplines de SDU?
- Sans se perdre dans les querelles d'architecture, est-il possible de préciser dans quels
domaines le vectoriel-parallèle (type NEC) reste indispensable, et dans quels domaines le
scalaire-parallèle s'est ou va s'imposer?
- Quelle organisation est-elle souhaitée pour le calcul de haute performance? Quelle
ambition la communauté a-t-elle pour l'IDRIS et les autres centres nationaux? Souhaite-t-elle
participer aux projets thématiques de super-centres européens en calcul intensif? Avec
quelles ambitions?
4
II –Le groupe d'experts GEPCI-2
A - Lettre de mission
Réaliser une prospective glissante des besoins des communautés relevant du département
SDU sur les supercalculateurs de l'IDRIS et des autres organismes nationaux pour les
quatre prochaines années. Cette analyse devra s'appuyer en particulier sur les besoins
exprimés dans les prospectives menées par l'INSU et ses commissions spécialisées. Dans
la mesure du possible, les besoins nationaux seront replacés dans la perspective du
contexte international. Enfin, dans une première phase, un objectif important est de faire un
point sur les besoins en calcul relevant actuellement du vectoriel suite au remplacement du
NEC de l'IDRIS à prévoir en 2005.
B - Composition
Le groupe GEPCI2 comprend quatorze membres représentant les quatre secteurs
principaux de l'INSU: Astronomie-Astrophysique, Océan-Atmosphère-Climat, Surface et
Interfaces Continentales, et Sciences de la Terre. En termes de domaines thématiques au
sein des Conseils Scientifiques de l'IDRIS et du CINES, il couvre donc les compétences des
CP1 et 4. Sa composition est la suivante:
-
François Bouchet, Institut d'Astrophysique de Paris (IAP),
Pascale Braconnot, Laboratoire des Sciences du Climat et de l'Environnement (LSCE),
Philippe Cardin, Observatoire des Sciences de l'Univers de Grenoble (OSUG),
Jean-Louis Dufrène, Laboratoire de Météorologie Dynamique (LMD),
Marie-Alice Foujols, Institut Pierre Simon Laplace (IPSL),
Etienne Gondet, Mercator-Océan,
Franck Lefèvre, Service d'Aéronomie du CNRS (SA),
Patrick Mascart, Observatoire Midi-Pyrénées (OMP), Président du CP1 de l'IDRIS,
Nicolas Monnier, Centre Européen de Formation Avancée au Calcul Scientifique
(CERFACS)
Michel Perault, Ecole Normale Supérieure Paris (ENS),
Serge Planton, Centre National de Recherche Météorologique (CNRM),
Georges-Marie Saulnier, Laboratoire d’études des Transferts en Hydrologie et
Environnement (LTHE),
Anne-Marie Tréguier , Laboratoire de Physique de l'Océan (LPO),
Jean-Pierre Vilotte, Institut de Physique du Globe de Paris (IPGP),
Pierre Valiron, Observatoire des Sciences de l'Univers de Grenoble (OSUG), Président
du CP4 de l'IDRIS,
Stratis Manoussis, Institut National des Sciences de l'Univers (INSU).
L'animateur du travail du groupe et rédacteur du présent rapport est Patrick Mascart.
C - Méthode de travail
Compte tenu du calendrier très serré, le groupe ne s'est réuni qu'une seule fois en session
plénière, le 2 juin 2004 à l'IAP. Etaient présents F. Bouchet, P. Braconnot, J.-L. Dufrène, M.A. Foujols, E. Gondet, P. Mascart, N. Monnier, S. Planton, A.-M. Tréguier, P. Valiron, S.
Manoussis.
Rapport Sept 2004 v 1.1
5
Une réunion informelle sur le thème spécifique du climat avait été organisée auparavant à
l'IPSL, le 7 avril 2004. Etaient présents: P. Braconnot, J.-L. Dufrène, M.-A. Foujols, F.
Lefevre, C. Lévi, G. Madec, O. Marti, P. Mascart, S. Manoussis, et N. Scott.
Des échanges de documents par voie électronique ont complété ces deux séances de
travail.
Le présent rapport fournit une synthèse préliminaire des conclusions et recommandations du
groupe, rédigée en préparation du Conseil Scientifique de l'IDRIS du 15 juin dernier et du
Conseil d'Administration de l'IDRIS le 1 juillet. Le volume des différentes parties thématiques
du rapport est assez inégal, ce qui reflète le poids plus ou moins grand représenté dans
chacune des disciplines par le calcul intensif sur les centres nationaux, et tout
particulièrement à l'DRIS. Compte tenu des délais très courts, l'accent est mis sur les enjeux
et les recommandations.
6
III – Enjeux et besoins pour la communauté climatenvironnement
Un trait majeur des recherches du secteur climat-environnement est leur intégration
particulièrement forte dans les grands programmes aussi bien internationaux comme le
PMRC, PIGB, et le WWRP, que nationaux du CNRS, de l'INSU et du MRNT, par exemple
dans le cadre du PNEDC, de l'ACI "Risques et changement climatique", du GICC, du
PATOM, du PNCA, voire du PNRH. L'Union Européenne soutient les travaux climatiques
actuellement au sein de sa sous-priorité "Changement planétaire et écosystèmes" du 6ème
PCRD, notamment le projet "ENSEMBLES". Antérieurement, le projet d'infrastructure
PRISM du 5ème PCRD a soutenu des développements. Plus de 200 chercheurs sont
impliqués dans une quinzaine de laboratoires à l'Université et au CNRS, et ces activités
s'appuient sur un fort soutien et d'étroites collaborations avec des organismes comme
Météo-France, le CEA, l'IRD, l'IFREMER, le SHOM, l'INRA, et le CNES.
Une autre caractéristique déterminante est l'utilisation intensive d'un petit nombre (4
ou 5) d'outils logiciels communautaires, de taille quasi-industrielle, comme les modèles de
circulation générale atmosphérique LMD-Z de l'IPSL/LMD et ARPEGE du CNRM, le modèle
de circulation générale océanique OPA de l'IPSL/LODYC, et le modèle atmosphérique de
méso-échelle Méso-NH développé conjointement par le CNRM et le LA. Un aspect
également notable est l'émergence au cours des 5 dernières années d'une activité de
prévision océanographique opérationnelle héritière du code océanique de recherche OPA
(projet MERCATOR).
A - Quelques chiffres généraux
Pour fixer les idées, avant d'indiquer les tendances imposées par l'évolution des
problématiques de recherches, il est intéressant d'examiner les chiffres bruts d'utilisation des
ressources de l'IDRIS dans le secteur climat-environnement, et de les comparer
succinctement avec la situation à l'étranger.
L'analyse quantitative de l'utilisation de l'IDRIS par la communauté climatenvironnement montre qu'en 2004 ce secteur scientifique utilise environ 140 000 heures de
la machine vectorielle NEC-SX5 de l'IDRIS, soit environ 48% du potentiel de production total
de cette machine (295 000 heures). La ventilation de cette utilisation entre les sous-thèmes
d'activité montre que prés de 50% de ces travaux relèvent de recherches climatiques au
sens strict, 36 % de l'océanographie, 10% de recherches atmosphériques, et 4% de
recherches environnementales diverses. Au contraire, l'utilisation des machines scalaires de
l'IDRIS par la communauté climat-environnement reste pour l'instant assez limitée, environ
290 000 heures en 2004, un peu moins de 5% du potentiel de production de 3 700 000
heures disponibles.
Cette forte focalisation de l'utilisation de la machine vectorielle NEC-SX5 de l'IDRIS
sur les recherches climatiques s'est accentuée depuis sa mise en service en 1999. En
2000, la communauté climat-environnement n'utilisait que 34 000 h sur le SX5, soit 11% de
du potentiel de la machine. Ce taux d'utilisation a doublé durant les deux années suivantes,
avant de se stabiliser vers 45%, avec 140 000 heures utilisées en 2003 et 2004. Cette
évolution des chiffres montre que les recherches climatiques ont trouvé avec le SX5 une
machine bien adaptée à la croissance de leurs besoins jusqu'en 2003, mais que depuis
cette date la limite des capacités pratiques du NEC-SX5 est atteinte et que ce sont les
objectifs scientifiques qui s'adaptent désormais à la saturation de la machine. Cette
Rapport Sept 2004 v 1.1
7
adaptation a un prix: elle a été obtenue en faisant de l'autocensure sur les objectifs,
principalement en limitant la résolution spatiale des modèles.
Une autre constatation intéressante vient de la comparaison des moyens disponibles pour
les recherches en climat-environnement en France et dans quelques centres concurrents à
l'étranger. Pour la France, si on considère globalement les chercheurs CNRS et ceux des
organismes fortement impliqués en climat-environnement, trois centres majeurs sont utilisés:
l'IDRIS-CNRS, le CEA (civil) et Météo-France. Ces trois centres français sont équipés
actuellement de machines assez voisines de type vectoriel NEC ou FUJITSU. Pour chacun
de ces centres le tableau 1 (repris du document d'analyse IPSL joint en annexe) évalue
grossièrement les ressources consolidées disponibles pour les recherches en climatenvironnement en multipliant la puissance crête théorique de chaque machine par un "taux
d'utilisation climatique". Pour l'IDRIS ce taux est cohérent avec les chiffres donnés plus haut
pour 2004. On trouve que les trois centres français équivalent à une machine unique
d'environ 190 Mflops utilisée à plein temps. Ce chiffre est probablement optimiste dans la
mesure où trois petites machines ne sont pas équivalentes à une grosse dans leurs
fonctionnalités. Le même tableau fait aussi figurer le centre climatique Allemand du DKRZ,
le centre climatique anglais du Hadley-center et le centre pilote mondial japonais du EarthSimulator. Tous ces centres sont équipés de machine vectorielles de même type (le plus
souvent NEC SX6), sauf le centre météorologique de l'ECMWF qui est doté d'une machine
scalaire-paralléle IBM. Lorsque l'activité déborde la modélisation climatique, la fraction
réservée au climat est indiquée. Les chiffres montrent que la meilleure machine climatique
européenne est environ 13 fois inférieure à la machine pilote japonaise, mais surtout hélas
que la somme des ressources climatiques dans les trois centres français est surclassée par
un facteur 1,7 par la machine climatique anglaise et 2,5 par la machine climatique
allemande.
Tableau 1: Puissance disponible pour la modélisation climatique dans divers centres français et internationaux
Perf (crête)
soutenue
Centre
Calculateur
Détail
IDRIS
NEC SX-5
depuis 2000
3 noeuds
40 proc
CEA
NEC SX-6
depuis 2003
6 noeuds
44 proc
113 Gflops
124 noeuds
124 proc
381 Gflops
Météo-France
DKRZ
(Allemagne)
Hadley Center
(Angleterre)
Earth Simulator
(Japon)
VPP 5000
x2 en2003
320 Gflops
102 Gflops
350 Gflops
1190 Gflops
1536 Gflops
NEC SX-6
depuis 2003
24 noeuds
192 proc
492 Gflops
NEC SX-6
depuis 2004
30 noeuds
240 proc
614 Gflops
NEC SX6
depuis 2002
640 nœuds
5120 proc
13 116 Gflops
1920 Gflops
40 960 Gflops
Partie
climat
Perf sout. pour climat
30%
30 Gflops
35%
40 Gflops
30%
114 Gflops
100 %
492 Gflops
50%
307 Gflops
50%
6558 Gflops
Il est utile de comparer ces chiffres avec ceux donnés dans le rapport récent du
MRNT (Lichnewsky, mars 2004) pour situer l'ensemble des moyens de calcul intensifs
français par rapport à la concurrence européenne, toutes disciplines confondues. Ce rapport
8
trouve une puissance (crête) de 16 000 Gflops à la disposition de la recherche allemande,
18 000 Gflops pour la recherche britannique, et de 12 400 Gflops en France (en tenant
compte de la rénovation récente de Zahir). Le retard global français est donc d'environ 30%
toutes disciplines confondues alors qu'il est de 50% dans le secteur climat-environnent.
B – La modélisation climatique
Le calcul intensif est présent dans presque tous les thèmes scientifiques du climat et de
l'environnement, seuls seront donc traités ci-dessous les trois axes majeurs qui
dimensionnent la demande sur les grands centres nationaux. Par ailleurs, ainsi que la suite
va le montrer, la modélisation climatique est, et de loin, la discipline la plus dimensionnante
pour l'ensemble des laboratoires SDU impliqués en modélisation. Elle sera donc traitée de
façon un peu plus approfondie dans le présent rapport.

Le Climat: comprendre et modéliser le "Système Terre"
Le climat de la Terre est le résultat d’interactions complexes entre de nombreux
processus faisant intervenir l’atmosphère, l’océan et les surfaces continentales. Comment
fonctionne ce système ? Peut-on prévoir son évolution à l’échelle d’une saison ou à plus
long terme ? Les activités humaines sont-elles en train de modifier les grands équilibres
climatiques ? Quelles en sont et seront les conséquences pour l’humanité ? Il est plus que
jamais nécessaire de comprendre les mécanismes essentiels qui gouverneront l'évolution du
climat. Une difficulté majeure est que la perturbation anthropique, qui apparaît comme une
dérive du système, se superpose et interfère avec la variabilité naturelle dont de nombreux
aspects sont encore mal connus.
Seule une approche multidisciplinaire et intégrée du Système Terre peut relever ce défi.
Elle doit faire intervenir à la fois les interactions entre l'océan, l'atmosphère, la biosphère et
la cryosphère sous l’ensemble de leurs aspects physiques, chimiques et biologiques.. Notre
capacité à prévoir les modifications climatiques majeures susceptibles de se produire au
cours des prochaines années ou des prochains siècles est fortement conditionnée par notre
capacité à intégrer dans des ensembles complexes des processus ayant des échelles de
temps et d'espace très variées et par notre capacité à les évaluer par différents types de
simulations. Elle repose aussi sur différentes études de prévisibilité climatiques à l'échelle
saisonnière, pluriannuelle, voire à l'échelle du siècle. Les avancées scientifiques attendues
dans ce domaine sont très fortement dépendantes des ressources en calcul intensif
Au niveau international, le grand défi pour la communauté scientifique à l'échelle de 10
ans, est de disposer de systèmes intégrés très complets du Système Terre, intégrant la
physique et les cycles bio-géochimiques, et de se diriger graduellement vers la prévision
climatique. Cet enjeu est particulièrement dimensionnant pour les ressources de calcul à
l'heure où les possibilités offertes par des calculateurs comme le "Earth Simulator" ouvrent
de nouvelles perspectives de recherches dans le domaine du climat et de l'étude des
processus intervenant dans les différents milieux qui le composent. La communauté
internationale est aussi fortement mobilisée pour le prochain rapport du Groupe
Intergouvernemental sur l'Etude du Changement Climatique (GICC) qui rendra ses
conclusions en 2007 (www.ipcc.ch). D'ici là, les différents groupes de modélisation sont
fortement sollicités pour produire dès la fin 2004 un ensemble coordonné de simulations des
20ème, 21ème et 22ème siècles. Au niveau européen ces défis sont repris par le Projet
Intégré du FP6 ENSEMBLES (coordinateur D. Grigs, Hadley Centre, UK). Ce projet, qui
vient de démarrer au cours de l'année 2004 pour une période de 5 ans, fait le lien entre les
scénarios climatiques, la prévisibilité climatique, la régionalisation, les études d'impacts et
l'économie. Il regroupe 70 partenaires européens. Le tableau 2 compare les configurations
des modèles couplés utilisés dans divers pays pour contribuer au projet ENSEMBLES. On
Rapport Sept 2004 v 1.1
9
constate que le savoir-faire de l'école française de modélisation jouit d'une grande estime,
attestée par l'utilisation du code océanique français OPA-ORCA par plusieurs équipes
étrangères dont l'ECMWF, mais il est aussi frappant de noter que c'est l'implémentation à
l'IDRIS qui utilise la résolution la plus grossière, particulièrement dans l'atmosphère.
Tableau 2. Résolutions spatiales des modèles couplés impliqués dans le projet ENSEMBLES de UE FP6.
Partenaires
ENSEMBLE
Angleterre:
Modèle
Atmosphère
Résolution
horizontale
Nombre
couches
Modèle
Océan
Résolution
horizontale
Nombre
couches
UREADMM
METO-HC
UK-HiGEM
1°x1°
38
HC-OGCM
0.33°
40
HC-AGCM
1.25°x1.875°
38
HC-OGCM
0.33-1°
40
IFS
T95 (~1°)
60
ORCA
0.5-2°
29
EGMAM
T31 (~3°)
39
EGMAM
0.5-2.8°
20
ECHAM5
T63 (~1.5°)
31
MPI-OM
1.5°
40
ECHAM4.6
T106 (~1°)
19
OPA 8.2
0.5-2°
ARPEGE
T63
31
MICOM
1.2°
36
ARPEGE
T63 (~1.5°)
31
45
ORCA
OPA8
0.5-2°
0.5-2°
31
31
ARPEGE
T63 (~1.5°)
31
ORCA
0.5-2°
31
LMDZ-4
2.5°x3.75°
19
ORCA
0.5-2°
31
Angleterre:
METO-HC
ECMWF
Allemagne
FUB
Allemagne:
MPI & DMI
Italie
INVG
Norvège:
NERSC
France:
CNRM
France:
CERFACS
France:
IPSL
D'autres projets internationaux ou européens renforcent cet effort. C'est en particulier le
cas pour les simulations paléoclimatiques avec le projet international PMIP (Paleoclimate
Modeling Intercomparaison Project) qui regroupe des simulations couplées pour des
périodes extrêmes dans le passé pour lesquelles il existe de nombreuses données.
La communauté française est fortement intégrée à ces différents projets internationaux
où son rôle est dans une large mesure à la fois de faire avancer les connaissances mais
aussi d'argumenter la doctrine environnementale française en matière de changement
climatique. Les aspects les plus dimensionnants en terme de ressources de calcul
concernent les études nécessitant le couplage de différentes composantes du Système
Terre. Dans la suite logique des simulations climat-carbone effectuées il y a 4ans, l’IPSL
développe les thématiques permettant d'analyser et de quantifier le rôle des interactions
entre le système climatique et les cycles biogéochimiques. Les analyses s'appuient sur des
expériences numériques où les différentes composantes du modèle Système Terre de l'IPSL
sont successivement activées, ainsi que sur des simulations avec les composantes
individuelles. Cette approche permet de quantifier les échanges entre les différents milieux
et d'évaluer le rôle des rétroactions. Un objectif est de disposer d'un modèle complet
(ensembles des couplages pouvant être activés simultanément) d'ici fin 2006.
Les volets d'analyse du changement de climat simulé mettent l'accent sur les
changements du cycle hydrologique, au travers des rétroactions liées aux variations de la
circulation océanique et aux rétroactions nuageuses. Ces études demandent de pouvoir
augmenter rapidement la résolution spatiale des modèles d'océan et d'atmosphère utilisés
aujourd'hui pour avoir une meilleure représentation des échelles synoptiques dans
10
l'atmosphère et de la topographie dans les régions de l'atlantique Nord où de nombreux
seuils conditionnent le cheminement des masses d'eau. Les études directement menées à
partir de scénarios climatiques globaux sont donc essentiellement axées sur l’étude des
rétroactions dans le système climatique et l'analyse de la sensibilité climatique. Elles
s'appuient principalement sur des jeux de simulations réalisées à parts à peu prés égales
sur les machines SX5 de l'IDRIS et SX6 du CEA.
Météo-France est également fortement impliqué dans les études du changement
climatique. Bien que s’intéressant aux rétroactions du système climatique dans son
ensemble en liaison avec le cycle hydrologique et les processus de surface, le projet de
Météo-France met d'avantage l’accent sur des études aux échelles régionales. Cela
concerne à la fois des études de variabilité climatique (Atlantique Nord-Europe, régions de
moussons, régions polaires), le développement d’une méthodologie de régionalisation
dynamique des changements climatiques, et des études de détection et d’attribution des
changements climatiques aux échelles régionales en collaboration avec le CERFACS.

Améliorer la résolution spatiale et la représentativité des modèles climatiques
Pour progresser au-delà des connaissances actuelles et continuer à tenir un bon rang
dans la compétition internationale, la modélisation climatique française doit améliorer ses
modèles sur de nombreux points, largement identifiés à l'occasion des grands ateliers
internationaux d'inter-comparaisons de modèles (tels AMIP) et repris par exemple dans les
prospectives et les appels d'offres du PNEDC et de l'ACI "Risques et changements
climatiques".
En termes généraux, et à court ou moyen termes, les progrès à réaliser les plus
contraignants et dimensionnants identifiés dans ces prospectives sont :
- l'augmentation de la résolution des modèles pour avoir une meilleure description des
échelles synoptiques, représenter les modes de variabilité de l’atmosphère et inclure
les niveaux stratosphériques,
- la complexification du système pour tenir compte non seulement de l'impact du
changement de climat sur les cycles bio-géochimiques, mais aussi du couplage entre
les cycles et le climat,
- la réalisation d'ensembles de simulations pour tenir compte des incertitudes des
modèles et de l'aspect chaotique du système.,
- la réalisation de simulations longues pour obtenir une bonne caractérisation de la
variabilité climatique à différentes échelles de temps,
- la possibilité d'étudier les interactions d'échelles et les non-linéarités du système,
- la réalisation de simulations régionales à haute résolution pour pouvoir traiter
correctement les problèmes d'impact et faire le lien avec les mesures ponctuelles.
A titre de simple exemple, le tableau 3 essaie de chiffrer les conséquences en termes de
coûts calcul et mémoire de quelques-unes de ces priorités en se basant sur le document
préparatoire IPSL joint en Annexe. On part de quatre exemples d'objectifs prioritaires
recensés dans la prospective INSU (appel d'offre du PNEDC 2004). Le tableau identifie
pour chaque priorité le (ou les) processus fondamentaux à améliorer pour atteindre l'objectif
affiché, et la résolution de la grille de calcul nécessaire. La dernière colonne donne le
chiffrage approximatif en terme de puissance calcul et mémoire. La référence est prise par
comparaison aux ressources actuelles utilisées pour les simulations climatiques couplées du
projet ENSEMBLES sur le NEC-SX5 vectoriel de l'IDRIS en 2004.
Rapport Sept 2004 v 1.1
11
Tableau 3: Priorités scientifiques 2005-2007 et chiffrage des besoins calcul qui correspondent
Processus clef
à améliorer
Résolution
nécessaire
Chiffrage
Temps CPU/
mémoire
Améliorer la connaissance de
la réponse globale du climat
aux perturbations
anthropiques en améliorant
les rétroactions nuageuses
Bonne représentation des
nuages bas et de leur
sensibilité aux changements
de circulation, de
température et d'humidité.
Accroître résolution
verticale couche
limite
facteur 2 à 4
Accroître résolution
horizontale
~1.5°x1.5°
Facteur 4
Augmentation
Facteur 10
coût CPU
par rapport
référence
Simuler les changements
climatiques et les couplages
climat-carbone à l'échelle
globale.
Idem ci-dessus,
avec en plus les modèles
de carbone des surfaces
continentales et de l’océan
Idem ci-dessus
Idem ci-dessus
Quantifier les changements
climatiques en Europe
(tempêtes, inondations,
sécheresse)
Bien simuler les régimes
dépressionnaires des
moyennes latitudes
(cyclogénèse, fronts).
Accroître résolution
horizontale meilleure
que 1°x1°
Facteur ~9
Facteur ~15
en CPU
et
10 en mémoire
Quantifier l'impact régional du
changement climatique sur
chimie troposphère et
stratosphère
Modèle couplé avec
chimie-aérosols
Ajouter ~200 traceurs
et encore plus de
réactions chimiques
Amélioration
résolution verticale
à la tropopause
et ~ 100 niveaux
Facteur ~4
Facteur ~100
en CPU
et
40 en mémoire
Simuler les phénomènes
extrêmes dans les régions
tropicales et leur évolution
Simuler les cyclones
tropicaux
Améliorer représentation
convection nuageuse
Améliorer résolution
horizontale jusqu'à
0,5°x0,5°
Facteur 40
Facteur ~100
en CPU
et
40 en mémoire
Priorité affichée par
prospective INSU PNEDC
Ce chiffrage montre que les objectifs scientifiquement programmés, tant au niveau
national qu'international, font d'ores et déjà l'hypothèse d'un accroissement d'un facteur 10
de la capacité disponible pour la modélisation climatique à l'IDRIS dés les années 2005, et
d'un accroissement supplémentaire allant jusqu'au facteur 100 en fin de période considérée
vers 2007. Il est utile de noter que ces chiffres sont en gros compatibles avec les moyens
vectoriels dont disposent nos concurrents européens (Tableau 2), mais hors de portée de la
machine vectorielle actuelle de l'IDRIS, qui est déjà saturée.

Stratégie technique pour la modélisation du climat
Sur le plan technique, la modélisation climatique française est à un tournant. Le défi des
années passées était de développer et d'assembler dans le cadre de l'IPSL toutes les
composantes d'un modèle du Système Terre complet: LMD-Z pour l'atmosphère, OPA pour
l'océan et la glace de mer, ORCHIDEE pour la surface et le cycle du carbone, INCA pour la
chimie atmosphérique, PISCES pour la bio-géochimie océanique. Cette phase s'achève
progressivement, ces composantes existent désormais et elles échangent avec succès leurs
informations grâce au coupleur OASIS du CERFACS. Ce modèle couplé complet vient
12
d'arriver à maturité et il constitue l'outil de base pour que la communauté CNRS-SDU puisse
participer (dans le cadre du projet ENSEMBLES) à la préparation des simulations dites de
scénarios qui constituent la contribution française à la préparation du prochain rapport
international de l'IPCC. C'était un enjeu scientifique majeur, affiché depuis plusieurs années,
qui est sur le point d'être atteint car la communauté s'est coordonnée en mettant en
commun des ressources significatives à l'IDRIS, au CEA et à Météo-France.
Ce résultat a été cependant obtenu au prix de compromis, en particulier de compromis
technologiques. Si certaines composantes du modèle couplé du "Système Terre" de l'IPSL
ont pu être presque totalement optimisées, vectorisées et parallélisées, ce n'est pas le cas
pour la totalité du modèle couplé. En particulier, le modèle atmosphérique LMD-Z,
composante difficile à optimiser car très riche en paramétrisations complexes, a été optimisé
depuis l'origine pour des machines vectorielles, mais ne permet pas encore la parallèlisation.
Par contre le modèle OPA qui constitue la composante océanique du système permet une
parallélisation massive et est utilisé depuis plusieurs années en mode parallèle MPI.
Le modèle couplé complet "Système Terre" ne peut donc être exploité valablement pour
des runs en vraie grandeur que sur une machine vectorielle comme les NEC SX5 ou SX6.
Les performances sont alors très satisfaisantes car les codes climatiques sont riches en
boucles longues bien adaptées à la vectorisation, et car leurs tailles actuelles sont encore
bien compatibles avec les tailles mémoires disponibles en mode monoprocesseur. Renoncer
aujourd'hui à la présence d'une machine vectorielle de classe européenne à l'IDRIS mettrait
pour plusieurs années les équipes CNRS de modélisation climatique dans l'incapacité de
participer à la compétition internationale. Les équipes concernées devraient alors se retirer
de la compétition pour une parenthèse technologique de deux ou trois ans. Dans le contexte
scientifique et politique des recherches sur le climat une telle solution serait dommageable,
ceci d'autant plus que certains composants du modèle couplé français commencent à être
utilisés à l'étranger. Le premier enjeu technique pour la modélisation climatique au
CNRS/SDU est donc de renouveler la machine vectorielle de l'IDRIS par une machine de
technologie vectorielle et d'une puissance comparable à celle déjà disponible en Allemagne
et en Angleterre. Cet objectif correspond à une augmentation de puissance de l'ordre d'un
facteur 10 par rapport à la machine vectorielle NEC-SX5 existante. Nous avons vu au
paragraphe précédent que la programmation scientifique affichée permet de charger une
telle machine dès sa mise en service. La communauté climat avait formulé la même
demande d'augmentation de puissance par un facteur 10 en 1998 lorsqu'il s'agissait de
remplacer le VPP Fujitsu de l'époque par la machine NEC actuelle. Les prévisions
annoncées en 1998 pour 2003 furent presque parfaitement tenues, et la montée en charge
fut réalisée en moins d'une année.
Le choix, qui est proposé ici, de garder pour le moment à l'IDRIS une technologie
vectorielle de haute performance n'est d'ailleurs pas différent de celui qui a été fait dans les
derniers mois chez nos concurrents étrangers: bien sur le Earth Simulator mis en service fin
2002 est vectoriel, mais les machines climatiques Allemandes et britanniques le sont aussi.
Même aux USA, le choix d'abandon de la technologie vectorielle fait il y a quelques années
au vu de l'avance japonaise est remis en cause, sous la pression des centres de recherches
climatiques.
Le choix proposé ne signifie pas que le modèle de "Système Terre" français ne doit pas
être parallélisé. Le sens de la décision proposée est de maintenir la continuité de la
production et du savoir-faire scientifique des équipes françaises de modélisation climatique
en leur donnant accès à une machine immédiatement utilisable à un niveau compétitif. Par
contre, pour continuer à progresser la parallélisation sera indispensable, même à court
terme. Les arguments avancés dans la prospective technologique IDRIS sur ce point sont
parfaitement exacts. En premier lieu, il a été dit au paragraphe précédent que la taille
mémoire requise est aujourd'hui compatible avec la mémoire disponible en mode
monoprocesseur sur une machine vectorielle moderne, mais les chiffres d'évolution du
tableau 3 montrent que cette limite sera atteinte rapidement, dans une ou deux années sans
doute. La seule solution sera alors de paralléliser afin d'éclater le modèle "Système-Terre"
sur plusieurs processeurs, chacun doté de sa mémoire propre. C'est ce problème de
Rapport Sept 2004 v 1.1
13
mémoire qui imposera en premier la parallèlisation sur les grands codes climatiques. Mais,
comme la puissance crête des processeurs (vectoriels ou autres) commence à plafonner,
l'explosion des temps de calcul conduira de toutes façons à la parallèlisation sur quelques
dizaines de processeurs vectoriels, ou le cas échéant sur quelques centaines de
processeurs scalaires.
L'analyse très convaincante présentée dans les documents de prospective technique et
financière préparés par l'IDRIS montre que les coûts consolidés des deux solutions
techniques sont très voisins, car l'efficacité moyenne de production d'une machine scalaire parallèle reste de l'ordre de 7%, alors qu'un processeur SX5 donne mieux que 30%.
Une action vigoureuse et urgente de l'INSU et du SDU sera donc indispensable pour
achever la parallèlisation du modèle climatique couplé "Système-Terre complet" dans les
deux prochaines années. Attendre au-delà pourrait compromettre à la fois l'avenir de la
filière de modélisation climatique française, et ne permettrait pas la pleine utilisation des
machines nouvelles. Ce chantier technique doit être vu avec ambition, afin de doter le
modèle de l'IPSL des différentes solutions techniques possibles (échanges de message
MPI, directives OPEN-MP..), mais il doit être aussi mené de façon rigoureuse afin d'assurer
une transition fiable entre le modèle monoprocesseur et son successeur parallèle. Certains
travaux sont en cours, dont certains bien avancés. Mais, compte tenu du caractère très
compétitif des recherches en modélisation climatique, qui impose une forte émulation entre
les équipes des différents pays, il est improbable que les chercheurs puissent être assez
disponibles pour parallèliser un code volumineux, complexe, et hétérogène. Il est donc
suggéré au SDU ou à l'INSU de mettre en place des moyens spécifiques, soit en vue d'une
externalisation (le CEA et le CERFACS, au moins, ont l'expérience de ce genre de chantier),
soit par un renfort en personnel spécialisé. Cette aide spécifique du CNRS doit être
significative et mise en forte priorité car la parallélisation du modèle couplé complet est une
tâche stratégique qui conditionne l'avenir. Le franchissement de cette étape permettra
également d'aborder les évolutions technologiques à plus longs termes avec toute la
flexibilité nécessaire. Elle ouvrira de larges possibilités de collaborations scientifiques
nouvelles.
C – La modélisation océanique
Les grandes questions qui motivent la modélisation de l'océan sont la compréhension
du rôle de l'océan dans le climat, le cycle des éléments naturels, des polluants et de la
biomasse, et la gestion des ressources marines. Ces questions étaient déjà au coeur de la
prospective INSU 2000. La recherche s’est fortement appuyée sur l’existence de
programmes nationaux (PATOM, PNEDC, PROOF, PNEC) qui ont permis de structurer la
communauté et de développer des approches pluri-disciplinaires, nécessaires pour aborder
les questions environnementales complexes. Ces programmes nationaux sont en outre très
fortement connectés aux programmes internationaux, dans lesquels la communauté
française joue un rôle déterminant pour certains d’entre eux, tels que WOCE (circulation
océanique à grande échelle), CLIVAR (variabilité climatique), JGOFS (cycles
biogéochimiques). Les années 2000-2004 ont été marquées par l'émergence de
l'océanographie opérationnelle (Groupement d'intérêt public MERCATOR-OCEAN) et par le
renforcement de la pluridisciplinarité.

Océan: comprendre et modéliser l'océan observable
Pour comprendre le rôle de l'océan dans le climat, et en particulier dans la modification
des équilibres liée à l'augmentation des gaz à effet de serre, il est nécessaire de mettre en
14
oeuvre des modèles du système climatique (voir section B) mais aussi de mesurer
l'évolution de l'océan. La communauté française joue un rôle actif dans ce domaine, via le
programme international ARGO, et des programmes de surveillance de l'océan Austral et de
l'Atlantique Nord. Par exemple, la radiale OVIDE (Portugal-Groenland) répétée tous les deux
ans a pour but de quantifier l'évolution de la circulation thermohaline en Atlantique Nord.
L'observation de l'océan progresse donc rapidement. Or, le problème clef est que les
modèles océaniques actuels sont totalement inadéquats pour interpréter les mesures. En
raison de leur résolution spatiale trop grossière les modèles océaniques actuels sont filtrés
et représentent un fluide théorique beaucoup plus visqueux que l'océan réel. Il n'est donc
pas possible de comparer directement observation et modélisation. Seule une approche
indirecte via des états moyens semi-théoriques est pour l'instant accessible. L'enjeu pour la
prochaine décennie est de porter la résolution spatiale vers le 1/12°, voire le 1/20°, afin de
permettre des comparaisons directes avec les observations. De plus, les passages étroits
qui contrôlent les échanges de masses d'eau entre les mers nordiques et l'Atlantique Nord
sont très mal représentés. Améliorer la résolution aura donc aussi un impact direct sur le
réalisme des zones critiques où sont générées les eaux profondes dans l'hémisphère nord.
Les échelles les plus énergétiques (dites “échelles moyennes”) qui dominent le signal
observé n'existent pas dans les modèles actuels. Il faut donc mettre en oeuvre des modèles
d'océan ayant à la fois une grande emprise (pour pouvoir représenter le transport total au
travers d'un bassin) et une haute résolution (1/12° est nécessaire pour représenter de
manière réaliste le système du Gulf Stream et de la dérive Nord Atlantique). La communauté
française a accumulé de l'expérience par des projets comme DYNAMO ou CLIPPER, et
maintenant DRAKKAR. L'accès aux moyens de calcul est le facteur limitant pour ces projets.
La compréhension du rôle de l'océan comme puits et source de CO2 nécessite une
approche pluridisciplinaire, et des modèles couplés physique/biologie. Il existe un savoir
faire important dans ce domaine en France, tant en ce qui concerne l'océan global que les
échelles moyennes et fines (ces échelles ont été la cible du programme interdisciplinaire
POMME en Atlantique Nord Est). Là encore, il est nécessaire de pouvoir mettre en oeuvre
des modèles de grande emprise (pour établir des bilans à l'échelle d'un bassin ou du globe)
et à haute résolution (pour représenter la mésoéchelle qui joue un rôle crucial dans le
développement de la biomasse). D'autre part, les modèles côtiers se développent: les
prochaines années seront marquées par la nécessité de simulations plus longues
(problématique climatique), une résolution plus élevée pour plus de réalisme, une mise en
oeuvre opérationnelle, et le développement de techniques d'initialisation et d'assimilation
adaptées.
Les progrès dans la qualité des modèles et dans leurs paramétrisations passent par une
meilleure compréhension des processus d'échelle moyenne et fine, et en particulier de la
dynamique liée aux vitesses verticales (déterminantes pour les apports de nutriments dans
les couches de surface, ainsi que pour le comportement de la circulation thermohaline à
l'équateur). La résolution explicite de cette dynamique nécessite des moyens de calcul très
importants: un des projets de collaboration entre le CNRS, l'IFREMER et le Earth Simulator
au Japon est centré sur cette thématique.
Avec le GIP MERCATOR-OCEAN, la France joue un rôle de premier plan en ce qui
concerne l'océanographie opérationnelle à l'échelle globale. Actuellement, des prévisions
sont réalisées chaque semaine en utilisant un modèle de l'Atlantique Nord avec une maille
de 5 à 7 km, et un modèle global au ¼° en phase finale de développement. Le GIP
MERCATOR-OCEAN veut acquérir une dimension européenne dans le cadre du projet
intégré MERSEA. Un modèle global au 1/12 degré doit être mis en place d'ici 2008.
L'interaction entre le projet MERCATOR et la communauté de recherche française est
exemplaire: il y a des échanges d'expertise, et les configurations de modèles MERCATOR
ont vocation à être utilisées en mode “recherche”.
Rapport Sept 2004 v 1.1
15
D'autre part, le GIP MERCATOR-OCEAN se propose de réaliser des réanalyses pour
servir les objectifs des scientifiques. Les "ré-analyses" sont des reprises à l'aide des logiciels
d'assimilation opérationnels des observations sur plusieurs années pour produire des
ensembles homogènes et optimaux de données, afin de permettre des recherches à plus
long terme et plus approfondies (calcul de bilans, etc…). Les ré-analyses sont donc des
produits purement recherche, mais nécessitant des ressources très importantes et une
implication des logiciels opérationnels d'assimilation. Déjà utilisées dans l'atmosphère, elles
ont eu un impact déterminant sur la qualité des recherches climatiques. La France ayant une
avance en assimilation océanique, acquise à l'occasion du programme opérationnel
MERCATOR, il est important d'en tirer avantage sur le plan de la recherche par des réanalyses. Les besoins de calcul autour de MERCATOR dépassent donc le cadre strictement
opérationnel, il est nécessaire d'établir les ponts institutionnels permettant la réalisation de
tout ou partie de ces ré-analyses sur les machines de recherche.

Chiffrage des besoins et stratégie technique pour la modélisation océanique
Les considérations qui précédent conduisent à définir quelques exemples de projets
dimensionnants en se projetant sur pour les années 2005-2007, voire même un peu au-delà.
Cette prospective est bien sur bâtie sur le modèle d'océan OPA français, qui s'est imposé
comme modèle communautaire pour la plupart des “grosses” applications à l'IDRIS, mais
aussi dans l'environnement opérationnel MERCATOR, et même dans plusieurs projets
étrangers (cf. section précédente), et est représentatif des modèles de ce type (modèle
ROMS par exemple).
Le tableau 4 résume les exemples considérés et les met en comparaison avec ce qui
est réalisable sur les machines de 2004 soit à l'IDRIS, soit dans le cadre de MERCATOR.
L'état de l'art actuel en océanographie pour un modèle global situe la résolution horizontale
vers ¼° (soit en gros 20 km). Atteindre les objectifs affichés par la prospective pour l'échelle
globale implique de passer rapidement au 1/12° (soir en gros 6 km), et ceci avec un modèle
amélioré prenant en compte les glaces. Ceci implique une augmentation directe d'un facteur
9 de la taille mémoire, et d'un facteur 40 du coût calcul par rapport aux ressources
disponibles en 2004 à l'IDRIS (indications données en première ligne), ce chiffre tient
compte de l'amélioration du modèle et de la diminution du pas temporel. Pour l'objectif de réanalyse, au même niveau de résolution, il faut ajouter le surcoût lié à la méthode
d'assimilation, voisin de 2. L'autre exemple de priorité affiché par la prospective est la
régionalisation, ici pour le cas d'études centrées sur l'Atlantique Nord associant la
dynamique (organisation des courants) et la bio-géochimie (réponse des ecosystèmes
marins). La résolution visée par cet exemple est toujours de 1/12° mais l'emprise du modèle
est plus petite; par contre le modèle est plus complexe. L'accroissement des besoins
mémoire est encore voisin de 9, mais le surcoût en temps de calcul est estimé un peu plus
faible, environ d'un facteur 20 par rapport au disponible en 2004 à l'IDRIS. En résumé, pour
continuer à progresser la modélisation océanique a besoin d'un accroissement des
ressources disponibles à l'IDRIS d'un facteur 20 dès les années 2005, et d'un accroissement
supplémentaire allant jusqu'au facteur 100 en fin de période considérée vers 2007-2010.
16
Tableau 4: Priorités scientifiques et chiffrage des besoins qui correspondent
Priorité
scientifique
prospective
INSU
"Etat de l'art 2004"
Modèle global
Résolution de base
Modèle
Résolution
horizontale
Niveaux
verticaux
ORCA
1/4°
46 niveaux
Variabilité
ORCA
échelle globale
(version glace et
physique tourbillons partial Steps )
1/12°
et
46
niveaux
courants de bord
Ré-analyses
globales
Modèle
opérationnel
avec assimilation
Haute résolution
régionale
+ biogéochimie
(écosystèmes)
Haute résolution
régionale
opérationnelle
+ biogéochimie
+ assimilation
ORCA
1/12°
46 niveaux
Assimilation
Schéma SEEK
Atlantique Nord
1/12°
46 niveaux
PISCES
Atlantique Nord
1/12°
46 niveaux
PISCES
Assimilation
Schéma SEEK
Temps CPU
et
Stockage
Mémoire
15 ans
par rapport à
en To
"Etat de l'art 2004"
~200 h
/an simulé
(sur VPP5000)
43 Go
(sur 12 proc)
Facteur ~ 40
en CPU
et
Facteur ~ 9
Mémoire
Machine
Vectorielle
ou
parallèle/scalaire
16 To
Vectorielle
ou
parallèle/scalaire
avec bon réseau
d’interconnexion
370 To
Parallèle/scalaire
avec bon réseau
d’interconnexion
Facteur ~20
en CPU
et
Facteur ~9
Mémoire
42 To
Vectorielle
ou
parallèle/scalaire
avec bon réseau
d’interconnexion
Facteur ~30
en CPU
et
Facteur ~9
Mémoire
265 To
Parallèle/scalaire
avec bon réseau
d’interconnexion
Facteur ~ 80
en CPU
et
Facteur ~ 20
Mémoire
On retrouve donc pour la modélisation océanique à haute résolution des facteurs de
croissance des ressources assez similaires à ceux énoncés plus haut pour la modélisation
climatique. La situation technique en océanographie est cependant différente car le modèle
océanique OPA atteint de bonnes performances aussi bien sur les calculateurs vectorielsparallèles que scalaires-parallèles (sous réserve d'un réseau performant, ce qui n'était pas
le cas de la machine Zahir en 2003). Il y a 5 ans déjà, avec le projet CLIPPER sur CRAYT3E, la modélisation océanique tirait d'excellentes performances avec un taux élevé de
Rapport Sept 2004 v 1.1
17
parallélisation. Le projet DRAKKAR suit aujourd'hui la même stratégie en se déployant sur
l'IBM ZAHIR dans sa toute nouvelle configuration.
Il convient de noter que les modèles d'océan nécessitent aussi beaucoup de stockage,
afin de pourvoir calculer des statistiques à posteriori et d'utiliser les champs dynamiques
pour le calcul “off line” de distributions de traceurs. L'avant-dernière colonne du tableau 4
montre qu'il faut s'attendre à une explosion des volumes de stockage en modélisation
océanique.
Dernière remarque, sur le plan de l'organisation institutionnelle, la situation de la
coordination entre les machines de recherche et les machines à vocations opérationnelles
utilisées par MERCATOR pourrait certainement être améliorée. Dans les années passées,
l'IDRIS a eu un rôle significatif dans l'émergence de la version parallèle du code OPA (rôle
bien sur de fournisseur de ressources, mais surtout de conseil technologique et d'assistance
par les ingénieurs affectés par l'IDRIS à la parallélisation d'OPA). L'IDRIS peut donc
s'enorgueillir à juste titre d'avoir contribué à l'émergence en France d'un programme
d'océanographie appliqué, MERCATOR, qui va probablement déboucher sur des
applications rentables et stratégiques. Il serait donc très utile de développer une bonne
coopération institutionnelle entre l'IDRIS et Mercator afin que les échanges de logiciels
soient favorisés, et que l'utilisation des outils opérationnels soit possible pour la réalisation à
l'IDRIS des ré-analyses dont la recherche océanographique française a besoin.
D – La modélisation en météorologie et chimie atmosphérique à mésoéchelle
Les recherches en météorologie et en chimie de l'atmosphère à mésoéchelle (échelles
plus locales que les échelles climatiques) font un grand usage de la modélisation, qui s'est
développée très considérablement dans ce domaine depuis 10 ans grâce aux efforts
conjoints du CNRS et de Météo-France. Partant de chiffres négligeables en 1990, cette
sous-discipline a connu une grande diversification aussi bien des méthodes que des sujets
de modélisation. La modélisation météorologique du secteur CNRS-Université est presque
en totalité basée à l'IDRIS, où elle compte en 2004 pour un peu moins de 10% de
l'utilisation de la machine vectorielle NEC-SX5. Elle est donc évoquée brièvement dans ce
paragraphe pour faire ressortir ses particularités qui la différencient bien de la modélisation
climatique.

Comprendre et modéliser l'atmosphère: passer le "mur de la convection"
Depuis une dizaine d'années, sous l'action de travaux de modélisation lors de
campagnes d'observation particulièrement détaillées comme la campagne MAP dans les
Alpes en 1999, mais aussi face à l'accumulation d'études de cas sur des évènements
extrêmes comme les tempêtes de Noël 1999, les crues de l'Aude de 1999, la crue de
Vaison-la-Romaine de 1992, …. les recherches en modélisation météorologique ont montré
qu'une amélioration significative des prévisions (en particulier des pluies intenses et des
vents forts) peut être obtenue en améliorant la résolution spatiale des modèles jusqu'à des
mailles de quelques kilomètres. Par ailleurs, les difficultés rencontrées dans la
représentation de la convection nuageuse (orages) ont montré que des résultats
acceptables peuvent être obtenus à résolution relativement grossière (mailles plus grandes
que 10 km) ou hyper-fines (plus fines que 3 km), mais que la gamme des résolutions situées
entre 10 km et 3km pose des problèmes presque insurmontables ("mur de la convection").
Une tendance lourde pour les prochaines années est donc l'augmentation de la résolution
des modèles atmosphériques jusqu'à la résolution kilométrique, voire au-delà dans certains
cas. De plus en plus, des hiérarchies de modèles emboîtés allant de l'échelle planétaire à
l'échelle kilométrique sont mises en œuvre pour appréhender les phénomènes à leur échelle
propre, avant de les intégrer sous forme paramétrée dans des modèles d'échelle plus
18
grande. Par exemple, le modèle non-hydrostatique MESO-NH utilise couramment des grilles
imbriquées multiples de plusieurs millions de points sur quelques dizaines de variables pour
simuler les cas réels de la campagne météorologique MAP avec une résolution kilométrique.
Ce besoin de très haute résolution implique par ailleurs une modification dans la forme
mathématique des modèles eux-mêmes, qui abandonnent rapidement les équations
hydrostatiques pour adopter les équations compressibles de Navier-Stokes avec comme
conséquence une augmentation du coût intrinsèque des méthodes de résolution.
La future campagne AMMA d'observation de la mousson en Afrique de l'ouest prévue
pour 2007 va mobiliser l'ensemble des équipes du CNRS mais aussi de nombreux autres
organismes sur les problèmes fondamentaux de convection tropicale, de dynamique à
grande échelle, de chimie équatoriale… Cette campagne va impliquer un effort sans
précédent en modélisation sur une large gamme d'échelle allant du local au continental.
L'évolution des travaux de recherche fondamentaux en modélisation météorologique
vers la très haute résolution a eu des retombées significatives dans le domaine appliqué, et
elle a fait l'objet de collaborations très étroites entre Météo-France et le CNRS depuis 1993
autour du modèle non-hydrostatique Meso-NH. Depuis trois ans, ces recherches ont ouvert
la voie vers des applications nouvelles en prévision météorologique avec le projet AROME
de Météo-France pour la prévision opérationnelle à résolution kilométrique sur la France,
dont la mise en service est prévue vers 2007. Le Conseil Scientifique de Météo-France a
noté en decembre 2003 que le projet AROME est un exemple particulièrement réussi de
transfert technologique de méthodes élaborées au CNRS vers un outil de prévision
opérationnel de Météo-France.
Les années récentes ont aussi vu le développement de modèles associant dynamique
et physico-chimie. Ces travaux concernent des domaines variés allant de l'étude de la
composition de l'atmosphère et des rétroactions de cette composition sur le climat
(MOCAGE), jusqu'aux études de pollution à mésoéchelle en sites urbains (modèle MESONH/C, campagne ESCOMPTE). L'introduction de nombreuses espèces chimiques dans ces
modèles (CO2, CH4, CFC, HCFC, Ozone, aérosols, chimie humide, etc.) se traduit par une
augmentation de complexité, mais permet de s'attaquer à l'analyse des grands cycles et de
leurs perturbations anthropiques depuis des échelles de temps très courtes
(hebdomadaires) jusqu'aux durées climatologiques (pluriannuelles). Depuis peu, une forte
coordination internationale, émerge autour de la notion de "chemical weather forecasting",
prévision du temps chimique, notamment dans le cadre du programme GMES européenne
qui associe là encore équipes CNRS et Météo-France.
Simultanément, les techniques d'assimilation de données étendent les capacités de
modélisation sur des situations réelles dans tous les domaines. Ces techniques sont à
maturité aux grandes échelles en météorologie, et après avoir inspiré les concepts initiaux,
les équipes CNRS ont vu les développements lourds se faire plutôt dans les agences
météorologiques, à l'ECMWF et Météo-France, plus à même de mobiliser les équipes
spécialisées requises. Le fait nouveau, qui résulte du programme AROME et de son intérêt
pour les résolutions kilométriques, est la volonté de prendre en compte des observations
nouvelles satellites ou radar. Plusieurs groupes communs CNRS / Météo-France viennent
d'être constitués en ce qui concerne l'assimilation des radars du réseau national et des
données de satellites dans les prévisions AROME. L'assimilation de données, qui était
jusqu'ici limitée à des observations météorologiques conventionnelles (vents, température,
humidité) va voir son éventail de possibilités s'ouvrir en chimie atmosphérique. Les missions
spatiales POLDER, SCIAMACHY et Meteosat-SG ouvrent des possibilités d'assimiler des
données sur les aérosols, et d'inclure dans les modèles de chimie atmosphérique des
représentations enrichies des principaux types d'aérosols( désertiques, sulfates, carbonés,
marins, nitrates…). De même, la représentativité des cadastres d'émissions utilisés dans les
modèles de chimie troposphérique devrait progresser en inversant les observations
satellitaires de gaz à effet de serre (CO et CH4 de MOPITT) ou de précurseurs gazeux de
l'ozone (NO2 et HCHO de GOME et SCIAMACHY). En retour, tous ces développements en
Rapport Sept 2004 v 1.1
19
assimilation vont bénéficier aux programmes scientifiques en permettant une interaction
encore plus forte entre la modélisation et l'observation, sous forme de campagnes orientées
vers des études de processus. Par exemple un grand effort sera dédié à l'assimilation de
données lors de la campagne AMMA. Concrétiser ces progrès annoncés de longue date
sera un des défis des prochaines années.

Stratégie technique pour la modélisation en météorologie et chimie atmosphérique
Les considérations qui précédent montrent que les modèles météorologiques et de
chimie atmosphérique vont essayer de passer d'une résolution un peu inférieure à 10 km en
2004 à une résolution inférieure à 3 km en 2006. Les besoins en mémoire vont donc subir
directement une croissance d'un facteur supérieur à 10. L'impact sur les besoins en temps
de calcul sera direct en début de période tant que l'essentiel de l'activité se fera sur MesoNH. Par contre, à partir de 2006 la mise en service d'AROME pour certains objectifs risque
de modérer la croissance des besoins en calcul pur, car AROME dispose de schémas
numériques avancés qui autorisent des pas de temps plus longs que les modèles antérieurs.
La croissance des temps de calcul a moyen terme sera donc plus directement liée à
l'ouverture vers des physiques complexes (comme l'électrisation des nuages et le
foudroiement, ou des microphysique nuageuses avancées) voire plus encore à la prise en
compte de chimies avancées (processus hétérogènes, aérosols…). L'évolution attendue en
météorologie et chimie atmosphérique est donc d'un facteur 10 vers 2006 et 100 vers 2010
pour la puissance CPU comme pour la mémoire.
Concernant l'architecture, la situation évolue rapidement. Les codes de météorologie
et de chimie atmosphérique actuels peuvent tourner aussi bien sur des machines
vectorielles-parallèles que scalaires-parallèles. En mode vectoriel les performances sont
correctes sur UQBAR à l'IDRIS pour les modèles sans chimie, mais se dégradent pour les
modèles à chimie poussée (qui sont donc exploités en parallèle MPI avec 8 processeurs
vectoriels). Pour le futur, les modèles tendront à représenter des processus coûteux qui
vectoriseront moins bien, mais se prêteront bien au parallélisme (par exemple l'électrisation
et le déclenchement de la foudre, ou la chimie avancée). De plus, l'explosion des besoins en
mémoire (variables chimiques, multiples phases des hydrométéores, variables électriques)
conduira à l'abandon du mode monoprocesseur, ceci que la machine soit vectorielle ou pas.
La priorité technique en météorologie-chimie est donc la disponibilité d'une machine multiprocesseurs dotée d'un réseau rapide, indépendamment de la nature vectorielle ou scalaire
de ses processeurs. Il est à noter que les codes comme Meso-NH (et AROME) sont conçus
pour tourner, dès l'origine, en mode MPI multi-processeurs soit sur une machine vectorielle,
soit sur une machine super-scalaire-parallèle, soit sur un cluster de PC de laboratoire..
L'approche sera donc flexible.
20
IV – Enjeux et besoins pour la communauté astrophysique
L'astronomie-astrophysique utilise environ 11 000 h sur la machine vectorielle
et 500 000 h sur les machines scalaires à l'IDRIS et 800 000 h sur le CINES. La
communauté prend donc bien en compte la complémentarité IDRIS et CINES, et les
demandes se répartissent équitablement entre ces deux centres (pour 2004, 26
projets au CINES et 28 à l'IDRIS, parmi lesquels 12 projets conjoints). Le taux de
renouvellement des demandes est important, de l'ordre de 25% par an, et la
croissance des besoins est très soutenue. La qualité des projets est excellente, et
les renouvellements font état de publications de haut niveau. La progression des
demandes est très forte.

Astrophysique: un large éventail thématique
L'éventail thématique couvert par le calcul intensif en astrophysique est particulièrement
large.
En mécanique céleste, les études sur la stabilité des systèmes planétaires se
renouvellent avec la modélisation de l’extrême diversité des systèmes exo-planétaires
simples ou multiples. Dans notre système solaire, il convient également de noter les
premières prédictions réussies de pluies d'essaims météoritiques (qui devraient autoriser
une meilleure maîtrise du risque dans le domaine spatial). Ce dernier projet illustre bien la
souplesse du CINES qui a permis de concentrer des moyens importants sur un projet de
thèse innovant mais très exploratoire.
En physique stellaire, les études des processus physiques dans les atmosphères ou les
enveloppes prennent beaucoup d'importance (instabilités hydrodynamiques, convection,
transfert radiatif, etc). En particulier pour les atmosphères de naines brunes, on commence
à modéliser avec succès l'effet des molécules et des poussières sur le spectre observé.
Les études sur la structuration multi-échelle des objets astrophysiques sont également
bien représentées, tant dans le domaine des jets MHD que de l'évolution dynamique des
galaxies (en prolongement notamment des études purement gravitationnelles réalisées à
Marseille sur des calculateurs spécialisés GRAPE). La poursuite de ces travaux avec des
modélisations multi-physiques demandera des moyens considérables.
L'étude des disques proto-planétaires semble également promise à un grand avenir avec
la multiplication des diagnostics observationnels en optique adaptative et en interférométrie
millimétrique et bientôt optique. Des projets ambitieux tentent aujourd'hui de comprendre les
processus hydrodynamiques en jeu dans ces disques et le rôle de la poussière, et de
modéliser l'agrégation des petits corps pour former des planétésimaux. Les modélisations
associent dans certains cas des fermes de PC à l'utilisation du CINES. Là aussi des besoins
considérables dans le proche avenir sont prévisibles.
La montée en puissance des observatoires virtuels (OV) couple les besoins de base de
données (observationnelles ET modélisations), de transfert sur le réseau, et de modélisation
à la demande. Le cas de Herschel et Planck préfigure sans doute la suite. Une grosse
impulsion française a été donnée avec le CDS, mais pourrons nous suivre compte tenu des
investissements considérables en moyens et en hommes faits par nos concurrents (y
compris européens, cf. les anglais avec le soutien des STIC)? Ces projets lancent un défi en
Rapport Sept 2004 v 1.1
21
terme de capacité des centres nationaux à évoluer vers plus de souplesse. Un couplage
avec des grilles nationales est peut –être envisageable.
La préparation scientifique des deux satellites cryogéniques Herschel et Planck — qui
seront lancés conjointement en 2007 pour étudier respectivement l'univers moléculaire et les
fluctuations du fond cosmologique — suscite des modélisations très lourdes, dans les
priorités des programmes nationaux correspondants (PCMI et PNC). Ces travaux associent
des moyens variés aux calculateurs nationaux (grille de calcul expérimentale de Grenoble,
fermes de PC de l’IN2P3). La répartition entre l’IDRIS et le CINES est faite en fonction des
moyens disponibles en mémoire centrale et en archivage. Plus généralement, ce type de
modélisation, qui anticipe le lancement d’un grand observatoire spatial et qui est appelé à en
valoriser la moisson scientifique, semble appelé à se généraliser en astrophysique.
Le cas du satellite Planck de l'agence Spatiale Européenne est particulièrement
exemplaire. La cosmologie contemporaine vise à rendre compte de la formation et de
l'évolution des structures dans l'univers. Ces structures nous ont été révélées par la
répartition très inhomogène des galaxies qui semble dessiner l'ossature d'une éponge. Le
projet Planck a pour objet la cartographie définitive de cette empreinte que les anisotropies
de température du fond cosmologique millimétrique primordial nous révèlent. L'extraction de
l'information cosmologique du flot brut de télémesure est un véritable défi, et seuls les
ordinateurs les plus puissants au monde permettront d'extraire tout ce que les données
recèlent. Le centre NERSC aux Etats-Unis est déjà ouvert aux chercheurs impliqués dans ce
projet pour se préparer à cette échéance. Super-ordinateurs et télescopes sont donc les
outils complémentaires nécessaires pour lever le voile sur les mystères de l'Univers.

Stratégie technique pour la modélisation en astrophysique
Un problème pour la modélisation astrophysique vient de la disproportion entre
développements instrumentaux (spatiaux) et modélisation des observations. La
communauté française participe par exemple au niveau de 150 M € au satellite Planck, mais
la possibilité de mobiliser 1 M€ pour disposer d'une machine dédiée pour ce projet reste
incertaine. De plus, le sous-développement des moyens de modélisation ne favorise pas la
constitution de pôles de modélisation, forts (malgré les efforts de l'ASSNA).
En astrophysique, l'effort à réaliser dépasse les problèmes de jouvence technologique: il
faut aussi structurer la discipline et l'évolution de ses moyens humains scientifiques. Une
priorité sera de rendre visibles les grands projets, par une labellisation, afin de favoriser leur
structuration et améliorer leur visibilité au niveau européen. A l'instar de ce qui est fait dans
la communauté climatologique, il sera utile de faire émerger de grands projets
communautaires, mais d'une façon plus flexible et diverse, en raison de la plus grande
diversité des problématiques, tant sur le versant modélisation que sur le versant assimilation
de données.
Concernant l'approche technologique, les codes nouveaux sont donc presque toujours
développés en version parallèle. Cependant, le maintien d'une perméabilité entre vectoriel et
parallèle est souhaité, ne serait-ce que pour maintenir le bénéfice des codes vectoriels
existants. Pour le futur, la communauté de modélisation astrophysique a déjà fait très
largement le choix des machines scalaires-paralléles, et ce à tous les niveaux depuis
l'échelon national (comme l'attestent les chiffres CINES et IDRIS), jusqu'à l'échelon local,
avec de nombreux cluster-PC déjà en utilisation régulière dans les laboratoires. Cependant,
il manque en France une machine capable de s'attaquer aux grands problèmes de classe
internationale ("grand challenge").
22
V – Enjeux et besoins pour la communauté des
Sciences de la Terre
Les Sciences de la Terre utilisent environ 2000 h sur la machine vectorielle de
l'IDRIS et 200 000 h sur les machines scalaires de l'IDRIS et du CINES. Ces chiffres
sont faibles, inférieurs à 1% des capacités, et de l'ordre de 15% du comité
thématique CP4. De plus, le poids des demandes s'affaiblit d'année en année sur les
centres nationaux alors que les centres thématiques dédiés aux Sciences de la
Terre restent peu importants dans le monde académique (y compris l'Institut de
Physique du Globe de Paris, faute de jouvence), la situation pouvant être quelque
peu différente dans les sociétés industrielles de géophysique appliquée.
 Une nouvelle fenêtre pour étudier les systèmes naturels
Pourtant, la modélisation en sciences de la Terre s'est rapidement développée ces
dernières années et est devenue un outil puissant de recherche, au côté de la modélisation
expérimentale et des techniques d'observation, capable de résoudre des problèmes
scientifiques complexes issus des domaines les plus fondamentaux jusqu'aux études plus
finalisées en termes économiques et sociaux (risques naturels, industries pétrolières, etc…).
La modélisation et le traitement de données offrent aujourd'hui une nouvelle fenêtre au
travers de laquelle les systèmes naturels peuvent être étudiés de manière détaillée en
assimilant les données existantes.
Dans les Sciences de la Terre, il existe schématiquement deux catégories de problèmes
pour lesquelles la modélisation numérique est amenée à jouer un rôle important.

Les problèmes où les principes physiques sont supposés bien connus mais dont la
complexité fait que leur résolution a jusqu'ici été limitée. L'évolution des ressources calcul
permet aujourd'hui d'intégrer les différentes échelles mises en jeu. C'est le cas par exemple
en sismologie, en géodynamique , et en hydrologie de l'environnement.

Les problèmes pour lesquels les principes physiques sous-jacents ne sont pas
encore suffisamment bien établis pour autoriser des simulations, mais dont l'élucidation
viendra probablement de la modélisation numérique elle-même. Nombre de ces problèmes
impliquent des processus physiques intrinsèquement instables, ou chaotiques, et des
interactions sur une large gamme d'échelles de temps et d'espace, comme par exemple les
problèmes d'écoulements gravitaires ou de transport/diffusion en milieu très hétérogène.
Quelques exemples permettent d'illustrer ces besoins croissants de la simulation numérique
en Sciences de la Terre:
La sismologie a été profondément affectée par l'émergence du calcul hauteperformance. Les simulations en sismologie ont d'importantes implications économiques et
sociales telles que la prévention des risques sismiques ou l'imagerie des ressources
naturelles.
- La modélisation de la réponse sismique, et des effets de site, lors d'un tremblement de
Terre, est un problème dont les principes sont assez bien maîtrisés. Des simulations tridimensionnelles incorporant la résolution des structures géologiques et la gamme de
fréquences utile pour les ingénieurs deviennent aujourd'hui possibles. Par exemple, la
réponse 3D du Bassin de Los Angeles, jusqu'à des fréquences de 2hz, a été modélisée
sur des architectures de 128 noeuds et plus de 128 Go de mémoire. De telles
simulations vont devenir rapidement un outil indispensable pour l'analyse et la prévention
du risque sismique, en particulier dans les zones urbaines et industrielles, et ce d'autant
plus que le taux de sismicité de la région est plus faible. Elles permettront , à partir d'une
Rapport Sept 2004 v 1.1
23
-
-
connaissance des failles sismiquement actives et de la sismicité historique de la région,
d'établir une zonation sismique sur la base de scénarios.
La modélisation numérique est aujourd'hui également devenue indispensable pour la
compréhension de la rupture sismique et de la génération des ondes courtes associées
importantes pour le génie parasismique. La modélisation dans ce domaine requiert ainsi
la résolution d'une dynamique non régulière sur plusieurs échelles de temps et d'espace
afin de capturer les échelles associées au front de rupture et à sa propagation ainsi que
celles des ondes courtes en champ proche. L'enjeu est ici de pouvoir modéliser le
processus de rupture dans le domaine des hautes fréquences, de 5-10 Hz, au sein de
modèles de propagation d'ondes entre 0.5-0.2 Hz. Par ailleurs, la résolution des
observations sismiques et géodésiques, en particulier du GPS et SAR, sont telles que
l'inversion dynamique en champ proche est aujourd'hui possible et devrait conduire à
des avancées importantes.
La modélisation de la propagation du champ d'onde complet dans des modèles globaux
de Terre hétérogènes ouvre de nouvelles perspectives permettant de tirer profit du
formidable volume de données large bande disponible. Il est aujourd'hui possible de
modéliser la propagation du champ d'onde complet dans des modèles de Terre réalistes
jusqu'à des périodes de 15 secondes, sur des configurations de 256 processeurs et de
128 Go de mémoire. Ce type de simulation est en passe de devenir un outil de routine
pour la localisation des grands tremblements de Terre, l'étude des hétérogénéités
localisées, et l'inversion des formes d'onde pour la détermination de modèles
tomographiques haute résolution. Les groupes les plus actifs dans ce domaine vont
jusqu'à s'équiper de moyens propres et dédiés leur permettant de mobiliser ces
ressources à la demande.
La géodynamique a également vu l'émergence de la modélisation numérique comme un
outil à part entière pour l'étude des régimes dynamiques complexes de fluides géophysiques
tant dans le domaine de la convection mantellique que dans celui de la
magnétohydrodynamique dans le noyau externe.
- Les simulations en géodynamique
ont des implications fondamentales pour la
compréhension des mécanismes au sein du manteau et du noyau. Dans ces domaines
également, si les principes physiques et leur formulation mathématiques sont assez bien
connus, les simulations numériques tri-dimensionnelles
dans les régimes
caractéristiques de la Terre constituent encore un défi et requièrent sans doute une
reformulation pour atteindre ces régimes.
- La modélisation de la dynamique des interactions entre panaches mantelliques et
lithosphère, ou des propriétés de mélange au sein de systèmes convectifs sont des
exemples ayant d'importantes implications dans le domaine de la géochimie.
- Depuis la publication à la une du magazine Nature en 1995 de la première dynamo
numérique complète par les Américains Glatzmaier et Roberts, une dizaine d'équipes
dans le monde, dont une française, disposent de codes numériques capables d'étudier
comment les noyaux internes des planètes peuvent engendrer un champ magnétique
auto-induit. Cette approche permet d'expliquer pourquoi le champ magnétique est
dipolaire avec un axe en moyenne aligné avec l'axe de rotation de la Terre. Cet énorme
succès, arrivant après 50 ans de recherche, cache la difficulté des simulations à se
placer dans un régime de paramètres pertinent pour les noyaux planétaires métalliques.
Pour se rapprocher des conditions géophysiques, les codes nécessitent des capacités
de calcul plus conséquentes ainsi qu'une évolution des algorithmes utilisés. En tous cas,
seule l'utilisation de gros ordinateurs permettra de savoir si les solutions trouvées se
prolongent aux cas de nombreuses dynamos planétaires. L'observation spatiale a en
effet élargi les données du problème; non seulement il faut expliquer le champ
géomagnétique, mais aussi comprendre pourquoi les planètes géantes (Jupiter, Saturne,
Uranus) ont un champ magnétique, pourquoi un seul satellite jovien (Ganymède) exhibe
une dynamo, alors que celle-ci s'est éteinte sur certaines planètes (Mars, Lune), voire
24
jamais allumée dans d'autres? L'enjeu est passionnant pour les géophysiciens français
réunis au sein du GDR "dynamos" du CEA/CNRS.

Stratégie technique pour la modélisation en Sciences de la Terre
De nombreux domaines des Sciences de la Terre ont aujourd'hui des besoins
importants en modélisation numérique du fait de la complexité des systèmes naturels, de la
multiplicité des échelles à aborder, du volume et de la résolution des nouvelles données
expérimentales. Ces besoins s'expriment bien sûr en terme de puissance de calcul et de
mémoire. Cependant le calcul n'est qu'un aspect des ressources nécessaires à la
modélisation. Le stockage et la manipulation hiérarchique des données sont également
devenus un aspect important, et il en est de même des capacités de visualisation avancées.
Tous ces aspects impliquent une utilisation de plus en plus massive du calcul parallèle. Ces
besoins coïncident avec une émergence de possibilités nouvelles. Les nouvelles
technologies en terme de clusters et de bases de données ouvrent l'accès à des ressources
de calcul bien adaptées à la modélisation géophysique pour des coûts financiers beaucoup
plus accessibles que dans le passé. Les technologies de réseaux et de grille permettent
aujourd'hui de mieux partager les investissements que ce soit pour le calcul, l'utilisation des
bases de données, ou l'accès aux équipements instrumentaux.
La politique CNRS s'appuie sur un modèle à deux niveaux pour les ressources de
modélisation en géophysique. Au niveau national, les grands centres du CINES et de l'IDRIS
disposent de ressources parallèles de plusieurs téraflops, mais celles ci sont souvent
encombrées d'applications non-dimensionnantes. Au niveau local, les moyens mi-lourds
INSU et les contrats ont permis à quelques laboratoires de s'équiper en grappes de PC.
Mais il manque un niveau intermédiaire, les centres méso-informatiques, qui conviendraient
bien à certains besoins de la modélisation géophysique, mais n'ont pas de financement
propre en dehors des PPF du Ministère de la Recherche et des Conseils Régionaux.
La situation actuelle ne permet pas de répondre aux besoins. Le développement de la
modélisation, de la visualisation avancée et des bases de données en Sciences de la Terre
requièrent un accès très interactif et aisé aux grands centres. Les grands centres nationaux
du CINES et de l'IDRIS ont des ressources qui n'ont plus rien d'exceptionnel au regard de
celles dont disposent de nombreux landers en Allemagne.. Une telle différence ne peut
qu'accroître le retard de la communauté française de modélisation géophysique. De plus les
centres nationaux français sont saturés, il est donc nécessaire de renforcer la granularité
des centres nationaux via une sélection plus rigoureuse des projets les plus dimensionnants.
Un nombre adéquat de centres mésoinformatiques, et leur insertion au sein d'une grille de
calcul et de données favoriserait une telle sélection. Les besoins des Sciences de la Terre
passent donc par une nouvelle réflexion sur la politique des mi-lourds informatiques à l'INSU
et au CNRS.
Rapport Sept 2004 v 1.1
25
VI – Conclusions et Recommandations
Remarques à caractère général:

Les ressources françaises en calcul intensif ont cessé d’être compétitives vis
à vis des concurrents européens et mondiaux, une remise à niveau est
urgente. A l’IDRIS, le retard vient d’être en partie comblé pour le calcul
scalaire-parallèle mais il est majeur et croissant pour le calcul vectoriel.

Les besoins en calcul intensif sont très différenciés selon les disciplines du
secteur SDU:
o Pour le climat, le recours à des machines vectorielles est pour le
moment vital. La disponibilité d’une machine vectorielle puissante
conditionne à court terme la survie des recherches climatiques
françaises.
o Pour l'océanographie et la météorologie les recherches peuvent utiliser
aussi bien des machines vectorielles-parallèle que scalaire-parallèle.
o Pour l'Astrophysique et les Sciences de la Terre les besoins sont
focalisés presque exclusivement sur des machines scalairesparallèles, voire sur des clusters locaux.
Remarques spécifiques pour les recherches climatiques:

Les ressources disponibles à l’IDRIS pour la modélisation climatique,
essentiellement vectorielles, sont inférieures d’un facteur 5 à 10 à celles des
centres climatiques britanniques et allemands.

La résolution spatiale des simulations climatiques réalisables à l'IDRIS ne
remplit plus les minima requis pour participer aux grands exercices
internationaux d'étude des scénarios "Global Change".

La confrontation des objectifs affichés dans la prospective INSU aux
capacités de l'IDRIS montre qu'une augmentation par un facteur 10 de la
puissance vectorielle est indispensable pour poursuivre le développement de
la modélisation climatique en France.
26

La parallèlisation du modèle climatique couplé atmosphère-océan complet
doit être un objectif prioritaire. Seul un modèle climatique couplé parallèle
permettra de tirer profit des machines futures, que celles-ci soient vectorielles
ou non. Il en va de la survie de la filière française de modélisation climatique
couplée.

Il est recommandé à l'INSU-SDU de faire un effort vigoureux (financier et/ou
en personnel) pour aider à l'achèvement rapide de la parallèlisation du
modèle climatique couplé complet de l'IPSL. Si ce travail n'est pas achevé
dans un délai de l'ordre de deux années, la pleine puissance de la nouvelle
machine vectorielle de l'IDRIS restera sous-utilisée. Cet investissement est
donc stratégique aussi bien pour l'INSU-SDU que pour l'IPSL.

Les scientifiques du secteur climat-environnement souhaitent vivement
participer à un projet européen de centre communautaire de recherche
climatique, mais la réussite d'une telle coopération implique de disposer au
niveau national, en particulier à l'IDRIS, de machines compétitives permettant
de développer et tester les codes avant de les exposer au contexte hyperconcurrentiel d'un futur centre communautaire de calcul extrême.
Remarques concernant les autres disciplines:

A moyen terme, l'ensemble de la communauté SDU souhaite que les
ressources scalaires-paralléles continuent de progresser afin de maintenir la
compétitivité de l'IDRIS vis-à-vis des centres nationaux allemands et
britanniques comparables. Cette évolution est en particulier vitale pour la
poursuite des grands projets en océanographie, en météorologie, en
astronomie, en astrophysique, et dans plusieurs secteurs des sciences de la
Terre.

En océanographie, la coordination entre les machines de recherche à l'IDRIS
et les machines à vocation opérationnelle utilisées par le projet MERCATOR
est souhaitée afin de rendre possible (en particulier) les réanalyses
océanographiques qui sont indispensables pour certains travaux de
recherche dans les laboratoires SDU

En Sciences de la Terre, la mise en place de centres méso-informatiques
dotés de machines intermédiaires parallèles s'intercalant entre les grands
centres nationaux et les équipements locaux de laboratoires est souhaitée.
Ceci implique probablement une nouvelle réflexion sur la définition des milourds informatiques INSU et CNRS.
Rapport Sept 2004 v 1.1
27
Téléchargement