Prospective en Calcul Intensif pour La Communauté des Sciences de l’Univers 2004 – 2008 CNRS - Septembre 2004 Rapport du Groupe d'Etudes Prospectives en Calcul Intensif (GEPCI2) Septembre 2004 2 SOMMAIRE I - Introduction II – Le groupe d'experts GEPCI-2 A - Lettre de mission B - Composition C - Méthode de travail III – Enjeux et besoins pour la communauté climat-environnement A - Quelques chiffres généraux B – La modélisation climatique C – La modélisation océanique D – La modélisation en météorologie et chimie atmosphérique à mésoéchelle IV – Enjeux et besoins pour la communauté astrophysique V - Enjeux et besoins pour la communauté des Sciences de la Terre VI – Conclusions et Recommandations Rapport Sept 2004 v 1.1 3 I - Introduction Le calcul à haute performance, en particulier pour la modélisation, a pris une grande importance pour l'avancement des recherches et la compétitivité scientifique internationale des laboratoires de Sciences de l'Univers. De plus, le contexte des capacités de calcul lourd disponibles évolue rapidement aussi bien sur le plan européen que mondial, créant une situation de compétition accrue pour la communauté SDU française. Dans ce but, la direction de l'INSU a mis en place un "Groupe d'Etudes Prospectives sur le Calcul Intensif" (GEPCI2) afin de prolonger sur la période 2005-2008 la synthèse qui avait été réalisée pour les années 1999-2003 par le groupe d'experts présidé par Pierre Valiron en 1998. Au-delà d'un simple état des lieux, la mission confiée à ce groupe de proposition est de susciter une nouvelle réflexion visant à réaliser une prospective glissante des besoins des communautés relevant du département SDU sur les supercalculateurs de l'IDRIS et des autres organismes nationaux pour les quatre prochaines années. Le cadre fixé par la lettre de mission à cette analyse est de s'appuyer en particulier sur les besoins exprimés dans les prospectives menées par l'INSU et ses commissions spécialisées. Dans la mesure du possible, les besoins nationaux doivent être replacés dans la perspective du contexte international. L'objectif du présent rapport est donc en premier lieu de faire le point sur les besoins en calcul relevant actuellement du vectoriel suite au remplacement du NEC de l'IDRIS à prévoir en 2005. Le rapport résume les premières conclusions formulées par le GEPCI2. De nombreuses questions sont de fait posées aujourd’hui: évolution des modèles, de leur résolution, développement des méthodes d’assimilation, choix des outils de diagnostics et d’analyse, place de la recherche fondamentale vis-à-vis de l’opérationnel, etc.. Constatant qu'une simple extrapolation sur la base des moyens actuels semble insuffisante, les membres du GEPCI2 ont cherché à formuler plus précisément les besoins par une prospective technique fondée sur la prospective scientifique existante. Afin d’initier ce processus, il a semblé utile d'orienter le débat par quelques questions générales auxquelles le travail du GEPCI2 a essayé de répondre : - Quels sont les "grands défis de modélisation" qui se posent à la communauté SDU, discipline par discipline? - Quelles sont les priorités scientifiques nationales ou internationales qui restent hors d'atteinte avec les moyens actuels de l'IDRIS, mais qu'une machine de classe mondiale "Earth Simulator" permettrait d'attaquer? Même question pour une machine intermédiaire de classe européenne? - Est-il possible de déduire une stratégie technique des priorités scientifiques? La situation est-elle la même pour l'ensemble des disciplines de SDU? - Sans se perdre dans les querelles d'architecture, est-il possible de préciser dans quels domaines le vectoriel-parallèle (type NEC) reste indispensable, et dans quels domaines le scalaire-parallèle s'est ou va s'imposer? - Quelle organisation est-elle souhaitée pour le calcul de haute performance? Quelle ambition la communauté a-t-elle pour l'IDRIS et les autres centres nationaux? Souhaite-t-elle participer aux projets thématiques de super-centres européens en calcul intensif? Avec quelles ambitions? 4 II –Le groupe d'experts GEPCI-2 A - Lettre de mission Réaliser une prospective glissante des besoins des communautés relevant du département SDU sur les supercalculateurs de l'IDRIS et des autres organismes nationaux pour les quatre prochaines années. Cette analyse devra s'appuyer en particulier sur les besoins exprimés dans les prospectives menées par l'INSU et ses commissions spécialisées. Dans la mesure du possible, les besoins nationaux seront replacés dans la perspective du contexte international. Enfin, dans une première phase, un objectif important est de faire un point sur les besoins en calcul relevant actuellement du vectoriel suite au remplacement du NEC de l'IDRIS à prévoir en 2005. B - Composition Le groupe GEPCI2 comprend quatorze membres représentant les quatre secteurs principaux de l'INSU: Astronomie-Astrophysique, Océan-Atmosphère-Climat, Surface et Interfaces Continentales, et Sciences de la Terre. En termes de domaines thématiques au sein des Conseils Scientifiques de l'IDRIS et du CINES, il couvre donc les compétences des CP1 et 4. Sa composition est la suivante: - François Bouchet, Institut d'Astrophysique de Paris (IAP), Pascale Braconnot, Laboratoire des Sciences du Climat et de l'Environnement (LSCE), Philippe Cardin, Observatoire des Sciences de l'Univers de Grenoble (OSUG), Jean-Louis Dufrène, Laboratoire de Météorologie Dynamique (LMD), Marie-Alice Foujols, Institut Pierre Simon Laplace (IPSL), Etienne Gondet, Mercator-Océan, Franck Lefèvre, Service d'Aéronomie du CNRS (SA), Patrick Mascart, Observatoire Midi-Pyrénées (OMP), Président du CP1 de l'IDRIS, Nicolas Monnier, Centre Européen de Formation Avancée au Calcul Scientifique (CERFACS) Michel Perault, Ecole Normale Supérieure Paris (ENS), Serge Planton, Centre National de Recherche Météorologique (CNRM), Georges-Marie Saulnier, Laboratoire d’études des Transferts en Hydrologie et Environnement (LTHE), Anne-Marie Tréguier , Laboratoire de Physique de l'Océan (LPO), Jean-Pierre Vilotte, Institut de Physique du Globe de Paris (IPGP), Pierre Valiron, Observatoire des Sciences de l'Univers de Grenoble (OSUG), Président du CP4 de l'IDRIS, Stratis Manoussis, Institut National des Sciences de l'Univers (INSU). L'animateur du travail du groupe et rédacteur du présent rapport est Patrick Mascart. C - Méthode de travail Compte tenu du calendrier très serré, le groupe ne s'est réuni qu'une seule fois en session plénière, le 2 juin 2004 à l'IAP. Etaient présents F. Bouchet, P. Braconnot, J.-L. Dufrène, M.A. Foujols, E. Gondet, P. Mascart, N. Monnier, S. Planton, A.-M. Tréguier, P. Valiron, S. Manoussis. Rapport Sept 2004 v 1.1 5 Une réunion informelle sur le thème spécifique du climat avait été organisée auparavant à l'IPSL, le 7 avril 2004. Etaient présents: P. Braconnot, J.-L. Dufrène, M.-A. Foujols, F. Lefevre, C. Lévi, G. Madec, O. Marti, P. Mascart, S. Manoussis, et N. Scott. Des échanges de documents par voie électronique ont complété ces deux séances de travail. Le présent rapport fournit une synthèse préliminaire des conclusions et recommandations du groupe, rédigée en préparation du Conseil Scientifique de l'IDRIS du 15 juin dernier et du Conseil d'Administration de l'IDRIS le 1 juillet. Le volume des différentes parties thématiques du rapport est assez inégal, ce qui reflète le poids plus ou moins grand représenté dans chacune des disciplines par le calcul intensif sur les centres nationaux, et tout particulièrement à l'DRIS. Compte tenu des délais très courts, l'accent est mis sur les enjeux et les recommandations. 6 III – Enjeux et besoins pour la communauté climatenvironnement Un trait majeur des recherches du secteur climat-environnement est leur intégration particulièrement forte dans les grands programmes aussi bien internationaux comme le PMRC, PIGB, et le WWRP, que nationaux du CNRS, de l'INSU et du MRNT, par exemple dans le cadre du PNEDC, de l'ACI "Risques et changement climatique", du GICC, du PATOM, du PNCA, voire du PNRH. L'Union Européenne soutient les travaux climatiques actuellement au sein de sa sous-priorité "Changement planétaire et écosystèmes" du 6ème PCRD, notamment le projet "ENSEMBLES". Antérieurement, le projet d'infrastructure PRISM du 5ème PCRD a soutenu des développements. Plus de 200 chercheurs sont impliqués dans une quinzaine de laboratoires à l'Université et au CNRS, et ces activités s'appuient sur un fort soutien et d'étroites collaborations avec des organismes comme Météo-France, le CEA, l'IRD, l'IFREMER, le SHOM, l'INRA, et le CNES. Une autre caractéristique déterminante est l'utilisation intensive d'un petit nombre (4 ou 5) d'outils logiciels communautaires, de taille quasi-industrielle, comme les modèles de circulation générale atmosphérique LMD-Z de l'IPSL/LMD et ARPEGE du CNRM, le modèle de circulation générale océanique OPA de l'IPSL/LODYC, et le modèle atmosphérique de méso-échelle Méso-NH développé conjointement par le CNRM et le LA. Un aspect également notable est l'émergence au cours des 5 dernières années d'une activité de prévision océanographique opérationnelle héritière du code océanique de recherche OPA (projet MERCATOR). A - Quelques chiffres généraux Pour fixer les idées, avant d'indiquer les tendances imposées par l'évolution des problématiques de recherches, il est intéressant d'examiner les chiffres bruts d'utilisation des ressources de l'IDRIS dans le secteur climat-environnement, et de les comparer succinctement avec la situation à l'étranger. L'analyse quantitative de l'utilisation de l'IDRIS par la communauté climatenvironnement montre qu'en 2004 ce secteur scientifique utilise environ 140 000 heures de la machine vectorielle NEC-SX5 de l'IDRIS, soit environ 48% du potentiel de production total de cette machine (295 000 heures). La ventilation de cette utilisation entre les sous-thèmes d'activité montre que prés de 50% de ces travaux relèvent de recherches climatiques au sens strict, 36 % de l'océanographie, 10% de recherches atmosphériques, et 4% de recherches environnementales diverses. Au contraire, l'utilisation des machines scalaires de l'IDRIS par la communauté climat-environnement reste pour l'instant assez limitée, environ 290 000 heures en 2004, un peu moins de 5% du potentiel de production de 3 700 000 heures disponibles. Cette forte focalisation de l'utilisation de la machine vectorielle NEC-SX5 de l'IDRIS sur les recherches climatiques s'est accentuée depuis sa mise en service en 1999. En 2000, la communauté climat-environnement n'utilisait que 34 000 h sur le SX5, soit 11% de du potentiel de la machine. Ce taux d'utilisation a doublé durant les deux années suivantes, avant de se stabiliser vers 45%, avec 140 000 heures utilisées en 2003 et 2004. Cette évolution des chiffres montre que les recherches climatiques ont trouvé avec le SX5 une machine bien adaptée à la croissance de leurs besoins jusqu'en 2003, mais que depuis cette date la limite des capacités pratiques du NEC-SX5 est atteinte et que ce sont les objectifs scientifiques qui s'adaptent désormais à la saturation de la machine. Cette Rapport Sept 2004 v 1.1 7 adaptation a un prix: elle a été obtenue en faisant de l'autocensure sur les objectifs, principalement en limitant la résolution spatiale des modèles. Une autre constatation intéressante vient de la comparaison des moyens disponibles pour les recherches en climat-environnement en France et dans quelques centres concurrents à l'étranger. Pour la France, si on considère globalement les chercheurs CNRS et ceux des organismes fortement impliqués en climat-environnement, trois centres majeurs sont utilisés: l'IDRIS-CNRS, le CEA (civil) et Météo-France. Ces trois centres français sont équipés actuellement de machines assez voisines de type vectoriel NEC ou FUJITSU. Pour chacun de ces centres le tableau 1 (repris du document d'analyse IPSL joint en annexe) évalue grossièrement les ressources consolidées disponibles pour les recherches en climatenvironnement en multipliant la puissance crête théorique de chaque machine par un "taux d'utilisation climatique". Pour l'IDRIS ce taux est cohérent avec les chiffres donnés plus haut pour 2004. On trouve que les trois centres français équivalent à une machine unique d'environ 190 Mflops utilisée à plein temps. Ce chiffre est probablement optimiste dans la mesure où trois petites machines ne sont pas équivalentes à une grosse dans leurs fonctionnalités. Le même tableau fait aussi figurer le centre climatique Allemand du DKRZ, le centre climatique anglais du Hadley-center et le centre pilote mondial japonais du EarthSimulator. Tous ces centres sont équipés de machine vectorielles de même type (le plus souvent NEC SX6), sauf le centre météorologique de l'ECMWF qui est doté d'une machine scalaire-paralléle IBM. Lorsque l'activité déborde la modélisation climatique, la fraction réservée au climat est indiquée. Les chiffres montrent que la meilleure machine climatique européenne est environ 13 fois inférieure à la machine pilote japonaise, mais surtout hélas que la somme des ressources climatiques dans les trois centres français est surclassée par un facteur 1,7 par la machine climatique anglaise et 2,5 par la machine climatique allemande. Tableau 1: Puissance disponible pour la modélisation climatique dans divers centres français et internationaux Perf (crête) soutenue Centre Calculateur Détail IDRIS NEC SX-5 depuis 2000 3 noeuds 40 proc CEA NEC SX-6 depuis 2003 6 noeuds 44 proc 113 Gflops 124 noeuds 124 proc 381 Gflops Météo-France DKRZ (Allemagne) Hadley Center (Angleterre) Earth Simulator (Japon) VPP 5000 x2 en2003 320 Gflops 102 Gflops 350 Gflops 1190 Gflops 1536 Gflops NEC SX-6 depuis 2003 24 noeuds 192 proc 492 Gflops NEC SX-6 depuis 2004 30 noeuds 240 proc 614 Gflops NEC SX6 depuis 2002 640 nœuds 5120 proc 13 116 Gflops 1920 Gflops 40 960 Gflops Partie climat Perf sout. pour climat 30% 30 Gflops 35% 40 Gflops 30% 114 Gflops 100 % 492 Gflops 50% 307 Gflops 50% 6558 Gflops Il est utile de comparer ces chiffres avec ceux donnés dans le rapport récent du MRNT (Lichnewsky, mars 2004) pour situer l'ensemble des moyens de calcul intensifs français par rapport à la concurrence européenne, toutes disciplines confondues. Ce rapport 8 trouve une puissance (crête) de 16 000 Gflops à la disposition de la recherche allemande, 18 000 Gflops pour la recherche britannique, et de 12 400 Gflops en France (en tenant compte de la rénovation récente de Zahir). Le retard global français est donc d'environ 30% toutes disciplines confondues alors qu'il est de 50% dans le secteur climat-environnent. B – La modélisation climatique Le calcul intensif est présent dans presque tous les thèmes scientifiques du climat et de l'environnement, seuls seront donc traités ci-dessous les trois axes majeurs qui dimensionnent la demande sur les grands centres nationaux. Par ailleurs, ainsi que la suite va le montrer, la modélisation climatique est, et de loin, la discipline la plus dimensionnante pour l'ensemble des laboratoires SDU impliqués en modélisation. Elle sera donc traitée de façon un peu plus approfondie dans le présent rapport. Le Climat: comprendre et modéliser le "Système Terre" Le climat de la Terre est le résultat d’interactions complexes entre de nombreux processus faisant intervenir l’atmosphère, l’océan et les surfaces continentales. Comment fonctionne ce système ? Peut-on prévoir son évolution à l’échelle d’une saison ou à plus long terme ? Les activités humaines sont-elles en train de modifier les grands équilibres climatiques ? Quelles en sont et seront les conséquences pour l’humanité ? Il est plus que jamais nécessaire de comprendre les mécanismes essentiels qui gouverneront l'évolution du climat. Une difficulté majeure est que la perturbation anthropique, qui apparaît comme une dérive du système, se superpose et interfère avec la variabilité naturelle dont de nombreux aspects sont encore mal connus. Seule une approche multidisciplinaire et intégrée du Système Terre peut relever ce défi. Elle doit faire intervenir à la fois les interactions entre l'océan, l'atmosphère, la biosphère et la cryosphère sous l’ensemble de leurs aspects physiques, chimiques et biologiques.. Notre capacité à prévoir les modifications climatiques majeures susceptibles de se produire au cours des prochaines années ou des prochains siècles est fortement conditionnée par notre capacité à intégrer dans des ensembles complexes des processus ayant des échelles de temps et d'espace très variées et par notre capacité à les évaluer par différents types de simulations. Elle repose aussi sur différentes études de prévisibilité climatiques à l'échelle saisonnière, pluriannuelle, voire à l'échelle du siècle. Les avancées scientifiques attendues dans ce domaine sont très fortement dépendantes des ressources en calcul intensif Au niveau international, le grand défi pour la communauté scientifique à l'échelle de 10 ans, est de disposer de systèmes intégrés très complets du Système Terre, intégrant la physique et les cycles bio-géochimiques, et de se diriger graduellement vers la prévision climatique. Cet enjeu est particulièrement dimensionnant pour les ressources de calcul à l'heure où les possibilités offertes par des calculateurs comme le "Earth Simulator" ouvrent de nouvelles perspectives de recherches dans le domaine du climat et de l'étude des processus intervenant dans les différents milieux qui le composent. La communauté internationale est aussi fortement mobilisée pour le prochain rapport du Groupe Intergouvernemental sur l'Etude du Changement Climatique (GICC) qui rendra ses conclusions en 2007 (www.ipcc.ch). D'ici là, les différents groupes de modélisation sont fortement sollicités pour produire dès la fin 2004 un ensemble coordonné de simulations des 20ème, 21ème et 22ème siècles. Au niveau européen ces défis sont repris par le Projet Intégré du FP6 ENSEMBLES (coordinateur D. Grigs, Hadley Centre, UK). Ce projet, qui vient de démarrer au cours de l'année 2004 pour une période de 5 ans, fait le lien entre les scénarios climatiques, la prévisibilité climatique, la régionalisation, les études d'impacts et l'économie. Il regroupe 70 partenaires européens. Le tableau 2 compare les configurations des modèles couplés utilisés dans divers pays pour contribuer au projet ENSEMBLES. On Rapport Sept 2004 v 1.1 9 constate que le savoir-faire de l'école française de modélisation jouit d'une grande estime, attestée par l'utilisation du code océanique français OPA-ORCA par plusieurs équipes étrangères dont l'ECMWF, mais il est aussi frappant de noter que c'est l'implémentation à l'IDRIS qui utilise la résolution la plus grossière, particulièrement dans l'atmosphère. Tableau 2. Résolutions spatiales des modèles couplés impliqués dans le projet ENSEMBLES de UE FP6. Partenaires ENSEMBLE Angleterre: Modèle Atmosphère Résolution horizontale Nombre couches Modèle Océan Résolution horizontale Nombre couches UREADMM METO-HC UK-HiGEM 1°x1° 38 HC-OGCM 0.33° 40 HC-AGCM 1.25°x1.875° 38 HC-OGCM 0.33-1° 40 IFS T95 (~1°) 60 ORCA 0.5-2° 29 EGMAM T31 (~3°) 39 EGMAM 0.5-2.8° 20 ECHAM5 T63 (~1.5°) 31 MPI-OM 1.5° 40 ECHAM4.6 T106 (~1°) 19 OPA 8.2 0.5-2° ARPEGE T63 31 MICOM 1.2° 36 ARPEGE T63 (~1.5°) 31 45 ORCA OPA8 0.5-2° 0.5-2° 31 31 ARPEGE T63 (~1.5°) 31 ORCA 0.5-2° 31 LMDZ-4 2.5°x3.75° 19 ORCA 0.5-2° 31 Angleterre: METO-HC ECMWF Allemagne FUB Allemagne: MPI & DMI Italie INVG Norvège: NERSC France: CNRM France: CERFACS France: IPSL D'autres projets internationaux ou européens renforcent cet effort. C'est en particulier le cas pour les simulations paléoclimatiques avec le projet international PMIP (Paleoclimate Modeling Intercomparaison Project) qui regroupe des simulations couplées pour des périodes extrêmes dans le passé pour lesquelles il existe de nombreuses données. La communauté française est fortement intégrée à ces différents projets internationaux où son rôle est dans une large mesure à la fois de faire avancer les connaissances mais aussi d'argumenter la doctrine environnementale française en matière de changement climatique. Les aspects les plus dimensionnants en terme de ressources de calcul concernent les études nécessitant le couplage de différentes composantes du Système Terre. Dans la suite logique des simulations climat-carbone effectuées il y a 4ans, l’IPSL développe les thématiques permettant d'analyser et de quantifier le rôle des interactions entre le système climatique et les cycles biogéochimiques. Les analyses s'appuient sur des expériences numériques où les différentes composantes du modèle Système Terre de l'IPSL sont successivement activées, ainsi que sur des simulations avec les composantes individuelles. Cette approche permet de quantifier les échanges entre les différents milieux et d'évaluer le rôle des rétroactions. Un objectif est de disposer d'un modèle complet (ensembles des couplages pouvant être activés simultanément) d'ici fin 2006. Les volets d'analyse du changement de climat simulé mettent l'accent sur les changements du cycle hydrologique, au travers des rétroactions liées aux variations de la circulation océanique et aux rétroactions nuageuses. Ces études demandent de pouvoir augmenter rapidement la résolution spatiale des modèles d'océan et d'atmosphère utilisés aujourd'hui pour avoir une meilleure représentation des échelles synoptiques dans 10 l'atmosphère et de la topographie dans les régions de l'atlantique Nord où de nombreux seuils conditionnent le cheminement des masses d'eau. Les études directement menées à partir de scénarios climatiques globaux sont donc essentiellement axées sur l’étude des rétroactions dans le système climatique et l'analyse de la sensibilité climatique. Elles s'appuient principalement sur des jeux de simulations réalisées à parts à peu prés égales sur les machines SX5 de l'IDRIS et SX6 du CEA. Météo-France est également fortement impliqué dans les études du changement climatique. Bien que s’intéressant aux rétroactions du système climatique dans son ensemble en liaison avec le cycle hydrologique et les processus de surface, le projet de Météo-France met d'avantage l’accent sur des études aux échelles régionales. Cela concerne à la fois des études de variabilité climatique (Atlantique Nord-Europe, régions de moussons, régions polaires), le développement d’une méthodologie de régionalisation dynamique des changements climatiques, et des études de détection et d’attribution des changements climatiques aux échelles régionales en collaboration avec le CERFACS. Améliorer la résolution spatiale et la représentativité des modèles climatiques Pour progresser au-delà des connaissances actuelles et continuer à tenir un bon rang dans la compétition internationale, la modélisation climatique française doit améliorer ses modèles sur de nombreux points, largement identifiés à l'occasion des grands ateliers internationaux d'inter-comparaisons de modèles (tels AMIP) et repris par exemple dans les prospectives et les appels d'offres du PNEDC et de l'ACI "Risques et changements climatiques". En termes généraux, et à court ou moyen termes, les progrès à réaliser les plus contraignants et dimensionnants identifiés dans ces prospectives sont : - l'augmentation de la résolution des modèles pour avoir une meilleure description des échelles synoptiques, représenter les modes de variabilité de l’atmosphère et inclure les niveaux stratosphériques, - la complexification du système pour tenir compte non seulement de l'impact du changement de climat sur les cycles bio-géochimiques, mais aussi du couplage entre les cycles et le climat, - la réalisation d'ensembles de simulations pour tenir compte des incertitudes des modèles et de l'aspect chaotique du système., - la réalisation de simulations longues pour obtenir une bonne caractérisation de la variabilité climatique à différentes échelles de temps, - la possibilité d'étudier les interactions d'échelles et les non-linéarités du système, - la réalisation de simulations régionales à haute résolution pour pouvoir traiter correctement les problèmes d'impact et faire le lien avec les mesures ponctuelles. A titre de simple exemple, le tableau 3 essaie de chiffrer les conséquences en termes de coûts calcul et mémoire de quelques-unes de ces priorités en se basant sur le document préparatoire IPSL joint en Annexe. On part de quatre exemples d'objectifs prioritaires recensés dans la prospective INSU (appel d'offre du PNEDC 2004). Le tableau identifie pour chaque priorité le (ou les) processus fondamentaux à améliorer pour atteindre l'objectif affiché, et la résolution de la grille de calcul nécessaire. La dernière colonne donne le chiffrage approximatif en terme de puissance calcul et mémoire. La référence est prise par comparaison aux ressources actuelles utilisées pour les simulations climatiques couplées du projet ENSEMBLES sur le NEC-SX5 vectoriel de l'IDRIS en 2004. Rapport Sept 2004 v 1.1 11 Tableau 3: Priorités scientifiques 2005-2007 et chiffrage des besoins calcul qui correspondent Processus clef à améliorer Résolution nécessaire Chiffrage Temps CPU/ mémoire Améliorer la connaissance de la réponse globale du climat aux perturbations anthropiques en améliorant les rétroactions nuageuses Bonne représentation des nuages bas et de leur sensibilité aux changements de circulation, de température et d'humidité. Accroître résolution verticale couche limite facteur 2 à 4 Accroître résolution horizontale ~1.5°x1.5° Facteur 4 Augmentation Facteur 10 coût CPU par rapport référence Simuler les changements climatiques et les couplages climat-carbone à l'échelle globale. Idem ci-dessus, avec en plus les modèles de carbone des surfaces continentales et de l’océan Idem ci-dessus Idem ci-dessus Quantifier les changements climatiques en Europe (tempêtes, inondations, sécheresse) Bien simuler les régimes dépressionnaires des moyennes latitudes (cyclogénèse, fronts). Accroître résolution horizontale meilleure que 1°x1° Facteur ~9 Facteur ~15 en CPU et 10 en mémoire Quantifier l'impact régional du changement climatique sur chimie troposphère et stratosphère Modèle couplé avec chimie-aérosols Ajouter ~200 traceurs et encore plus de réactions chimiques Amélioration résolution verticale à la tropopause et ~ 100 niveaux Facteur ~4 Facteur ~100 en CPU et 40 en mémoire Simuler les phénomènes extrêmes dans les régions tropicales et leur évolution Simuler les cyclones tropicaux Améliorer représentation convection nuageuse Améliorer résolution horizontale jusqu'à 0,5°x0,5° Facteur 40 Facteur ~100 en CPU et 40 en mémoire Priorité affichée par prospective INSU PNEDC Ce chiffrage montre que les objectifs scientifiquement programmés, tant au niveau national qu'international, font d'ores et déjà l'hypothèse d'un accroissement d'un facteur 10 de la capacité disponible pour la modélisation climatique à l'IDRIS dés les années 2005, et d'un accroissement supplémentaire allant jusqu'au facteur 100 en fin de période considérée vers 2007. Il est utile de noter que ces chiffres sont en gros compatibles avec les moyens vectoriels dont disposent nos concurrents européens (Tableau 2), mais hors de portée de la machine vectorielle actuelle de l'IDRIS, qui est déjà saturée. Stratégie technique pour la modélisation du climat Sur le plan technique, la modélisation climatique française est à un tournant. Le défi des années passées était de développer et d'assembler dans le cadre de l'IPSL toutes les composantes d'un modèle du Système Terre complet: LMD-Z pour l'atmosphère, OPA pour l'océan et la glace de mer, ORCHIDEE pour la surface et le cycle du carbone, INCA pour la chimie atmosphérique, PISCES pour la bio-géochimie océanique. Cette phase s'achève progressivement, ces composantes existent désormais et elles échangent avec succès leurs informations grâce au coupleur OASIS du CERFACS. Ce modèle couplé complet vient 12 d'arriver à maturité et il constitue l'outil de base pour que la communauté CNRS-SDU puisse participer (dans le cadre du projet ENSEMBLES) à la préparation des simulations dites de scénarios qui constituent la contribution française à la préparation du prochain rapport international de l'IPCC. C'était un enjeu scientifique majeur, affiché depuis plusieurs années, qui est sur le point d'être atteint car la communauté s'est coordonnée en mettant en commun des ressources significatives à l'IDRIS, au CEA et à Météo-France. Ce résultat a été cependant obtenu au prix de compromis, en particulier de compromis technologiques. Si certaines composantes du modèle couplé du "Système Terre" de l'IPSL ont pu être presque totalement optimisées, vectorisées et parallélisées, ce n'est pas le cas pour la totalité du modèle couplé. En particulier, le modèle atmosphérique LMD-Z, composante difficile à optimiser car très riche en paramétrisations complexes, a été optimisé depuis l'origine pour des machines vectorielles, mais ne permet pas encore la parallèlisation. Par contre le modèle OPA qui constitue la composante océanique du système permet une parallélisation massive et est utilisé depuis plusieurs années en mode parallèle MPI. Le modèle couplé complet "Système Terre" ne peut donc être exploité valablement pour des runs en vraie grandeur que sur une machine vectorielle comme les NEC SX5 ou SX6. Les performances sont alors très satisfaisantes car les codes climatiques sont riches en boucles longues bien adaptées à la vectorisation, et car leurs tailles actuelles sont encore bien compatibles avec les tailles mémoires disponibles en mode monoprocesseur. Renoncer aujourd'hui à la présence d'une machine vectorielle de classe européenne à l'IDRIS mettrait pour plusieurs années les équipes CNRS de modélisation climatique dans l'incapacité de participer à la compétition internationale. Les équipes concernées devraient alors se retirer de la compétition pour une parenthèse technologique de deux ou trois ans. Dans le contexte scientifique et politique des recherches sur le climat une telle solution serait dommageable, ceci d'autant plus que certains composants du modèle couplé français commencent à être utilisés à l'étranger. Le premier enjeu technique pour la modélisation climatique au CNRS/SDU est donc de renouveler la machine vectorielle de l'IDRIS par une machine de technologie vectorielle et d'une puissance comparable à celle déjà disponible en Allemagne et en Angleterre. Cet objectif correspond à une augmentation de puissance de l'ordre d'un facteur 10 par rapport à la machine vectorielle NEC-SX5 existante. Nous avons vu au paragraphe précédent que la programmation scientifique affichée permet de charger une telle machine dès sa mise en service. La communauté climat avait formulé la même demande d'augmentation de puissance par un facteur 10 en 1998 lorsqu'il s'agissait de remplacer le VPP Fujitsu de l'époque par la machine NEC actuelle. Les prévisions annoncées en 1998 pour 2003 furent presque parfaitement tenues, et la montée en charge fut réalisée en moins d'une année. Le choix, qui est proposé ici, de garder pour le moment à l'IDRIS une technologie vectorielle de haute performance n'est d'ailleurs pas différent de celui qui a été fait dans les derniers mois chez nos concurrents étrangers: bien sur le Earth Simulator mis en service fin 2002 est vectoriel, mais les machines climatiques Allemandes et britanniques le sont aussi. Même aux USA, le choix d'abandon de la technologie vectorielle fait il y a quelques années au vu de l'avance japonaise est remis en cause, sous la pression des centres de recherches climatiques. Le choix proposé ne signifie pas que le modèle de "Système Terre" français ne doit pas être parallélisé. Le sens de la décision proposée est de maintenir la continuité de la production et du savoir-faire scientifique des équipes françaises de modélisation climatique en leur donnant accès à une machine immédiatement utilisable à un niveau compétitif. Par contre, pour continuer à progresser la parallélisation sera indispensable, même à court terme. Les arguments avancés dans la prospective technologique IDRIS sur ce point sont parfaitement exacts. En premier lieu, il a été dit au paragraphe précédent que la taille mémoire requise est aujourd'hui compatible avec la mémoire disponible en mode monoprocesseur sur une machine vectorielle moderne, mais les chiffres d'évolution du tableau 3 montrent que cette limite sera atteinte rapidement, dans une ou deux années sans doute. La seule solution sera alors de paralléliser afin d'éclater le modèle "Système-Terre" sur plusieurs processeurs, chacun doté de sa mémoire propre. C'est ce problème de Rapport Sept 2004 v 1.1 13 mémoire qui imposera en premier la parallèlisation sur les grands codes climatiques. Mais, comme la puissance crête des processeurs (vectoriels ou autres) commence à plafonner, l'explosion des temps de calcul conduira de toutes façons à la parallèlisation sur quelques dizaines de processeurs vectoriels, ou le cas échéant sur quelques centaines de processeurs scalaires. L'analyse très convaincante présentée dans les documents de prospective technique et financière préparés par l'IDRIS montre que les coûts consolidés des deux solutions techniques sont très voisins, car l'efficacité moyenne de production d'une machine scalaire parallèle reste de l'ordre de 7%, alors qu'un processeur SX5 donne mieux que 30%. Une action vigoureuse et urgente de l'INSU et du SDU sera donc indispensable pour achever la parallèlisation du modèle climatique couplé "Système-Terre complet" dans les deux prochaines années. Attendre au-delà pourrait compromettre à la fois l'avenir de la filière de modélisation climatique française, et ne permettrait pas la pleine utilisation des machines nouvelles. Ce chantier technique doit être vu avec ambition, afin de doter le modèle de l'IPSL des différentes solutions techniques possibles (échanges de message MPI, directives OPEN-MP..), mais il doit être aussi mené de façon rigoureuse afin d'assurer une transition fiable entre le modèle monoprocesseur et son successeur parallèle. Certains travaux sont en cours, dont certains bien avancés. Mais, compte tenu du caractère très compétitif des recherches en modélisation climatique, qui impose une forte émulation entre les équipes des différents pays, il est improbable que les chercheurs puissent être assez disponibles pour parallèliser un code volumineux, complexe, et hétérogène. Il est donc suggéré au SDU ou à l'INSU de mettre en place des moyens spécifiques, soit en vue d'une externalisation (le CEA et le CERFACS, au moins, ont l'expérience de ce genre de chantier), soit par un renfort en personnel spécialisé. Cette aide spécifique du CNRS doit être significative et mise en forte priorité car la parallélisation du modèle couplé complet est une tâche stratégique qui conditionne l'avenir. Le franchissement de cette étape permettra également d'aborder les évolutions technologiques à plus longs termes avec toute la flexibilité nécessaire. Elle ouvrira de larges possibilités de collaborations scientifiques nouvelles. C – La modélisation océanique Les grandes questions qui motivent la modélisation de l'océan sont la compréhension du rôle de l'océan dans le climat, le cycle des éléments naturels, des polluants et de la biomasse, et la gestion des ressources marines. Ces questions étaient déjà au coeur de la prospective INSU 2000. La recherche s’est fortement appuyée sur l’existence de programmes nationaux (PATOM, PNEDC, PROOF, PNEC) qui ont permis de structurer la communauté et de développer des approches pluri-disciplinaires, nécessaires pour aborder les questions environnementales complexes. Ces programmes nationaux sont en outre très fortement connectés aux programmes internationaux, dans lesquels la communauté française joue un rôle déterminant pour certains d’entre eux, tels que WOCE (circulation océanique à grande échelle), CLIVAR (variabilité climatique), JGOFS (cycles biogéochimiques). Les années 2000-2004 ont été marquées par l'émergence de l'océanographie opérationnelle (Groupement d'intérêt public MERCATOR-OCEAN) et par le renforcement de la pluridisciplinarité. Océan: comprendre et modéliser l'océan observable Pour comprendre le rôle de l'océan dans le climat, et en particulier dans la modification des équilibres liée à l'augmentation des gaz à effet de serre, il est nécessaire de mettre en 14 oeuvre des modèles du système climatique (voir section B) mais aussi de mesurer l'évolution de l'océan. La communauté française joue un rôle actif dans ce domaine, via le programme international ARGO, et des programmes de surveillance de l'océan Austral et de l'Atlantique Nord. Par exemple, la radiale OVIDE (Portugal-Groenland) répétée tous les deux ans a pour but de quantifier l'évolution de la circulation thermohaline en Atlantique Nord. L'observation de l'océan progresse donc rapidement. Or, le problème clef est que les modèles océaniques actuels sont totalement inadéquats pour interpréter les mesures. En raison de leur résolution spatiale trop grossière les modèles océaniques actuels sont filtrés et représentent un fluide théorique beaucoup plus visqueux que l'océan réel. Il n'est donc pas possible de comparer directement observation et modélisation. Seule une approche indirecte via des états moyens semi-théoriques est pour l'instant accessible. L'enjeu pour la prochaine décennie est de porter la résolution spatiale vers le 1/12°, voire le 1/20°, afin de permettre des comparaisons directes avec les observations. De plus, les passages étroits qui contrôlent les échanges de masses d'eau entre les mers nordiques et l'Atlantique Nord sont très mal représentés. Améliorer la résolution aura donc aussi un impact direct sur le réalisme des zones critiques où sont générées les eaux profondes dans l'hémisphère nord. Les échelles les plus énergétiques (dites “échelles moyennes”) qui dominent le signal observé n'existent pas dans les modèles actuels. Il faut donc mettre en oeuvre des modèles d'océan ayant à la fois une grande emprise (pour pouvoir représenter le transport total au travers d'un bassin) et une haute résolution (1/12° est nécessaire pour représenter de manière réaliste le système du Gulf Stream et de la dérive Nord Atlantique). La communauté française a accumulé de l'expérience par des projets comme DYNAMO ou CLIPPER, et maintenant DRAKKAR. L'accès aux moyens de calcul est le facteur limitant pour ces projets. La compréhension du rôle de l'océan comme puits et source de CO2 nécessite une approche pluridisciplinaire, et des modèles couplés physique/biologie. Il existe un savoir faire important dans ce domaine en France, tant en ce qui concerne l'océan global que les échelles moyennes et fines (ces échelles ont été la cible du programme interdisciplinaire POMME en Atlantique Nord Est). Là encore, il est nécessaire de pouvoir mettre en oeuvre des modèles de grande emprise (pour établir des bilans à l'échelle d'un bassin ou du globe) et à haute résolution (pour représenter la mésoéchelle qui joue un rôle crucial dans le développement de la biomasse). D'autre part, les modèles côtiers se développent: les prochaines années seront marquées par la nécessité de simulations plus longues (problématique climatique), une résolution plus élevée pour plus de réalisme, une mise en oeuvre opérationnelle, et le développement de techniques d'initialisation et d'assimilation adaptées. Les progrès dans la qualité des modèles et dans leurs paramétrisations passent par une meilleure compréhension des processus d'échelle moyenne et fine, et en particulier de la dynamique liée aux vitesses verticales (déterminantes pour les apports de nutriments dans les couches de surface, ainsi que pour le comportement de la circulation thermohaline à l'équateur). La résolution explicite de cette dynamique nécessite des moyens de calcul très importants: un des projets de collaboration entre le CNRS, l'IFREMER et le Earth Simulator au Japon est centré sur cette thématique. Avec le GIP MERCATOR-OCEAN, la France joue un rôle de premier plan en ce qui concerne l'océanographie opérationnelle à l'échelle globale. Actuellement, des prévisions sont réalisées chaque semaine en utilisant un modèle de l'Atlantique Nord avec une maille de 5 à 7 km, et un modèle global au ¼° en phase finale de développement. Le GIP MERCATOR-OCEAN veut acquérir une dimension européenne dans le cadre du projet intégré MERSEA. Un modèle global au 1/12 degré doit être mis en place d'ici 2008. L'interaction entre le projet MERCATOR et la communauté de recherche française est exemplaire: il y a des échanges d'expertise, et les configurations de modèles MERCATOR ont vocation à être utilisées en mode “recherche”. Rapport Sept 2004 v 1.1 15 D'autre part, le GIP MERCATOR-OCEAN se propose de réaliser des réanalyses pour servir les objectifs des scientifiques. Les "ré-analyses" sont des reprises à l'aide des logiciels d'assimilation opérationnels des observations sur plusieurs années pour produire des ensembles homogènes et optimaux de données, afin de permettre des recherches à plus long terme et plus approfondies (calcul de bilans, etc…). Les ré-analyses sont donc des produits purement recherche, mais nécessitant des ressources très importantes et une implication des logiciels opérationnels d'assimilation. Déjà utilisées dans l'atmosphère, elles ont eu un impact déterminant sur la qualité des recherches climatiques. La France ayant une avance en assimilation océanique, acquise à l'occasion du programme opérationnel MERCATOR, il est important d'en tirer avantage sur le plan de la recherche par des réanalyses. Les besoins de calcul autour de MERCATOR dépassent donc le cadre strictement opérationnel, il est nécessaire d'établir les ponts institutionnels permettant la réalisation de tout ou partie de ces ré-analyses sur les machines de recherche. Chiffrage des besoins et stratégie technique pour la modélisation océanique Les considérations qui précédent conduisent à définir quelques exemples de projets dimensionnants en se projetant sur pour les années 2005-2007, voire même un peu au-delà. Cette prospective est bien sur bâtie sur le modèle d'océan OPA français, qui s'est imposé comme modèle communautaire pour la plupart des “grosses” applications à l'IDRIS, mais aussi dans l'environnement opérationnel MERCATOR, et même dans plusieurs projets étrangers (cf. section précédente), et est représentatif des modèles de ce type (modèle ROMS par exemple). Le tableau 4 résume les exemples considérés et les met en comparaison avec ce qui est réalisable sur les machines de 2004 soit à l'IDRIS, soit dans le cadre de MERCATOR. L'état de l'art actuel en océanographie pour un modèle global situe la résolution horizontale vers ¼° (soit en gros 20 km). Atteindre les objectifs affichés par la prospective pour l'échelle globale implique de passer rapidement au 1/12° (soir en gros 6 km), et ceci avec un modèle amélioré prenant en compte les glaces. Ceci implique une augmentation directe d'un facteur 9 de la taille mémoire, et d'un facteur 40 du coût calcul par rapport aux ressources disponibles en 2004 à l'IDRIS (indications données en première ligne), ce chiffre tient compte de l'amélioration du modèle et de la diminution du pas temporel. Pour l'objectif de réanalyse, au même niveau de résolution, il faut ajouter le surcoût lié à la méthode d'assimilation, voisin de 2. L'autre exemple de priorité affiché par la prospective est la régionalisation, ici pour le cas d'études centrées sur l'Atlantique Nord associant la dynamique (organisation des courants) et la bio-géochimie (réponse des ecosystèmes marins). La résolution visée par cet exemple est toujours de 1/12° mais l'emprise du modèle est plus petite; par contre le modèle est plus complexe. L'accroissement des besoins mémoire est encore voisin de 9, mais le surcoût en temps de calcul est estimé un peu plus faible, environ d'un facteur 20 par rapport au disponible en 2004 à l'IDRIS. En résumé, pour continuer à progresser la modélisation océanique a besoin d'un accroissement des ressources disponibles à l'IDRIS d'un facteur 20 dès les années 2005, et d'un accroissement supplémentaire allant jusqu'au facteur 100 en fin de période considérée vers 2007-2010. 16 Tableau 4: Priorités scientifiques et chiffrage des besoins qui correspondent Priorité scientifique prospective INSU "Etat de l'art 2004" Modèle global Résolution de base Modèle Résolution horizontale Niveaux verticaux ORCA 1/4° 46 niveaux Variabilité ORCA échelle globale (version glace et physique tourbillons partial Steps ) 1/12° et 46 niveaux courants de bord Ré-analyses globales Modèle opérationnel avec assimilation Haute résolution régionale + biogéochimie (écosystèmes) Haute résolution régionale opérationnelle + biogéochimie + assimilation ORCA 1/12° 46 niveaux Assimilation Schéma SEEK Atlantique Nord 1/12° 46 niveaux PISCES Atlantique Nord 1/12° 46 niveaux PISCES Assimilation Schéma SEEK Temps CPU et Stockage Mémoire 15 ans par rapport à en To "Etat de l'art 2004" ~200 h /an simulé (sur VPP5000) 43 Go (sur 12 proc) Facteur ~ 40 en CPU et Facteur ~ 9 Mémoire Machine Vectorielle ou parallèle/scalaire 16 To Vectorielle ou parallèle/scalaire avec bon réseau d’interconnexion 370 To Parallèle/scalaire avec bon réseau d’interconnexion Facteur ~20 en CPU et Facteur ~9 Mémoire 42 To Vectorielle ou parallèle/scalaire avec bon réseau d’interconnexion Facteur ~30 en CPU et Facteur ~9 Mémoire 265 To Parallèle/scalaire avec bon réseau d’interconnexion Facteur ~ 80 en CPU et Facteur ~ 20 Mémoire On retrouve donc pour la modélisation océanique à haute résolution des facteurs de croissance des ressources assez similaires à ceux énoncés plus haut pour la modélisation climatique. La situation technique en océanographie est cependant différente car le modèle océanique OPA atteint de bonnes performances aussi bien sur les calculateurs vectorielsparallèles que scalaires-parallèles (sous réserve d'un réseau performant, ce qui n'était pas le cas de la machine Zahir en 2003). Il y a 5 ans déjà, avec le projet CLIPPER sur CRAYT3E, la modélisation océanique tirait d'excellentes performances avec un taux élevé de Rapport Sept 2004 v 1.1 17 parallélisation. Le projet DRAKKAR suit aujourd'hui la même stratégie en se déployant sur l'IBM ZAHIR dans sa toute nouvelle configuration. Il convient de noter que les modèles d'océan nécessitent aussi beaucoup de stockage, afin de pourvoir calculer des statistiques à posteriori et d'utiliser les champs dynamiques pour le calcul “off line” de distributions de traceurs. L'avant-dernière colonne du tableau 4 montre qu'il faut s'attendre à une explosion des volumes de stockage en modélisation océanique. Dernière remarque, sur le plan de l'organisation institutionnelle, la situation de la coordination entre les machines de recherche et les machines à vocations opérationnelles utilisées par MERCATOR pourrait certainement être améliorée. Dans les années passées, l'IDRIS a eu un rôle significatif dans l'émergence de la version parallèle du code OPA (rôle bien sur de fournisseur de ressources, mais surtout de conseil technologique et d'assistance par les ingénieurs affectés par l'IDRIS à la parallélisation d'OPA). L'IDRIS peut donc s'enorgueillir à juste titre d'avoir contribué à l'émergence en France d'un programme d'océanographie appliqué, MERCATOR, qui va probablement déboucher sur des applications rentables et stratégiques. Il serait donc très utile de développer une bonne coopération institutionnelle entre l'IDRIS et Mercator afin que les échanges de logiciels soient favorisés, et que l'utilisation des outils opérationnels soit possible pour la réalisation à l'IDRIS des ré-analyses dont la recherche océanographique française a besoin. D – La modélisation en météorologie et chimie atmosphérique à mésoéchelle Les recherches en météorologie et en chimie de l'atmosphère à mésoéchelle (échelles plus locales que les échelles climatiques) font un grand usage de la modélisation, qui s'est développée très considérablement dans ce domaine depuis 10 ans grâce aux efforts conjoints du CNRS et de Météo-France. Partant de chiffres négligeables en 1990, cette sous-discipline a connu une grande diversification aussi bien des méthodes que des sujets de modélisation. La modélisation météorologique du secteur CNRS-Université est presque en totalité basée à l'IDRIS, où elle compte en 2004 pour un peu moins de 10% de l'utilisation de la machine vectorielle NEC-SX5. Elle est donc évoquée brièvement dans ce paragraphe pour faire ressortir ses particularités qui la différencient bien de la modélisation climatique. Comprendre et modéliser l'atmosphère: passer le "mur de la convection" Depuis une dizaine d'années, sous l'action de travaux de modélisation lors de campagnes d'observation particulièrement détaillées comme la campagne MAP dans les Alpes en 1999, mais aussi face à l'accumulation d'études de cas sur des évènements extrêmes comme les tempêtes de Noël 1999, les crues de l'Aude de 1999, la crue de Vaison-la-Romaine de 1992, …. les recherches en modélisation météorologique ont montré qu'une amélioration significative des prévisions (en particulier des pluies intenses et des vents forts) peut être obtenue en améliorant la résolution spatiale des modèles jusqu'à des mailles de quelques kilomètres. Par ailleurs, les difficultés rencontrées dans la représentation de la convection nuageuse (orages) ont montré que des résultats acceptables peuvent être obtenus à résolution relativement grossière (mailles plus grandes que 10 km) ou hyper-fines (plus fines que 3 km), mais que la gamme des résolutions situées entre 10 km et 3km pose des problèmes presque insurmontables ("mur de la convection"). Une tendance lourde pour les prochaines années est donc l'augmentation de la résolution des modèles atmosphériques jusqu'à la résolution kilométrique, voire au-delà dans certains cas. De plus en plus, des hiérarchies de modèles emboîtés allant de l'échelle planétaire à l'échelle kilométrique sont mises en œuvre pour appréhender les phénomènes à leur échelle propre, avant de les intégrer sous forme paramétrée dans des modèles d'échelle plus 18 grande. Par exemple, le modèle non-hydrostatique MESO-NH utilise couramment des grilles imbriquées multiples de plusieurs millions de points sur quelques dizaines de variables pour simuler les cas réels de la campagne météorologique MAP avec une résolution kilométrique. Ce besoin de très haute résolution implique par ailleurs une modification dans la forme mathématique des modèles eux-mêmes, qui abandonnent rapidement les équations hydrostatiques pour adopter les équations compressibles de Navier-Stokes avec comme conséquence une augmentation du coût intrinsèque des méthodes de résolution. La future campagne AMMA d'observation de la mousson en Afrique de l'ouest prévue pour 2007 va mobiliser l'ensemble des équipes du CNRS mais aussi de nombreux autres organismes sur les problèmes fondamentaux de convection tropicale, de dynamique à grande échelle, de chimie équatoriale… Cette campagne va impliquer un effort sans précédent en modélisation sur une large gamme d'échelle allant du local au continental. L'évolution des travaux de recherche fondamentaux en modélisation météorologique vers la très haute résolution a eu des retombées significatives dans le domaine appliqué, et elle a fait l'objet de collaborations très étroites entre Météo-France et le CNRS depuis 1993 autour du modèle non-hydrostatique Meso-NH. Depuis trois ans, ces recherches ont ouvert la voie vers des applications nouvelles en prévision météorologique avec le projet AROME de Météo-France pour la prévision opérationnelle à résolution kilométrique sur la France, dont la mise en service est prévue vers 2007. Le Conseil Scientifique de Météo-France a noté en decembre 2003 que le projet AROME est un exemple particulièrement réussi de transfert technologique de méthodes élaborées au CNRS vers un outil de prévision opérationnel de Météo-France. Les années récentes ont aussi vu le développement de modèles associant dynamique et physico-chimie. Ces travaux concernent des domaines variés allant de l'étude de la composition de l'atmosphère et des rétroactions de cette composition sur le climat (MOCAGE), jusqu'aux études de pollution à mésoéchelle en sites urbains (modèle MESONH/C, campagne ESCOMPTE). L'introduction de nombreuses espèces chimiques dans ces modèles (CO2, CH4, CFC, HCFC, Ozone, aérosols, chimie humide, etc.) se traduit par une augmentation de complexité, mais permet de s'attaquer à l'analyse des grands cycles et de leurs perturbations anthropiques depuis des échelles de temps très courtes (hebdomadaires) jusqu'aux durées climatologiques (pluriannuelles). Depuis peu, une forte coordination internationale, émerge autour de la notion de "chemical weather forecasting", prévision du temps chimique, notamment dans le cadre du programme GMES européenne qui associe là encore équipes CNRS et Météo-France. Simultanément, les techniques d'assimilation de données étendent les capacités de modélisation sur des situations réelles dans tous les domaines. Ces techniques sont à maturité aux grandes échelles en météorologie, et après avoir inspiré les concepts initiaux, les équipes CNRS ont vu les développements lourds se faire plutôt dans les agences météorologiques, à l'ECMWF et Météo-France, plus à même de mobiliser les équipes spécialisées requises. Le fait nouveau, qui résulte du programme AROME et de son intérêt pour les résolutions kilométriques, est la volonté de prendre en compte des observations nouvelles satellites ou radar. Plusieurs groupes communs CNRS / Météo-France viennent d'être constitués en ce qui concerne l'assimilation des radars du réseau national et des données de satellites dans les prévisions AROME. L'assimilation de données, qui était jusqu'ici limitée à des observations météorologiques conventionnelles (vents, température, humidité) va voir son éventail de possibilités s'ouvrir en chimie atmosphérique. Les missions spatiales POLDER, SCIAMACHY et Meteosat-SG ouvrent des possibilités d'assimiler des données sur les aérosols, et d'inclure dans les modèles de chimie atmosphérique des représentations enrichies des principaux types d'aérosols( désertiques, sulfates, carbonés, marins, nitrates…). De même, la représentativité des cadastres d'émissions utilisés dans les modèles de chimie troposphérique devrait progresser en inversant les observations satellitaires de gaz à effet de serre (CO et CH4 de MOPITT) ou de précurseurs gazeux de l'ozone (NO2 et HCHO de GOME et SCIAMACHY). En retour, tous ces développements en Rapport Sept 2004 v 1.1 19 assimilation vont bénéficier aux programmes scientifiques en permettant une interaction encore plus forte entre la modélisation et l'observation, sous forme de campagnes orientées vers des études de processus. Par exemple un grand effort sera dédié à l'assimilation de données lors de la campagne AMMA. Concrétiser ces progrès annoncés de longue date sera un des défis des prochaines années. Stratégie technique pour la modélisation en météorologie et chimie atmosphérique Les considérations qui précédent montrent que les modèles météorologiques et de chimie atmosphérique vont essayer de passer d'une résolution un peu inférieure à 10 km en 2004 à une résolution inférieure à 3 km en 2006. Les besoins en mémoire vont donc subir directement une croissance d'un facteur supérieur à 10. L'impact sur les besoins en temps de calcul sera direct en début de période tant que l'essentiel de l'activité se fera sur MesoNH. Par contre, à partir de 2006 la mise en service d'AROME pour certains objectifs risque de modérer la croissance des besoins en calcul pur, car AROME dispose de schémas numériques avancés qui autorisent des pas de temps plus longs que les modèles antérieurs. La croissance des temps de calcul a moyen terme sera donc plus directement liée à l'ouverture vers des physiques complexes (comme l'électrisation des nuages et le foudroiement, ou des microphysique nuageuses avancées) voire plus encore à la prise en compte de chimies avancées (processus hétérogènes, aérosols…). L'évolution attendue en météorologie et chimie atmosphérique est donc d'un facteur 10 vers 2006 et 100 vers 2010 pour la puissance CPU comme pour la mémoire. Concernant l'architecture, la situation évolue rapidement. Les codes de météorologie et de chimie atmosphérique actuels peuvent tourner aussi bien sur des machines vectorielles-parallèles que scalaires-parallèles. En mode vectoriel les performances sont correctes sur UQBAR à l'IDRIS pour les modèles sans chimie, mais se dégradent pour les modèles à chimie poussée (qui sont donc exploités en parallèle MPI avec 8 processeurs vectoriels). Pour le futur, les modèles tendront à représenter des processus coûteux qui vectoriseront moins bien, mais se prêteront bien au parallélisme (par exemple l'électrisation et le déclenchement de la foudre, ou la chimie avancée). De plus, l'explosion des besoins en mémoire (variables chimiques, multiples phases des hydrométéores, variables électriques) conduira à l'abandon du mode monoprocesseur, ceci que la machine soit vectorielle ou pas. La priorité technique en météorologie-chimie est donc la disponibilité d'une machine multiprocesseurs dotée d'un réseau rapide, indépendamment de la nature vectorielle ou scalaire de ses processeurs. Il est à noter que les codes comme Meso-NH (et AROME) sont conçus pour tourner, dès l'origine, en mode MPI multi-processeurs soit sur une machine vectorielle, soit sur une machine super-scalaire-parallèle, soit sur un cluster de PC de laboratoire.. L'approche sera donc flexible. 20 IV – Enjeux et besoins pour la communauté astrophysique L'astronomie-astrophysique utilise environ 11 000 h sur la machine vectorielle et 500 000 h sur les machines scalaires à l'IDRIS et 800 000 h sur le CINES. La communauté prend donc bien en compte la complémentarité IDRIS et CINES, et les demandes se répartissent équitablement entre ces deux centres (pour 2004, 26 projets au CINES et 28 à l'IDRIS, parmi lesquels 12 projets conjoints). Le taux de renouvellement des demandes est important, de l'ordre de 25% par an, et la croissance des besoins est très soutenue. La qualité des projets est excellente, et les renouvellements font état de publications de haut niveau. La progression des demandes est très forte. Astrophysique: un large éventail thématique L'éventail thématique couvert par le calcul intensif en astrophysique est particulièrement large. En mécanique céleste, les études sur la stabilité des systèmes planétaires se renouvellent avec la modélisation de l’extrême diversité des systèmes exo-planétaires simples ou multiples. Dans notre système solaire, il convient également de noter les premières prédictions réussies de pluies d'essaims météoritiques (qui devraient autoriser une meilleure maîtrise du risque dans le domaine spatial). Ce dernier projet illustre bien la souplesse du CINES qui a permis de concentrer des moyens importants sur un projet de thèse innovant mais très exploratoire. En physique stellaire, les études des processus physiques dans les atmosphères ou les enveloppes prennent beaucoup d'importance (instabilités hydrodynamiques, convection, transfert radiatif, etc). En particulier pour les atmosphères de naines brunes, on commence à modéliser avec succès l'effet des molécules et des poussières sur le spectre observé. Les études sur la structuration multi-échelle des objets astrophysiques sont également bien représentées, tant dans le domaine des jets MHD que de l'évolution dynamique des galaxies (en prolongement notamment des études purement gravitationnelles réalisées à Marseille sur des calculateurs spécialisés GRAPE). La poursuite de ces travaux avec des modélisations multi-physiques demandera des moyens considérables. L'étude des disques proto-planétaires semble également promise à un grand avenir avec la multiplication des diagnostics observationnels en optique adaptative et en interférométrie millimétrique et bientôt optique. Des projets ambitieux tentent aujourd'hui de comprendre les processus hydrodynamiques en jeu dans ces disques et le rôle de la poussière, et de modéliser l'agrégation des petits corps pour former des planétésimaux. Les modélisations associent dans certains cas des fermes de PC à l'utilisation du CINES. Là aussi des besoins considérables dans le proche avenir sont prévisibles. La montée en puissance des observatoires virtuels (OV) couple les besoins de base de données (observationnelles ET modélisations), de transfert sur le réseau, et de modélisation à la demande. Le cas de Herschel et Planck préfigure sans doute la suite. Une grosse impulsion française a été donnée avec le CDS, mais pourrons nous suivre compte tenu des investissements considérables en moyens et en hommes faits par nos concurrents (y compris européens, cf. les anglais avec le soutien des STIC)? Ces projets lancent un défi en Rapport Sept 2004 v 1.1 21 terme de capacité des centres nationaux à évoluer vers plus de souplesse. Un couplage avec des grilles nationales est peut –être envisageable. La préparation scientifique des deux satellites cryogéniques Herschel et Planck — qui seront lancés conjointement en 2007 pour étudier respectivement l'univers moléculaire et les fluctuations du fond cosmologique — suscite des modélisations très lourdes, dans les priorités des programmes nationaux correspondants (PCMI et PNC). Ces travaux associent des moyens variés aux calculateurs nationaux (grille de calcul expérimentale de Grenoble, fermes de PC de l’IN2P3). La répartition entre l’IDRIS et le CINES est faite en fonction des moyens disponibles en mémoire centrale et en archivage. Plus généralement, ce type de modélisation, qui anticipe le lancement d’un grand observatoire spatial et qui est appelé à en valoriser la moisson scientifique, semble appelé à se généraliser en astrophysique. Le cas du satellite Planck de l'agence Spatiale Européenne est particulièrement exemplaire. La cosmologie contemporaine vise à rendre compte de la formation et de l'évolution des structures dans l'univers. Ces structures nous ont été révélées par la répartition très inhomogène des galaxies qui semble dessiner l'ossature d'une éponge. Le projet Planck a pour objet la cartographie définitive de cette empreinte que les anisotropies de température du fond cosmologique millimétrique primordial nous révèlent. L'extraction de l'information cosmologique du flot brut de télémesure est un véritable défi, et seuls les ordinateurs les plus puissants au monde permettront d'extraire tout ce que les données recèlent. Le centre NERSC aux Etats-Unis est déjà ouvert aux chercheurs impliqués dans ce projet pour se préparer à cette échéance. Super-ordinateurs et télescopes sont donc les outils complémentaires nécessaires pour lever le voile sur les mystères de l'Univers. Stratégie technique pour la modélisation en astrophysique Un problème pour la modélisation astrophysique vient de la disproportion entre développements instrumentaux (spatiaux) et modélisation des observations. La communauté française participe par exemple au niveau de 150 M € au satellite Planck, mais la possibilité de mobiliser 1 M€ pour disposer d'une machine dédiée pour ce projet reste incertaine. De plus, le sous-développement des moyens de modélisation ne favorise pas la constitution de pôles de modélisation, forts (malgré les efforts de l'ASSNA). En astrophysique, l'effort à réaliser dépasse les problèmes de jouvence technologique: il faut aussi structurer la discipline et l'évolution de ses moyens humains scientifiques. Une priorité sera de rendre visibles les grands projets, par une labellisation, afin de favoriser leur structuration et améliorer leur visibilité au niveau européen. A l'instar de ce qui est fait dans la communauté climatologique, il sera utile de faire émerger de grands projets communautaires, mais d'une façon plus flexible et diverse, en raison de la plus grande diversité des problématiques, tant sur le versant modélisation que sur le versant assimilation de données. Concernant l'approche technologique, les codes nouveaux sont donc presque toujours développés en version parallèle. Cependant, le maintien d'une perméabilité entre vectoriel et parallèle est souhaité, ne serait-ce que pour maintenir le bénéfice des codes vectoriels existants. Pour le futur, la communauté de modélisation astrophysique a déjà fait très largement le choix des machines scalaires-paralléles, et ce à tous les niveaux depuis l'échelon national (comme l'attestent les chiffres CINES et IDRIS), jusqu'à l'échelon local, avec de nombreux cluster-PC déjà en utilisation régulière dans les laboratoires. Cependant, il manque en France une machine capable de s'attaquer aux grands problèmes de classe internationale ("grand challenge"). 22 V – Enjeux et besoins pour la communauté des Sciences de la Terre Les Sciences de la Terre utilisent environ 2000 h sur la machine vectorielle de l'IDRIS et 200 000 h sur les machines scalaires de l'IDRIS et du CINES. Ces chiffres sont faibles, inférieurs à 1% des capacités, et de l'ordre de 15% du comité thématique CP4. De plus, le poids des demandes s'affaiblit d'année en année sur les centres nationaux alors que les centres thématiques dédiés aux Sciences de la Terre restent peu importants dans le monde académique (y compris l'Institut de Physique du Globe de Paris, faute de jouvence), la situation pouvant être quelque peu différente dans les sociétés industrielles de géophysique appliquée. Une nouvelle fenêtre pour étudier les systèmes naturels Pourtant, la modélisation en sciences de la Terre s'est rapidement développée ces dernières années et est devenue un outil puissant de recherche, au côté de la modélisation expérimentale et des techniques d'observation, capable de résoudre des problèmes scientifiques complexes issus des domaines les plus fondamentaux jusqu'aux études plus finalisées en termes économiques et sociaux (risques naturels, industries pétrolières, etc…). La modélisation et le traitement de données offrent aujourd'hui une nouvelle fenêtre au travers de laquelle les systèmes naturels peuvent être étudiés de manière détaillée en assimilant les données existantes. Dans les Sciences de la Terre, il existe schématiquement deux catégories de problèmes pour lesquelles la modélisation numérique est amenée à jouer un rôle important. Les problèmes où les principes physiques sont supposés bien connus mais dont la complexité fait que leur résolution a jusqu'ici été limitée. L'évolution des ressources calcul permet aujourd'hui d'intégrer les différentes échelles mises en jeu. C'est le cas par exemple en sismologie, en géodynamique , et en hydrologie de l'environnement. Les problèmes pour lesquels les principes physiques sous-jacents ne sont pas encore suffisamment bien établis pour autoriser des simulations, mais dont l'élucidation viendra probablement de la modélisation numérique elle-même. Nombre de ces problèmes impliquent des processus physiques intrinsèquement instables, ou chaotiques, et des interactions sur une large gamme d'échelles de temps et d'espace, comme par exemple les problèmes d'écoulements gravitaires ou de transport/diffusion en milieu très hétérogène. Quelques exemples permettent d'illustrer ces besoins croissants de la simulation numérique en Sciences de la Terre: La sismologie a été profondément affectée par l'émergence du calcul hauteperformance. Les simulations en sismologie ont d'importantes implications économiques et sociales telles que la prévention des risques sismiques ou l'imagerie des ressources naturelles. - La modélisation de la réponse sismique, et des effets de site, lors d'un tremblement de Terre, est un problème dont les principes sont assez bien maîtrisés. Des simulations tridimensionnelles incorporant la résolution des structures géologiques et la gamme de fréquences utile pour les ingénieurs deviennent aujourd'hui possibles. Par exemple, la réponse 3D du Bassin de Los Angeles, jusqu'à des fréquences de 2hz, a été modélisée sur des architectures de 128 noeuds et plus de 128 Go de mémoire. De telles simulations vont devenir rapidement un outil indispensable pour l'analyse et la prévention du risque sismique, en particulier dans les zones urbaines et industrielles, et ce d'autant plus que le taux de sismicité de la région est plus faible. Elles permettront , à partir d'une Rapport Sept 2004 v 1.1 23 - - connaissance des failles sismiquement actives et de la sismicité historique de la région, d'établir une zonation sismique sur la base de scénarios. La modélisation numérique est aujourd'hui également devenue indispensable pour la compréhension de la rupture sismique et de la génération des ondes courtes associées importantes pour le génie parasismique. La modélisation dans ce domaine requiert ainsi la résolution d'une dynamique non régulière sur plusieurs échelles de temps et d'espace afin de capturer les échelles associées au front de rupture et à sa propagation ainsi que celles des ondes courtes en champ proche. L'enjeu est ici de pouvoir modéliser le processus de rupture dans le domaine des hautes fréquences, de 5-10 Hz, au sein de modèles de propagation d'ondes entre 0.5-0.2 Hz. Par ailleurs, la résolution des observations sismiques et géodésiques, en particulier du GPS et SAR, sont telles que l'inversion dynamique en champ proche est aujourd'hui possible et devrait conduire à des avancées importantes. La modélisation de la propagation du champ d'onde complet dans des modèles globaux de Terre hétérogènes ouvre de nouvelles perspectives permettant de tirer profit du formidable volume de données large bande disponible. Il est aujourd'hui possible de modéliser la propagation du champ d'onde complet dans des modèles de Terre réalistes jusqu'à des périodes de 15 secondes, sur des configurations de 256 processeurs et de 128 Go de mémoire. Ce type de simulation est en passe de devenir un outil de routine pour la localisation des grands tremblements de Terre, l'étude des hétérogénéités localisées, et l'inversion des formes d'onde pour la détermination de modèles tomographiques haute résolution. Les groupes les plus actifs dans ce domaine vont jusqu'à s'équiper de moyens propres et dédiés leur permettant de mobiliser ces ressources à la demande. La géodynamique a également vu l'émergence de la modélisation numérique comme un outil à part entière pour l'étude des régimes dynamiques complexes de fluides géophysiques tant dans le domaine de la convection mantellique que dans celui de la magnétohydrodynamique dans le noyau externe. - Les simulations en géodynamique ont des implications fondamentales pour la compréhension des mécanismes au sein du manteau et du noyau. Dans ces domaines également, si les principes physiques et leur formulation mathématiques sont assez bien connus, les simulations numériques tri-dimensionnelles dans les régimes caractéristiques de la Terre constituent encore un défi et requièrent sans doute une reformulation pour atteindre ces régimes. - La modélisation de la dynamique des interactions entre panaches mantelliques et lithosphère, ou des propriétés de mélange au sein de systèmes convectifs sont des exemples ayant d'importantes implications dans le domaine de la géochimie. - Depuis la publication à la une du magazine Nature en 1995 de la première dynamo numérique complète par les Américains Glatzmaier et Roberts, une dizaine d'équipes dans le monde, dont une française, disposent de codes numériques capables d'étudier comment les noyaux internes des planètes peuvent engendrer un champ magnétique auto-induit. Cette approche permet d'expliquer pourquoi le champ magnétique est dipolaire avec un axe en moyenne aligné avec l'axe de rotation de la Terre. Cet énorme succès, arrivant après 50 ans de recherche, cache la difficulté des simulations à se placer dans un régime de paramètres pertinent pour les noyaux planétaires métalliques. Pour se rapprocher des conditions géophysiques, les codes nécessitent des capacités de calcul plus conséquentes ainsi qu'une évolution des algorithmes utilisés. En tous cas, seule l'utilisation de gros ordinateurs permettra de savoir si les solutions trouvées se prolongent aux cas de nombreuses dynamos planétaires. L'observation spatiale a en effet élargi les données du problème; non seulement il faut expliquer le champ géomagnétique, mais aussi comprendre pourquoi les planètes géantes (Jupiter, Saturne, Uranus) ont un champ magnétique, pourquoi un seul satellite jovien (Ganymède) exhibe une dynamo, alors que celle-ci s'est éteinte sur certaines planètes (Mars, Lune), voire 24 jamais allumée dans d'autres? L'enjeu est passionnant pour les géophysiciens français réunis au sein du GDR "dynamos" du CEA/CNRS. Stratégie technique pour la modélisation en Sciences de la Terre De nombreux domaines des Sciences de la Terre ont aujourd'hui des besoins importants en modélisation numérique du fait de la complexité des systèmes naturels, de la multiplicité des échelles à aborder, du volume et de la résolution des nouvelles données expérimentales. Ces besoins s'expriment bien sûr en terme de puissance de calcul et de mémoire. Cependant le calcul n'est qu'un aspect des ressources nécessaires à la modélisation. Le stockage et la manipulation hiérarchique des données sont également devenus un aspect important, et il en est de même des capacités de visualisation avancées. Tous ces aspects impliquent une utilisation de plus en plus massive du calcul parallèle. Ces besoins coïncident avec une émergence de possibilités nouvelles. Les nouvelles technologies en terme de clusters et de bases de données ouvrent l'accès à des ressources de calcul bien adaptées à la modélisation géophysique pour des coûts financiers beaucoup plus accessibles que dans le passé. Les technologies de réseaux et de grille permettent aujourd'hui de mieux partager les investissements que ce soit pour le calcul, l'utilisation des bases de données, ou l'accès aux équipements instrumentaux. La politique CNRS s'appuie sur un modèle à deux niveaux pour les ressources de modélisation en géophysique. Au niveau national, les grands centres du CINES et de l'IDRIS disposent de ressources parallèles de plusieurs téraflops, mais celles ci sont souvent encombrées d'applications non-dimensionnantes. Au niveau local, les moyens mi-lourds INSU et les contrats ont permis à quelques laboratoires de s'équiper en grappes de PC. Mais il manque un niveau intermédiaire, les centres méso-informatiques, qui conviendraient bien à certains besoins de la modélisation géophysique, mais n'ont pas de financement propre en dehors des PPF du Ministère de la Recherche et des Conseils Régionaux. La situation actuelle ne permet pas de répondre aux besoins. Le développement de la modélisation, de la visualisation avancée et des bases de données en Sciences de la Terre requièrent un accès très interactif et aisé aux grands centres. Les grands centres nationaux du CINES et de l'IDRIS ont des ressources qui n'ont plus rien d'exceptionnel au regard de celles dont disposent de nombreux landers en Allemagne.. Une telle différence ne peut qu'accroître le retard de la communauté française de modélisation géophysique. De plus les centres nationaux français sont saturés, il est donc nécessaire de renforcer la granularité des centres nationaux via une sélection plus rigoureuse des projets les plus dimensionnants. Un nombre adéquat de centres mésoinformatiques, et leur insertion au sein d'une grille de calcul et de données favoriserait une telle sélection. Les besoins des Sciences de la Terre passent donc par une nouvelle réflexion sur la politique des mi-lourds informatiques à l'INSU et au CNRS. Rapport Sept 2004 v 1.1 25 VI – Conclusions et Recommandations Remarques à caractère général: Les ressources françaises en calcul intensif ont cessé d’être compétitives vis à vis des concurrents européens et mondiaux, une remise à niveau est urgente. A l’IDRIS, le retard vient d’être en partie comblé pour le calcul scalaire-parallèle mais il est majeur et croissant pour le calcul vectoriel. Les besoins en calcul intensif sont très différenciés selon les disciplines du secteur SDU: o Pour le climat, le recours à des machines vectorielles est pour le moment vital. La disponibilité d’une machine vectorielle puissante conditionne à court terme la survie des recherches climatiques françaises. o Pour l'océanographie et la météorologie les recherches peuvent utiliser aussi bien des machines vectorielles-parallèle que scalaire-parallèle. o Pour l'Astrophysique et les Sciences de la Terre les besoins sont focalisés presque exclusivement sur des machines scalairesparallèles, voire sur des clusters locaux. Remarques spécifiques pour les recherches climatiques: Les ressources disponibles à l’IDRIS pour la modélisation climatique, essentiellement vectorielles, sont inférieures d’un facteur 5 à 10 à celles des centres climatiques britanniques et allemands. La résolution spatiale des simulations climatiques réalisables à l'IDRIS ne remplit plus les minima requis pour participer aux grands exercices internationaux d'étude des scénarios "Global Change". La confrontation des objectifs affichés dans la prospective INSU aux capacités de l'IDRIS montre qu'une augmentation par un facteur 10 de la puissance vectorielle est indispensable pour poursuivre le développement de la modélisation climatique en France. 26 La parallèlisation du modèle climatique couplé atmosphère-océan complet doit être un objectif prioritaire. Seul un modèle climatique couplé parallèle permettra de tirer profit des machines futures, que celles-ci soient vectorielles ou non. Il en va de la survie de la filière française de modélisation climatique couplée. Il est recommandé à l'INSU-SDU de faire un effort vigoureux (financier et/ou en personnel) pour aider à l'achèvement rapide de la parallèlisation du modèle climatique couplé complet de l'IPSL. Si ce travail n'est pas achevé dans un délai de l'ordre de deux années, la pleine puissance de la nouvelle machine vectorielle de l'IDRIS restera sous-utilisée. Cet investissement est donc stratégique aussi bien pour l'INSU-SDU que pour l'IPSL. Les scientifiques du secteur climat-environnement souhaitent vivement participer à un projet européen de centre communautaire de recherche climatique, mais la réussite d'une telle coopération implique de disposer au niveau national, en particulier à l'IDRIS, de machines compétitives permettant de développer et tester les codes avant de les exposer au contexte hyperconcurrentiel d'un futur centre communautaire de calcul extrême. Remarques concernant les autres disciplines: A moyen terme, l'ensemble de la communauté SDU souhaite que les ressources scalaires-paralléles continuent de progresser afin de maintenir la compétitivité de l'IDRIS vis-à-vis des centres nationaux allemands et britanniques comparables. Cette évolution est en particulier vitale pour la poursuite des grands projets en océanographie, en météorologie, en astronomie, en astrophysique, et dans plusieurs secteurs des sciences de la Terre. En océanographie, la coordination entre les machines de recherche à l'IDRIS et les machines à vocation opérationnelle utilisées par le projet MERCATOR est souhaitée afin de rendre possible (en particulier) les réanalyses océanographiques qui sont indispensables pour certains travaux de recherche dans les laboratoires SDU En Sciences de la Terre, la mise en place de centres méso-informatiques dotés de machines intermédiaires parallèles s'intercalant entre les grands centres nationaux et les équipements locaux de laboratoires est souhaitée. Ceci implique probablement une nouvelle réflexion sur la définition des milourds informatiques INSU et CNRS. Rapport Sept 2004 v 1.1 27