Version 1.4 Le calcul scientifique au LPNHE Paris Etat des lieux – 9 mai 2016 Auteurs : P.Astier, T. Beau, O. Dadoun, F. Derue, V. Gligorov, B. Laforge, JPh. Lenain, V. Mendoza, F. Polci Laboratoire de Physique Nucléaire et de Hautes Énergies, UPMC et Université Paris-Diderot et CNRS - IN2P3 1er étage, barre 12/22, 4 place Jussieu, 75252 Paris Cedex 05 Ce document décrit les besoins en calcul scientifique au LPNHE Paris [1]. 1) Le contexte scientifique au LPNHE L'effort en physique expérimentale au LPNHE s'effectue dans le contexte de collaborations internationales travaillant auprès d'accélérateurs ou d'observatoires. Les principaux axes de recherche en physique des particules sont sur l'identification des composantes du secteur du Modèle Standard de la physique des particules associées à la brisure spontanée de la symétrie électrofaible, à travers la recherche et l'étude de nouvelles particules (comme le boson de Higgs) et/ou des mesures de précision, la compréhension de l'asymétrie matière-antimatière ou les propriétés du neutrino. Ces processus fondamentaux affectent, à différents niveaux, le contenu et la dynamique de la formation des structures dans l'Univers, et le LPNHE poursuit des observations dans les domaines de la physique des astroparticules et en cosmologie. Ces activités sont complémentaires des mesures effectuées auprès des accélérateurs. 2) Le calcul scientifique Le calcul scientifique est un outil indispensable dans de nombreux domaines scientifiques. Il peut s'agir de simulations ou de modélisations de systèmes de plus en plus réalistes et complexes, qui nécessitent des supercalculateurs massivement parallèles ou l'accès à la grille de calcul (ou d'infrastructure comme le cloud computing). On peut, par ailleurs, avoir besoin d'analyser ou de visualiser de gros volumes de données issues d'expériences ou de simulations numériques. Il peut également être question de trouver des correspondances dans de grandes bases de données dont l’analyse serait tout simplement impossible sur des ordinateurs individuels. Cette démesure dans le stockage données (dont les unités on largement dépassées les peta octets) et dans l’analyse numérique (dont la grille de calcul est le meilleur exemple) sont regroupés dans le terme « Big Data » ou science des données. Le Big Data fait ainsi figure de révolution numérique non seulement dans le domaine scientifique mais aussi dans les domaines plus larges qui vont des sciences sociales au journalisme en passant par les réseaux sociaux. 2.1) Le calcul HPC Le calcul haute performance (HPC), ou calcul intensif, a été l'objet d'un livre blanc [2] du CNRS et a été édité par le COCIN (Comité d'orientation pour le 1 Version 1.4 calcul scientifique). Ces moyens de calcul sont disponibles à différentes échelles : Tier 0 : au niveau européen, des moyens de capacité petaflopique sont accessibles par le biais de l'infrastructure PRACE [3] dont la France, représentée par GENCI [4], est un des membres fondateurs. Tier 1 : au niveau national, il s'agit de moyens d'une puissance de plusieurs centaines de teraflop/s, qui sont ceux des centres nationaux dont l'action est coordonnée par GENCI, ainsi que du CCIN2P3. Tier 2 : au niveau régional, ce sont des moyens d'une puissance inférieure à typiquement 50 teraflop/s et généralement exploités par les centres universitaires (mésocentres ou grille). Avec le projet Equip@Meso [5], porté par GENCI, une dizaine d'entre eux, répartis sur tout le territoire national, ont été significativement renforcés pour offrir un meilleur service. Tier 3 : au niveau des laboratoires individuels. 2.2) La grille de calcul et le cloud computing La grille (ou le cloud computing) est un moyen de partager de manière sécurisée les capacités de calcul et de stockage à travers l’internet grâce à des réseaux de plus en plus rapide (la dizaine de Giga bits étant usuel on parle maintenant de liaison à plusieurs centaines de Giga bits entre certain sites). C'est un outil indispensable à la communauté scientifique dans de nombreuses disciplines allant de la physique des hautes énergies aux sciences humaines, en passant par les sciences de la vie et de la planète. Aujourd’hui, plus de 300 sites à travers le monde sont connectés à cette grille. La communauté de physique des particules a développé son propre projet WLCG [6] qui représente la plus grande partie de l’infrastructure de la grille. Elle utilise l'intergiciel développé pour le projet européen EGI (European Grid Infrastructure [7]). En 2010, une organisation permanente a été créée pour maintenir l’opération et le développement de la grille au niveau européen avec EGI. Les Initiatives de Grille Nationales (NGI) sont des organisations mises au point au niveau national, en charges du suivi de ces grilles, en relation avec l’EGI. En France, c’est le Groupement d’Intérêt Scientifique France Grilles [8]. La grille de production française est labellisée Très Grande Infrastructure de Recherche. Les besoins des communautés scientifiques en termes de grille de calcul ont été répertoriés dans un livre blanc en 2009 [9]. Les projets WLCG, dans le cadre d'un Memorandum of Understanding [10], et LCG France [11,12,13] ont défini ces objectifs pour la physique des hautes énergies auprès du LHC. Les données produites par le LHC sont distribuées selon un modèle hiérarchique à quatre niveaux notés Tier-0 à Tier-3, les deux premiers dédiés principalement à la reconstruction et à la sauvegarde pérenne des données, les deux derniers principalement aux analyses de données et simulations. 3) Ressources de calcul accessibles au LPNHE Une page web du laboratoire répertorie ces ressources [14]. 2 Version 1.4 3.1) Au CERN Le CERN [15] développe un projet visant à mettre à disposition différentes plateformes de calcul HPC, dans un mode « best effort ». Celui-ci contient différents types de cartes GPU, Phi, etc. Le projet s'appelle TechLab [16]. 3.1) Au CCIN2P3 Le CCIN2P3 [17] offre une grande variété de calculateurs [11]. Parmi ceux-ci il y a environ 1400 processeurs (Intel(R) Xeon(R) CPU E5-2698 v3 @ 2.30 GHz) disponibles pour le calcul parallèle. Le CCIN2P3 voit aussi une montée en puissance de fermes de calculs parallèles. 3.2) Dans les Universités Les membres du LPNHE ont accès aux ressources de calcul de leurs universités de tutelle : L'UPMC [18] et Sorbonne Université [19] se sont dotées en 2012 d'un nouvel institut, l'Institut du Calcul et des sciences des données (ICS) [20]. L'ICS gère une plateforme de calculateurs HPC (clusters, machine à grande mémoire partagée, GPUs), soit un ensemble de plus de 10000 cœurs, pour une puissance de calcul totale avoisinant les 200 Tflop/s. L'Université Paris-Diderot [21] et l'USPC [22] ont aussi des ressources de calcul disponibles, environ 5000 cœurs de calcul. 3.3) Au LPNHE Un nœud de la grille de calcul est implanté au LPNHE, c'est le projet GRIF (Grille de calcul au service de la Recherche en Ile de France [23]). Le projet regroupe les six laboratoires de physique des hautes énergies d’île de France pour mettre en place une ressource unique de calcul et de stockage basée sur les technologies des grilles de calcul et du cloud. Le but du projet est : d’être un centre de calcul et de stockage majeur, appelé Tier 2 et Tier 3 pour les expériences auprès du LHC (« Large Hadron Collider ») au CERN, dans le cadre du projet WLCG. De répondre aux besoins de calcul et de stockage des autres expériences des laboratoires impliqués tout en préservant une partie des ressources pour un cadre pluridisciplinaire dans le cadre de la grille EGI. L'ensemble du projet représente environ 10000 cœurs de calcul et environ 8 péta-octets d'espace de stockage. Le projet GRIF au LPNHE dispose en 2016 des ressources suivantes : environ 3200 cœurs de calcul équivalant à une puissance de calcul de 32000 HEP-SPEC06. Sur ce total, le LPNHE contribue pour 20200 HEP-SPEC06 et l'Institut des Systèmes Complexes Paris-Île de France [24], qui a installé une partie de ses ressources informatiques au LPNHE dans le cadre d'un accord, pour 11800 HEP-SPEC06. environ 1900 To utiles d'espace de stockage. des liens à 10 Gbit/s à travers RENATER [25]. 3 Version 1.4 Le LPNHE possède depuis début 2016, des cartes GPUs et XeonPhi, pour permettre aux membres du laboratoire de se familiariser avec ces technologies : deux processeurs Intel Xeon Phi Coprocesseur 5110P (8 GB, 1.053 GHz, 60 cores). deux cartes GPU K2200, chacune avec 5 multiprocesseurs de 128 cœurs, 4 Go GDDR5, soit 1280 cœurs au total. 4) Besoins des groupes de physique On répertorie ici les besoins en calcul scientifique des groupes de physique. 4.1) Masses et Interactions Fondamentales Le groupe ATLAS [26] du LPNHE est impliqué dans la mise en place des moyens de calcul et de stockage au laboratoire : le groupe participe au développement du projet GRIF au laboratoire dont un de ses membres (F.Derue) est le responsable scientifique. Le groupe bénéficie d'une grande partie des ressources du site, pour près de 60 % de la puissance de calcul utilisée en 2015 et près de 70 % de l'espace de stockage. L'évolution des ressources du projet GRIF est en grande partie dictée par les besoins de l'expérience ATLAS. La majeure partie du budget du projet GRIF provient de LCG-France pour les besoins en calcul des expériences auprès du LHC. Le groupe bénéficie des ressources de la grille de calcul à travers toute la reconstruction des données, la production de simulation et l'analyse de données. le groupe est impliqué dans la mise à disposition des ressources de calcul de type GPU au laboratoire avec deux physiciens du groupe, avec l'ensemble des tests initiaux et de l'écriture de la documentation, en collaboration avec le service informatique. Le groupe est impliqué dans le développement des ressources de calcul à l'UPMC, Frédéric Derue a fait partie du comité stratégique de calcul à l'UPMC (2010-2012) et maintenant du comité de pilotage BigData. le groupe est impliqué dans le groupe de travail Calcul Atlas France, regroupant les efforts des groupes français en calcul (principalement pour la grille). La collaboration ATLAS a entrepris depuis plus de deux ans des études pour utiliser des ressources de calcul de type HPC et pour faire évoluer son logiciel vers une plus grande utilisation du parallélisme. Ceci sera important en particulier vu l'accroissement des besoins pour les Run 3 et 4 du LHC. Le groupe du LPNHE a lui aussi commencé à participer à cet effort : Les ressources de calcul HPC de l'UPMC (plus de 10000 cœurs de calcul parallèle) pourraient être utilisées par le système de production de l'expérience ATLAS, soit dans le cadre d'une utilisation opportuniste 4 Version 1.4 en mode CPU soit une réelle utilisation des capacités de calcul parallèle. Là, les progrès sont lents, dus au manque de personnel impliqué à la fois dans le groupe mais aussi au niveau du support utilisateur disponible sur ces machines. Une veille technologique est effectuée, en participant à l'effort commun soit dans les groupes de travail correspondant dans ATLAS, soit dans le cadre de la HEP-software foundation [27]. Le groupe bénéficierait des développements effectués dans la collaboration GEANT pour paralléliser ce logiciel utilisé dans toutes les simulations. Certaines analyses de physique dans lesquelles le groupe est impliqué sont particulièrement demandeuses en puissance de calcul : L'une des méthodes pour mesurer la masse du quark top est la méthode des éléments de matrice qui calcule un poids pour chaque événement quantifiant la probabilité qu'un modèle théorique (dépendant de la masse du quark top) reproduise les données. Ce calcul nécessite une intégration numérique dans un espace de phase multidimensionnel qui est effectué à l'aide de l'algorithme d'intégration Monte Carlo VEGAS. Le temps requis pour effectuer une telle intégration est de plusieurs secondes par événement, impliquant au final plusieurs millions d'heures de calcul pour obtenir une mesure avec l'ensemble des systématiques. Deux thèses ont été effectuées dans le groupe, avec les données à 7 TeV et 8 TeV, en utilisant les ressources de la grille de calcul. Depuis le groupe investigue de nouvelles versions des programmes, toujours basées sur VEGAS, en particulier pour l'utilisation des clusters de machines parallèles accessibles à l'UPMC ainsi que les cartes GPU/XeonPhi disponibles au laboratoire. Ces études et développements sont assez proches de ceux effectués au LLR Palaiseau pour le groupe CMS, là aussi pour des calculs d’éléments de matrice basés sur VEGAS. Cette convergence avait déjà été utilisée dans le cadre d'une demande ANR (non obtenue) appelée LPaso (LHC Parallel Software), regroupant les groupes ATLAS, CMS et LHCb du LAL, LLR et LPNHE. Le groupe est intéressé à utiliser des ressources HPC pour améliorer la rapidité et la complexité de certains ajustements (fits) complexes, en particulier dans les études sur le boson de Higgs. Le groupe pourrait bénéficier de l'utilisation de ressources HPC pour effectuer plus rapidement des simulations de senseurs pixels pour le système de trajectographie Itk (Inner Tracking) pour l'upgrade du détecteur pour la phase de haute luminosité. Ces simulations utilisent TCAD (Technology Computer Aided Design) pour développer et optimiser des technologies basées sur des semiconducteurs pour des 5 Version 1.4 capteurs planaires. Les versions actuelles des logiciels ne sont pas portables sur GPU. Le groupe est par ailleurs intéressé à la problématique « Big Data » en particulier les aspects de « Machine Learning ». L'utilisation des techniques de « Machine Learning » est particulièrement importante pour les expériences du LHC afin d'extraire le maximum d'information des données sur toute potentielle découverte de nouvelle physique. Cela comprend aussi bien l'utilisation de techniques de séparation de signaux et de bruits de fond que des techniques de régressions multivariées. En particulier, une catégorisation des événements utilisant la précision de la mesure des objets mesurés devrait pouvoir améliorer la sensibilité de la recherche d'une nouvelle résonance dans le canal d'étude du Higgs en deux photons. Des progrès récents concernant des techniques à base de réseaux de neurones (Deep Learning) seront également investiguées pour améliorer la reconstruction de l'énergie des gerbes électromagnétiques en utilisant la forme des gerbes électromagnétiques en utilisant leurs formes dans le calorimètre d'ATLAS. Des ateliers dédiés sont organisés dans la collaboration ATLAS et des membres y participent. Un membre du groupe fait aussi partie du comité de pilotage « Big Data » de l'UPMC. Personnes impliquées : - Tristan Beau (TBC): HPC/GPU - Frédéric Derue : grille et cloud (GRIF), HPC/GPU, BigData (UPMC) - Bertrand Laforge (TBC): Machine Learning 4.2) Asymétrie Matière-Antimatière Le groupe LHCb [28] du LPNHE bénéficie de la mise en place des moyens de calcul et de stockage au laboratoire : Il bénéficie d'une grande partie des ressources du site, pour près de 10 % de la puissance de calcul utilisée en 2015 et près de 8 % de l'espace de stockage. L'évolution des ressources du projet GRIF est en partie dictée par les besoins de l'expérience LHCb. La majeure partie du budget du projet GRIF provient de LCG-France pour les besoins en calcul des expériences auprès du LHC. Le groupe bénéficie des ressources de la grille de calcul à travers toute la reconstruction des données, la production de simulation et l'analyse de données. La collaboration LHCb a développé pour le Run2 actuellement en cours un système de déclenchement (HLT) ayant les mêmes algorithmes qu'au niveau de la reconstruction hors ligne. Il inclut un alignement du détecteur et un étalonnage en temps réel, ce qui est une première en physique des hautes énergies. Ce type de système de déclenchement permettra de reconstruire toutes les traces de chaque événement à un taux de 40 MHz pendant le Run3. 6 Version 1.4 Pour atteindre ce but, et le maintenir pour les futurs Run du LHC, un haut niveau de parallélisme devient indispensable. En particulier, pour le Run3 environ 100 fois plus de données seront à traiter. L'investissement financier dans la ferme de processeur en ligne sera quant à elle elle diminuée d'un facteur deux. La difficulté principale est d'utiliser plus efficacement la mémoire partagée d'une architecture multi-cœurs, et d'éliminer les pertes dues aux pertes de caches etc. Le traitement actuel des données est en fait un quasi-parallélisme dans lequel chaque cœur traite un événement différent, en agissant essentiellement comme une unité de calcul indépendante. Il est nécessaire d'obtenir une réelle approche multi-taches traitant plusieurs événements en parallèle sur chaque cœur et en utilisant de manière efficace des accélérateurs de type FPGA/GPU lorsque c'est possible. Une difficulté additionnelle est le besoin d'envoyer les données entre ces différentes architectures de calcul. Les algorithmes doivent être testés sur différents types d'architectures: multicœurs, GPU et XeonPhi. De telles techniques de reconstruction de traces sont intéressantes pour LHCb mais pourront aussi être appliquées pour les autres expériences au LHC. Cette convergence avait déjà été utilisée dans le cadre d'une demande ANR (non obtenue) appelée LPaso (LHC Parallel Software), regroupant les groupes ATLAS, CMS et LHCb du LAL, LLR et LPNHE. Le groupe est intéressé à utiliser des ressources HPC pour améliorer la rapidité et la complexité de certains ajustements (fits) complexes. Le groupe est par ailleurs intéressé à la problématique « Big Data » en particulier les aspects de « Machine Learning ». Tous ces développements sont cruciaux pour que LHCb obtienne des performances optimales non seulement pour la physique du quark b, mais aussi pour atteindre son potentiel maximal pour la physique du quark charme, des kaons, pour la matière noire à basse masse (A', dark photon, etc) et pour les recherches exotiques. Ces signatures « molles » ou à basses impulsions dépendent de manière critique de la disponibilité de la reconstruction complète au niveau du système de déclenchement. Personnes impliquées : - Vladimir Gligorov (TBC): HPC/GPU, Machine Learning - Francesco Polci (TBC): logiciel 4.3) Nature et Origine du Rayonnement Cosmique de Hautes Energies Les groupes CTA [29] et H.E.S.S. [30] du LPNHE bénéficient de la mise en place des moyens de calcul et de stockage au laboratoire : Le groupe H.E.S.S. bénéficie d'une partie des ressources du site, pour près de 5 % de la puissance de calcul utilisée en 2015 et 15 % de l'espace de stockage. Une grande majorité des simulations pour 7 Version 1.4 H.E.S.S. est depuis 2013 produite sur la grille EGI, à l'initiative d'un chercheur du LPNHE, qui est également en charge de leur production au niveau français pour la collaboration. Le groupe bénéficie des ressources de la grille de calcul principalement pour la production de simulation. L'analyse de données est assurée au CCIN2P3. Concernant CTA, l'ensemble des simulations utilisées dans les phases de design et de prototypage ont été générées sur la grille EGI, supportée en bonne partie par le laboratoire, tant en puissance de calcul qu'en capacité de stockage. Le groupe est par ailleurs intéressé par les aspects HPC et notamment dans le calcul GPU. En effet, la reconstruction des événements et l'analyse des données acquises par les télescopes Cherenkov reposent directement sur l'étude d'image et la reconnaissance de forme, qui se prête potentiellement particulièrement bien au calcul GPU. Avec un taux d'acquisition tel qu'une reconstruction à la volée est envisagée, CTA pourrait grandement bénéficier de tels développements. Personnes impliquées : - Jean-Philippe Lenain : grille, HPC/GPU. 4.4) Matière Noire et Energie Noire Le groupe cosmologie du LPNHE poursuit trois axes de recherche qui font intervenir des volumes de calcul et/ou du travail de développement importants: les développements logiciels pour le traitement d'images d'astronomie, originellement pour SNLS et aujourd'hui plutôt pour LSST; des développements logiciels pour le traitement des données de DESI; la production et l'analyse de simulations à N corps dans le but d'étudier les méthodes de simulation cosmologique. LSST: Les développements logiciels pour LSST au laboratoire sont aujourd'hui concentrés sur un point précis du traitement: l'astrométrie relative d'un ensemble d'images. En pratique, le cœur du calcul consiste à remplir et résoudre efficacement un système linéaire creux. Contrairement à nos anticipations, cet algorithme ne semble pas nécessiter de techniques avancées dans sa partie calcul, au moins à l'échelle de nos tests. En revanche, comme la plupart de étapes de réduction de données pour LSST (et l'imagerie astronomique en général), l'algorithme est limité par le débit de données. Les centres de calcul impliqués dans LSST (dont le CCIN2P3) étudient les infrastructures matérielles adaptées à ces besoins, et notre aide dans le domaine consiste à leur fournir des prototypes d'éléments de traitement. Les développements logiciels et scientifiques pour LSST s'appuient sur l'expérience acquise dans SNLS et sur la réduction des données des projets dits "intermédiaires". L'ensemble du groupe "cosmologie" développe sur une machine locale dotée d'entrées/sorties rapides, qui accueille également l'essentiel les analyses de physique. 8 Version 1.4 En ce qui concerne l'analyse de données pour LSST, la définition des besoins est en cours, dans le cadre du CC. Il est déjà clair qu'elle dépasse largement la dimension des moyens locaux, et qu'elle sera donc implémentée au CC. Personnes impliquées : - Pierre Astier : logiciel - Nicolas Régnault : logiciel DESI : Le groupe IN2P3 DESI (LPNHE, APC,CPPM) participe au développement du traitement de données spectroscopiques DESI, depuis les images CCD brutes jusqu'à l'identification spectroscopique des sources, et la mesure de leur redshift. Le traitement des données DESI sera réalisé à NERSC, il n'est donc envisagé que le traitement d'une petite partie des données dans les laboratoires IN2P3 pendant la phase de développement du pipeline. En 2019, avec le début des prises de données, il sera nécessaire d'avoir en France (au CCIN2P3?) une copie des données spectroscopiques. A la fin du projet (2025) cela représentera ~ 50To (10To/an pendant 5 ans). Le groupe aura en revanche besoin de ressources de calcul significatives pour l'exploitation scientifique de ces données. Le calcul de fonctions de corrélation demande pour être efficace et réalisé dans un temps acceptable l'accès à des serveurs de calcul parallèle avec de nombreux cœurs, >~500. Nous n'avons pas aujourd'hui une évaluation précise de ces besoins. La possibilité de porter ces algorithmes sur GPU a été évoquée. Cela semble une piste intéressante à suivre. Maintenant, pour avancer sur le sujet, nous aurions besoin d'une aide d'experts du domaine pour évaluer le gain de temps calcul, les besoins matériels, et le temps de développement nécessaires pour porter les algorithmes sur ces plateformes GPU. Personnes impliquées : - Julien Guy - Christophe Balland eBOSS : Ces mêmes groupes sont aussi impliqués dans le projet eBOSS et participent à l'analyse des données. Les besoins en calcul sont identiques à ceux de DESI (calcul parallèle). Personnes impliquées : - Julien Guy - Christophe Balland Simulations à N corps: Les simulations à N corps conduites au laboratoire par M. Joyce et son équipe ne visent pas à contribuer directement à une analyse de cosmologie, mais plutôt à valider les méthodes couramment employées dans ce domaine, et dans les études numériques de systèmes thermodynamiques. En pratique, les moyens utilisés sont disponibles à l’UPMC (ICS). 9 Version 1.4 Personne impliquée : - Michael Joyce : logiciel, HPC 5) Service informatique Le service informatique est bien évidemment impliqué dans l'évolution des moyens de calcul et de stockage, ainsi que de l’évolution des logiciels, en particulier : V.Mendoza, ingénieur du service est en charge du projet GRIF au laboratoire et s'occupe de la mise en production du site. Il a aussi installé les cartes GPUs et XeonPhi et a travaillé avec des chercheurs pour les tester. Personnes impliquées : - Victor Mendoza : grille (GRIF), HPC/GPU - Olivier Dadoun : logiciel Références [1] LPNHE, http://lpnhe.in2p3.fr [2] Le livre blanc du calcul intensif https://www.cnrs.fr/inp/IMG/pdf/livre_blanc-calcul_intensifversion_finale_092512.pdf [3] PRACE, http://www.genci.fr/fr/articles-categories/prace [4] GENCI, http://www.genci.fr/ [5] Equipex EQUIP@MESO http://www.ics.upmc.fr/fr/projets/equip_meso.html [6] Le projet WLCG, http://lcg.web.cern.ch/LCG/ [7] Le projet EGI http://web.eu-egi.eu/ [8] France Grilles, http://www.france-grilles.fr [9] Livre blanc des grilles de production http://hal.in2p3.fr/in2p3-00408379/en/ [10] Memorandum of Understanding for Collaboration in the Deployment and the Exploitation of the Worldwide LHC Computing Grid; CERN-C-RRB-2005-01, http://lcg.web.cern.ch/LCG/CRRB/MoU/MoU.pdf [11] Le projet LCG France, http://lcg.in2p3.fr [12] LCG France project description, https://edms.in2p3.fr/document/I-0333981 [13] Protocole d'accord pour le maintien des site/s LCG France de 2013 à 2016 https://edms.in2p3.fr/document/I-033924/3 [14] Ressources de calcul au LPNHE, http://lpnhe.in2p3.fr/spip.php?rubrique270 [15] Le CERN : www.cern.ch [16] Le projet TechLab, http://concurrency.web.cern.ch/node/26 [17] Le CCIN2P3, www.cc.in2p3.fr [18] UPMC, www.upmc.fr [19] Sorbonne Universités, http://www.sorbonne-universites.fr/ [20] Institut de Calcul et des Sciences des données, http://ics.sorbonne-universites.fr [21] Université Paris-Diderot, http://www.univ-paris-diderot.fr/ 10 Version 1.4 [22] USPC, http://www.uspc.fr/ [23] Le projet GRIF : http://www.grif.fr Le projet GRIF au LPNHE, http://lpnhe.in2p3.fr/grif [24] Institut des Systèmes Complexes Paris-Ile de France, http://iscpif.fr [25] RENATER, http://www.renater.fr [26] la collaboration Atlas, http://atlas.ch [27] HEP software foundation, hepsoftwarefoundation.org/ [28] la collaboration LHCb, http://cern.ch/lhcb [29] la collaboration CTA, https://www.cta-observatory.org [30] la collaboration HESS, https://www.mpi-hd.mpg.de/hfm/HESS 11 Version 1.4 Le calcul scientifique au LPNHE Paris Les personnes impliquées Personnes impliquées Pierre Astier Activités calcul logiciel Groupe /Service LSST/SSP/WtG Christophe Balland Tristan Beau Olivier Dadoun Frédéric Derue DESI/eBOSS ATLAS Service informatique ATLAS LHCb Bertrand Laforge Jean-Philippe Lenain logiciel HPC/GPU logiciel grille et cloud (GRIF), HPC/GPU, BigData (UPMC) HPC/GPU, Machine Learning logiciel HPC logiciel Bertrand Laforge grille, HPC/GPU Victor Mendoza Francesco Polci Nicolas Regnault grille (GRIF), HPC/GPU logiciel logiciel Service informatique LHCb LSST/SSP/WtG Vladimir Gligorov Julien Guy Michael Joyce 12 DESI/eBOSS DSA ATLAS HESS/CTA