Mot-clés :
Particles-in-Cell, extreme intensity, 3D, pseudo-spectral methods, cache optimization, MPI patterns
Nouveaux algorithmes Particle-in-Cell pour une simulation 3D réaliste de l’interaction laser-
plasma à ultrahaute intensité
La technologie des lasers femtosecondes permet aujourd'hui d'atteindre des puissances
crêtes de plusieurs PetaWatt (PW). En focalisant un tel faisceau sur une cible, on atteint des
intensités lumineuses extrêmes, dépassant 1020 W/cm2, telles que la cible est ionisée et transformée
en plasma, au sein duquel le mouvement des électrons sous l'effet du champ laser est relativiste. Il
s'agit d'un régime extrême de l'interaction laser-matière, qui met en jeu une physique très riche,
impliquant de nombreux effets collectifs, et très intéressante d'un point de vue fondamental. De
plus, du fait des champs électromagnétiques considérables obtenus au foyer, ce régime d'interaction
permet d'accélérer les particules du plasma (électrons, ions) à haute énergie sur des distances
beaucoup plus petites que dans les accélérateurs de particules conventionnels, ce qui ouvre la voie à
des applications scientifiques et sociétales de cette physique extrême. Ces perspectives ont
récemment motivé de grands projets de recherche PW aussi bien à l'échelle nationale (projet
APOLLON) qu'internationale (Extreme Light Infrastructure – ELI, BELLA laser - LBNL).
Au cours des dernières décennies, les codes de simulation de type 'Particle-In-Cell' (PIC)
ont apporté un support théorique essentiel au développement de ce domaine de recherche, à la fois
en contribuant grandement à l'interprétation des expériences réalisées et à la compréhension de la
physique mise en jeu, mais aussi en permettant la prédiction de nouveaux effets ou régimes
d'interaction. Ces simulations ont jusqu'à présent été réalisées le plus souvent en considérant des
géométries 1D ou 2D, les cas 2D nécessitant parfois déjà l'usage de calculateurs massivement
parallèles. Or les progrès réalisés ces dernières années au niveau expérimental rendent à présent les
simulations 3D indispensables. D'une part, certains effets ne peuvent être reproduits que de façon
qualitative par les simulations 2D, ce qui n'est plus suffisant lorsqu'on arrive au stade des
applications des sources de lumière et de particules produites par ces interactions pour lesquelles on
souhaite avoir des prédictions quantitatives. D'autre part, certains effets ne peuvent tout simplement
pas être simulés en 2D, comme notamment le cas des interactions mettant en jeu des faisceaux
lasers 'structurés' en 3D, qui permettent d'introduire de nouveaux effets physiques dans ces
expériences (e.g faisceaux de type Laguerre-Gauss, ou les 'ressorts optiques').
Dans ce contexte, les simulations 3D deviennent donc incontournables pour l’étude de la
physique à ultrahaute intensité laser. Toutefois, dans ces régimes d’intensité, la méthode PIC
standard ne permet pas de réaliser des simulations 3D prédictives car elle utilise des solveurs de
Maxwell d’ordre 2 (solveur de Yee) qui sont sujets à de nombreuses instabilités numériques lorsque
les faisceaux de particules sont relativistes et les rayonnements émis s’étendent jusque dans le
domaine X-UV (dispersion numérique, effet Cerenkov numérique). A l’heure actuelle, la
suppression de ces instabilités requiert une résolution spatio-temporelle très importante qui
empêche la réalisation de simulations 3D dans des conditions similaires aux expériences et ce,
même sur les plus gros supercalculateurs du TOP 500 (http://www.top500.org).
Le challenge de cette thèse est d’implémenter une nouvelle méthode PIC dans le code
SMILEI, qui apportera la précision nécessaire à la réalisation de simulations 3D dans ces conditions
extrêmes d’interaction. Cette méthode utilisera des solveurs de Maxwell d’ordres très élevés, voire
pseudo-spectraux beaucoup plus stables que les solveurs d’ordre 2. En dépit de leur grande
précision, ces solveurs ont en revanche très peu été utilisés au cours des 30 dernières années car ils
utilisent des algorithmes de Fast Fourier Transform (FFT) globaux qui requièrent l’échange de gros
volumes de données entre tous les processeurs de la machine. Ceci limite actuellement la scalabilité
de ces solveurs à environ 10,000 cœurs, ce qui est largement insuffisant pour tirer profit des
millions de cœurs disponibles sur les superordinateurs, pourtant nécessaires à la réalisation de