1 www.onera.fr PROPOSITION DE SUJET DE THESE Intitulé : Méthodes d'éléments finis frontières auto-adaptatives pour la simulation de grandes scènes en propagation d'ondes. Référence : TIS-DTIM-2017-021 (à rappeler dans toute correspondance) Laboratoire d’accueil à l’ONERA : Branche : Traitement de l'information et systèmes Lieu (centre ONERA) : Toulouse Département : Département Traitement de l'Information et Modélisation Unité : M2SN Responsable ONERA : S. Pernet D. Levadoux et Tél. : 0562252634 Email : [email protected] Directeur de thèse envisagé : Nom : Adresse : Tél. : Email : Sujet : L’efficacité des méthodes d'équations intégrales pour résoudre nombre de problèmes de diffractions d'ondes est désormais un fait avéré, particulièrement lorsque ces problèmes sont complexes et de grandes tailles. Dans ce domaine, l'ONERA est un acteur majeur, particulièrement reconnu grâce à son code de simulation électromagnétique NumWorks/Maxwell3D qui porte à un haut niveau de performance ce type de méthodes: http://www.onera.fr/fr/actualites/un-bond-dans-le-temps-de-calculde-la-signature-radar. Mais si ces méthodes sont précises et rapides, elles réclament à leurs utilisateurs un niveau d'expertise important. En effet, la création de l'espace d'approximation de la solution nécessite de construire un maillage qui soit fidèle à la complexité géométrique du problème et qui permette de contrôler l'erreur numérique de la solution. Il en résulte des opérations de pré ou post-traitement coûteuses en temps ingénieur car la création d'un maillage satisfaisant ces contraintes n'est jamais automatique et nécessite l'utilisation longue et souvent délicate de logiciels de CAO/maillages. De surcroît, comme l'erreur numérique est difficile à calculer après un calcul, l'utilisateur préfère surmailler a priori toutes les zones « douteuses » (singularités géométriques, contrastes matériaux, etc.). Il en résulte une perte d'optimalité de la méthode et parfois, lorsque la physique sous-jacente du problème n'est pas triviale, une solution numérique instable et peu fiable (cf. Le cas CrossRoll du workshop EM ISAE 2014 http://websites.isae.fr/IMG/pdf/cas_test_3a.pdf). Afin de répondre a ces difficultés, nous proposons de mettre en place un algorithme de raffinement auto-adaptatif capable de générer une suite de maillages garantissant une décroissance de l'erreur d'approximation sous un seuil prescrit par l'utilisateur et certifiant ainsi la validité du calcul. Rappelons qu''un algorithme de raffinement auto-adaptative consiste à réaliser en boucle les actions suivantes: 1. calcul de la solution numérique GEN-F160-7 (GEN-SCI-029) 2 2. estimation de l’erreur sur l’ensemble du maillage 3. marquage des éléments du maillage où cette erreur est la plus grande 4. raffinement des zones marquées Ce processus est répété jusqu'à ce que l'erreur soit inférieure au seuil prescrit. On peut donc imaginer partir d’un maillage grossier mais généré rapidement, puis prescrire une erreur cible et enfin laisser l’algorithme auto-adaptatif générer la suite des maillages jusqu’à convergence de l’erreur. Un des points clés du raffinement auto-adaptatif est la construction d'indicateurs d'erreur a posteriori capables de guider efficacement l'algorithme. L'ONERA a récemment ouvert un axe de recherche dans ce domaine pour la modélisation par équations intégrales et a proposé via la thèse de Marc Bakry [1] de nouveaux indicateurs a posteriori fiables et efficaces qui permettent d'envisager une résolution autoadaptative optimale. L’objectif de cette thèse est de réaliser une avancé dans le domaine de la simulation numérique des phénomènes de propagation d'ondes par formulations intégro-différentielles en mettant en place un algorithme de raffinement auto-adaptatif efficace pour des applications de grandes tailles. Si ce type d'approche est déjà bien éprouvé pour les méthodes élément fini standards il reste un challenge pour les méthodes intégrales du fait de la diversité et la complexité des algorithmes mis en œuvre (solveurs direct/itératifs, préconditionneurs algébriques/analytiques, produits matrices vecteurs rapides FMM ou H-matrix, etc.). Cependant les compétences acquises dans ce domaine à l'ONERA sont nombreuses et permettent de relever le défi. En résumé, la thèse a pour ambition de concevoir un algorithme auto-adaptatif permettant : • de garantir la précision d’un calcul par rapport à une prescription de l’utilisateur, • de construire un maillage "idéal" du point de vue de la simulation, • de réduire le coût global du calcul en économisant du temps ingénieur lors de la génération du maillage. Nous proposons trois axes de recherche pour réaliser cette objectif : 1. Le schéma classique de résolution par équations intégrales est l'utilisation d'un solveur itératif dont le produit matrice-vecteur est accéléré par une méthode FMM (Fast Multipole Method). La mise en place d'un algorithme de raffinement auto-adaptatif nécessite naturellement un certain nombre de modifications dans ce schéma afin d'assurer la performance du code de calcul. En effet, cet algorithme va produire localement des zones raffinées, voire très raffinées (i.e. un maillage multi-échelle) qui sont généralement néfastes pour les performances des solveurs basés sur une méthode FMM standard. Il est donc impératif de posséder une méthode d'accélération efficace pour ce type de configurations. Des solutions dans la littérature (FMM base multi-fréquence [2], H-matrix [3]) seront le point départ pour concevoir le produit matricevecteur efficace pour ce type de maillages. D'autre part, à chaque itération, l'algorithme de raffinement produira uniquement des modifications locales du maillage donc de la matrice à inverser. Il sera donc primordial de mettre en place des structures évitant la reconstruction globale à chaque raffinement de toutes les données nécessaires pour effectuer les produit matrice-vecteur (voir [4] ). 2. La technique proposée dans [1] offre aussi une approche naturelle pour déterminer une estimation de l’erreur algébrique induite par l’utilisation d’un solveur itératif. Cette estimation sera de même nature que l’erreur de discrétisation (norme sous-jacente à la méthode d’approximation) et devrait ainsi permettre de proposer des critères d’arrêt efficace. Plus précisément, les estimateurs d'erreur a posteriori que l'on a évoqué précédemment sont utilisés pour répondre à la question : quelle est la distance entre la solution approchée uh et la solution exacte u de notre problème ? Leur construction est basée sur l'hypothèse que le problème discret a été résolu de façon exacte. Or en pratique, on utilise souvent un solveur itératif pour GEN-F160-7 (GEN-SCI-029) 3 inverser le système linéaire, et donc, pour pouvoir utiliser les indicateurs d'erreur dérivés pour uh , il faut utiliser un critère d'arrêt très petit afin de s'assurer que la solution calculée ua soit proche de uh . Ceci peut induire une augmentation substantielle du coût de calcul sans aucune amélioration supplémentaire de l'erreur globale. Notre objectif est de donner une estimation précise de l'erreur u -ua par le biais d'un estimateur d'erreur a posteriori de la forme µd+µa où µd et µa estiment respectivement l'erreur de discrétisation et l'erreur algébrique. On peut alors choisir comme critère d’arrêt pour le solveur itératif une condition du type µa ≤β µd avec 0 <β<1 (voir [5]). Autrement dit, on utilise un équilibrage entre l’erreur de discrétisation et l’erreur algébrique pour déterminer un critère d’arrêt. Le but est d’éviter de faire un grand nombre d’itérations à partir du moment où l’erreur algébrique passe en dessous de l’erreur de discrétisation et ainsi de faire une économie importante en terme de coût calcul. 3. Ce dernier axe s’intéressera à la preuve théorique la convergence quasi-optimale de l’algorithme de raffinement auto-adaptatif c'est à dire que nous tenterons de démontrer que ce dernier produit la meilleure suite de maillages possible pour un problème donné. Nous avons déjà prouvé ce type de résultat dans [1] pour un algorithme guidé par une localisation standard du résidu et pour une résolution directe du système linéaire. Ici, on s'attachera à étendre le résultat aux algorithmes guidés par les indicateurs a posteriori construits à partir de la nouvel technique de localisation proposée dans [1] et en considérant une résolution itérative du système linéaire contrôlée comme prévu dans 2. Ce résultat non trivial assurera la robustesse du nouvel l'algorithme. Finalement, les approches proposées seront implémentées dans le code NumWorks/Maxwell3D. [1] Marc Bakry. Fiabilité et optimisation des calculs obtenus par des formulations intégrales en propagation d'ondes, doctorat en mathématiques appliquées, Université Paris-Saclay, 2016. [2] Stéphanie Chaillat, Francis Collino. A Wideband Fast Multipole Method for the Helmholtz Kernel: Theoretical Developments, Computers and Mathematics with Applications, 2015 , 70. [3] Wolfgang Hackbusch, Hierarchical matrices : algorithms and analysis, Springer series in computational mathematics, 2015. [4] Jelena Djokic, E cient Update of Hierarchical Matrices in the case of Adaptive Discretisation Schemes, Phd university of Leipzig, 2006 . [5] P. Jiránez, Z. Strakos, and M. Vohralík. A posteriori error estimates including algebraic error and stopping criteria for iterative solvers. SIAM J. Sci. Comput., 32 :1567–1590, 2010. Collaborations extérieures : Marc Bakry (INRIA Defi ) PROFIL DU CANDIDAT Formation : Université ou école d’ingénieur Spécificités souhaitées : Mathématiques appliquées, EDP, analyse numérique, éléments finis et fortran GEN-F160-7 (GEN-SCI-029)