Approche bayésienne pour la tomographie des temps de première arrivée Jihane BELHADJ Thomas ROMARY Alexandrine GESRET Mark NOBLE Tomographie sismique ▪ La tomographie des temps de première arrivée a pour objectif de cartographier le modèle de vitesse de propagation des ondes sismiques à partir des temps de première arrivée mesurés Figure: Les problèmes direct et inverse en tomographie des temps de première arrivée relient un modèle de vitesse aux temps de première arrivée pointés (en ligne rouge) sur un sismogramme. Etapes de la tomographie sismique Étapes de la résolution du problème inverse ▪ La paramétrisation du modèle de vitesse: Définir les inconnues du problème ▪ Le problème direct : Calculer les données à partir du modèle de vitesse ▪ L’inversion: Trouver un ou des modèle(s) qui correspond(ent) aux données observées Paramétrisation ▪ Détermination d’un nombre minimal de paramètres (paramètres principaux) ▪ Modèle approximé par une combinaison linéaire m(x) d’un nombre fini de fonctions de base ∅" 𝑀(𝑥) ≈ 𝑚(𝑥) = ) 𝑚𝑖 ∅𝑖 (𝑥) 𝑖 mi Paramètres du modèle Problème direct ▪ Temps de trajet des ondes P et S => Équation Eikonal Dans le cadre asymptotique haute fréquence 𝜕𝑡 2 𝜕𝑡 2 𝜕𝑡 2 ! % + ! % + ! % = 𝑠²(𝑥, 𝑦, 𝑧) 𝜕𝑥 𝜕𝑦 𝜕𝑧 t temps de trajet , s lenteur 𝑠(𝑥, 𝑦, 𝑧) = 1 𝑣(𝑥, 𝑦, 𝑧) ▪ En général, il n’existe pas de solution analytique à l’équation Eikonal => recourir à des méthodes de résolution numérique Solveur numérique pour un modèle de vitesse [Noble et al., 2014] Figure Exemple de temps de trajet calculés L’inversion ▪ 𝒅𝒐𝒃𝒔 ∈ ℝ𝒏 : Vecteur des données observées 𝒎 ∈ ℝ𝑵 ▪ Équation reliant les paramètres qui caractérisent un modèle de vitesse avec les obs données observées d 𝒅𝑜𝑏𝑠 = 𝐹(𝑚) ▪ Opérateur F non-­‐linéaire ▪ Problème inverse généralement mal posé (non unicité) ▪ Incertitude expérimentale ε: bruit 𝒅𝑜𝑏𝑠 = 𝐹 (𝑚) + ε L’inversion classique Opérateur F non-­‐linéaire ▪ Approches linéarisées cherchant à minimiser une fonction de coût C(m) représentative de ||dobs – dcal|| ▪ Résolution du problème inverse de manière itérative en linéarisant le problème à chaque itération autour du modèle issu de l’itération précédente Tiré de Taillandier et al., 2009 ▪ Algorithme facilement piégé dans un minimum local => Forte dépendance aux modèles initiaux L’inversion classique Opérateur F non-­‐linéaire ▪ Approches linéarisées cherchant à minimiser une fonction de coût C(m) représentative de ||dobs – dcal|| ▪ Résolution du problème inverse de manière itérative en linéarisant le problème à chaque itération autour du modèle issu de l’itération précédente Tiré de Taillandier et al., 2009 ▪ Algorithme facilement piégé dans un minimum local => Forte dépendance aux modèles initiaux L’inversion classique Opérateur F non-­‐linéaire ▪ Approches linéarisées cherchant à minimiser une fonction de coût C(m) représentative de ||dobs – dcal|| ▪ Résolution du problème inverse de manière itérative en linéarisant le problème à chaque itération autour du modèle issu de l’itération précédente Tiré de Taillandier et al., 2009 ▪ Algorithme facilement piégé dans un minimum local => Forte dépendance aux modèles initiaux Tomographie sismique bayésienne ▪ Principe: Actualiser la connaissance a priori sur les paramètres du modèle de vitesse m via les observations En utilisant la formule de [Bayes,1763] La loi a posteriori : 𝑃(𝑚|𝑑 𝑜𝑏𝑠 ) 𝑃(𝑑𝑜𝑏𝑠 |𝑚) × 𝑃(𝑚) = 𝑃(𝑑𝑜𝑏𝑠 ) Hypothèse de bruit gaussien centré de variance σ2d 𝑃 𝑚 𝑑 &'( 1 𝑑 012 − 𝑑 &'( ∝ exp − 2 𝜎4 5 × 𝑃(𝑚) Algorithme de Monte Carlo par Chaine de Markov (MCMC) ▪ Simulation d’une famille aléatoire de modèles de vitesse m ayant comme distribution limite P(m|dobs) m0 m1 m2 … mn ▪ Chaque état mn ne dépend que du précédent mn-­‐1 mn+1… Algorithme Metropolis-­‐Hastings ▪ Utilisation d’une densité conditionnelle q ▪ L’algorithme produit une chaîne de Markov fondée sur la transition suivante Algorithme Metropolis-Hasting (MH) Étant donnée une initialisation m(0) de la chaîne. À l’itération (n + 1), 1. tirer m* ∼ q(m*|m(n)) prendre m(n+1) = m* avec une probabilité α(m(n), m*) définie par : 2. ! !(!) , !∗ = min ! !∗ |! !"# . !(!! |!∗ ) ,1 " ! ! ! |! !"# . !(!∗ |! ! ) prendre !(!!!) ! = !!(!) avec une probabilité 1 − ! !(!) , !∗ 1. Méthodes MCMC ▪ Problème: Dans le cas de distributions multimodales ou de modèles complexes possédant un grand nombre de paramètres 1. Soit la chaîne évolue lentement (se mélange mal) : La convergence est difficilement atteinte en un temps de calcul raisonnable 2. Soit elle reste bloquée dans le voisinage d'un mode local: Ne visite pas entièrement l’ espace des états Méthodes MCMC Figure: Densité en noir, et densités tempérées associées en bleu et rouge par ordre de températures croissantes. ▪ Solution: Un changement d’échelle (température) pour parcourir plus rapidement l’espace d’état => empêcher la chaîne de rester bloquée dans un mode local Distribution tempérée ▪ Énergie du modèle m 2 1 𝐹 (𝑚) − 𝑑 𝑜𝑏𝑠 𝐸 (𝑚 ) = − ) ) + 𝑙𝑜𝑔(𝑃(𝑚)) 2 𝜎𝑑 ▪ Loi a posteriori : 𝑃(𝑚│𝑑 &'( ) ∝ 𝑒 <=(>) ▪ Distribution tempérée 𝑃2 𝑚│𝑑 &'( ∝𝑒 < ?(@) AB Chaînes MCMC en interaction ▪ Principe: ▪ Générer plusieurs chaînes de Markov en parallèle à des températures distinctes [Geyer, 1991], [Hukushima & Nemoto, 1996] ▪ Permettre aux chaînes d’échanger leur configuration i.e leurs états courants ou passés ▪ Plus la température augmente et plus l'échantillonneur associé explore facilement l'espace des paramètres =>Associer aux chaînes à haute température un échantillonneur global permettant une large exploration de l’espace des paramètres. => Associer aux chaînes à basse température un échantillonneur local permettant une exploration précise des régions pertinentes. Chaînes MCMC en interaction ▪ A chaque itération n de l'algorithme, un mouvement d'échange entre deux chaînes adjacentes i et i+1 est proposé suivant une certaine probabilité ɵ: ▪ Si la proposition d’échange « swap » est refusée, une transition MH classique sera réalisée. ▪ Sinon, un état m(i+1),j avec j<n sera proposé parmi tous les états générés par la chaine i+1 dans le passé. L’échange sera accepté avec une probabilité β. Application synthétique 0 ▪ Modèle « exact » composé de 23 couches 200 Récepteurs Z 800 600 400 V(m/s) Z(m) X(m) 1200 1000 Sources 0 100 ▪ Inversion avec un modèle à 10 couches horizontales Modèle: m = (z1,…z10,V1,…,V10) ▪ Loi a priori uniforme pour tous les paramètres 200 300 X 400 500 600 0 3500 5000 V9 6500 3000 4500 V10 6000 390 750 410 V8 430 770 Z7 790 810 450 570 820 160 Z1 Z4 180 590 610 840 Z8 860 880 8000 140 4000 Frequency 5000 15000 10000 Frequency 4000 130 0 0 0 Frequency 15000 V4 110 10000 4500 70 80 90 4000 V7 3000 4600 0 5500 5000 Frequency V3 4200 Frequency 4000 3800 15000 V6 10000 V2 4500 Frequency 5500 3500 5000 V5 5000 10000 4500 4000 V1 4000 0 0 15000 15000 3000 4000 3700 Frequency 0 5000 Frequency 5000 4500 Frequency 3400 3500 4000 8000 0 Frequency 2500 0 0 15000 Frequency 0 5000 Frequency 0 0 0 10000 10000 8000 4000 8000 Frequency 4000 Frequency 4000 Frequency 15000 Frequency 4000 0 5000 0 Frequency 10000 Frequency 4000 8000 0 4000 0 Frequency Application synthétique 200 240 630 670 920 260 Z2 Z3 690 Z5 Z6 6000 940 Z9 280 300 710 730 960 980 0 50 100 240:1 Profondeur (m) Vert : vrai modèle. Rouge: Moyenne a posteriori. Bleu : Meilleur modèle. Noir : Intervalle de confiance à 95% 150 200 0 200 450 700 950 1200 Application synthétique 3000 4000 5000 q(0.025) Vitesse(m/s) 6000 Conclusion ▪ La tomographie bayésienne permet ▪ de quantifier les incertitudes sur le champ de vitesse ▪ d’améliorer la quantification de l’erreur de localisation des hypocentres de séismes ▪ Algorithme des chaînes de Markov en interaction adapté à la multimodalité ▪ Approche bayésienne relativement coûteuse en temps de calcul ▪ une réflexion à la fois sur la paramétrisation du modèle de vitesse afin de réduire la dimension du problème et sur la définition de la loi a priori des paramètres