Approche bayésienne pour la tomographie des temps de première

publicité
Approche bayésienne pour la tomographie des temps de première arrivée Jihane BELHADJ Thomas ROMARY Alexandrine GESRET Mark NOBLE Tomographie sismique
▪ La tomographie des temps de première arrivée a pour objectif de cartographier le modèle de vitesse de propagation des ondes sismiques à partir des temps de première arrivée mesurés
Figure: Les problèmes direct et inverse en tomographie des temps de première arrivée relient un modèle de vitesse aux temps de première arrivée pointés (en ligne rouge) sur un sismogramme.
Etapes de la tomographie sismique Étapes de la résolution du problème inverse
▪ La paramétrisation du modèle de vitesse: Définir les inconnues du problème
▪ Le problème direct : Calculer les données à partir du modèle de vitesse
▪ L’inversion: Trouver un ou des modèle(s) qui correspond(ent) aux données observées
Paramétrisation
▪ Détermination d’un nombre minimal de paramètres (paramètres principaux)
▪ Modèle approximé par une combinaison linéaire m(x) d’un nombre fini de fonctions de base ∅"
𝑀(𝑥) ≈ 𝑚(𝑥) = ) 𝑚𝑖 ∅𝑖 (𝑥) 𝑖
mi Paramètres du modèle
Problème direct
▪ Temps de trajet des ondes P et S => Équation Eikonal
Dans le cadre asymptotique haute fréquence 𝜕𝑡 2
𝜕𝑡 2
𝜕𝑡 2
! % + ! % + ! % = 𝑠²(𝑥, 𝑦, 𝑧) 𝜕𝑥
𝜕𝑦
𝜕𝑧
t temps de trajet , s lenteur
𝑠(𝑥, 𝑦, 𝑧) = 1
𝑣(𝑥, 𝑦, 𝑧)
▪ En général, il n’existe pas de solution analytique à l’équation Eikonal
=> recourir à des méthodes de résolution numérique
Solveur numérique pour un modèle de vitesse [Noble et al., 2014] Figure Exemple de temps de trajet calculés
L’inversion
▪
𝒅𝒐𝒃𝒔 ∈ ℝ𝒏 : Vecteur des données observées 𝒎 ∈ ℝ𝑵 ▪ Équation reliant les paramètres qui caractérisent un modèle de vitesse avec les obs
données observées d
𝒅𝑜𝑏𝑠 = 𝐹(𝑚) ▪ Opérateur F non-­‐linéaire
▪ Problème inverse généralement mal posé (non unicité)
▪ Incertitude expérimentale ε: bruit
𝒅𝑜𝑏𝑠 = 𝐹 (𝑚) + ε L’inversion classique
Opérateur F non-­‐linéaire
▪ Approches linéarisées cherchant à minimiser une fonction de coût C(m) représentative de ||dobs – dcal|| ▪ Résolution du problème inverse de manière itérative en linéarisant le problème à chaque itération autour du modèle issu de l’itération précédente Tiré de Taillandier et al., 2009
▪ Algorithme facilement piégé dans un minimum local => Forte dépendance aux modèles initiaux L’inversion classique
Opérateur F non-­‐linéaire
▪ Approches linéarisées cherchant à minimiser une fonction de coût C(m) représentative de ||dobs – dcal|| ▪ Résolution du problème inverse de manière itérative en linéarisant le problème à chaque itération autour du modèle issu de l’itération précédente Tiré de Taillandier et al., 2009
▪ Algorithme facilement piégé dans un minimum local => Forte dépendance aux modèles initiaux L’inversion classique
Opérateur F non-­‐linéaire
▪ Approches linéarisées cherchant à minimiser une fonction de coût C(m) représentative de ||dobs – dcal|| ▪ Résolution du problème inverse de manière itérative en linéarisant le problème à chaque itération autour du modèle issu de l’itération précédente Tiré de Taillandier et al., 2009
▪ Algorithme facilement piégé dans un minimum local => Forte dépendance aux modèles initiaux Tomographie sismique bayésienne
▪ Principe: Actualiser la connaissance a priori sur les paramètres du modèle de vitesse m via les observations En utilisant la formule de [Bayes,1763]
La loi a posteriori :
𝑃(𝑚|𝑑
𝑜𝑏𝑠 )
𝑃(𝑑𝑜𝑏𝑠 |𝑚) × 𝑃(𝑚)
=
𝑃(𝑑𝑜𝑏𝑠 )
Hypothèse de bruit gaussien centré de variance σ2d
𝑃 𝑚 𝑑 &'(
1 𝑑 012 − 𝑑 &'(
∝ exp −
2
𝜎4
5
× 𝑃(𝑚)
Algorithme de Monte Carlo par Chaine de Markov (MCMC)
▪ Simulation d’une famille aléatoire de modèles de vitesse m ayant comme distribution limite P(m|dobs)
m0
m1
m2 … mn
▪ Chaque état mn ne dépend que du précédent mn-­‐1
mn+1…
Algorithme Metropolis-­‐Hastings
▪ Utilisation d’une densité conditionnelle q
▪ L’algorithme produit une chaîne de Markov fondée sur la transition suivante Algorithme Metropolis-Hasting (MH)
Étant donnée une initialisation m(0) de la chaîne.
À l’itération (n + 1),
1. tirer m* ∼ q(m*|m(n))
prendre m(n+1) = m* avec une probabilité α(m(n), m*) définie par :
2.
! !(!) , !∗
= min
! !∗ |! !"# . !(!! |!∗ )
,1 "
! ! ! |! !"# . !(!∗ |! ! )
prendre !(!!!) ! = !!(!) avec une probabilité 1 − ! !(!) , !∗
1.
Méthodes MCMC
▪ Problème:
Dans le cas de distributions multimodales ou de modèles complexes possédant un grand nombre de paramètres 1. Soit la chaîne évolue lentement (se mélange mal) : La convergence est difficilement atteinte en un temps de calcul raisonnable
2. Soit elle reste bloquée dans le voisinage d'un mode local: Ne visite pas entièrement l’ espace des états
Méthodes MCMC
Figure: Densité en noir, et densités tempérées associées en bleu et rouge par ordre de températures croissantes.
▪ Solution:
Un changement d’échelle (température) pour parcourir plus rapidement l’espace d’état => empêcher la chaîne de rester bloquée dans un mode local
Distribution tempérée ▪ Énergie du modèle m
2
1 𝐹 (𝑚) − 𝑑 𝑜𝑏𝑠 𝐸 (𝑚 ) = − )
) + 𝑙𝑜𝑔(𝑃(𝑚)) 2
𝜎𝑑
▪ Loi a posteriori :
𝑃(𝑚│𝑑 &'( ) ∝ 𝑒 <=(>)
▪ Distribution tempérée 𝑃2
𝑚│𝑑 &'( ∝𝑒
<
?(@)
AB
Chaînes MCMC en interaction
▪ Principe:
▪ Générer plusieurs chaînes de Markov en parallèle à des températures distinctes [Geyer, 1991], [Hukushima & Nemoto, 1996]
▪ Permettre aux chaînes d’échanger leur configuration i.e leurs états courants ou passés
▪ Plus la température augmente et plus l'échantillonneur associé explore facilement l'espace des paramètres
=>Associer aux chaînes à haute température un échantillonneur global permettant une large exploration de l’espace des paramètres.
=> Associer aux chaînes à basse température un échantillonneur local permettant une exploration précise des régions pertinentes.
Chaînes MCMC en interaction
▪ A chaque itération n de l'algorithme, un mouvement d'échange entre deux chaînes adjacentes i et i+1 est proposé suivant une certaine probabilité ɵ:
▪ Si la proposition d’échange « swap » est refusée, une transition MH classique sera réalisée.
▪ Sinon, un état m(i+1),j avec j<n sera proposé parmi tous les états générés par la chaine i+1 dans le passé. L’échange sera accepté avec une probabilité β.
Application synthétique
0
▪ Modèle « exact » composé de 23 couches 200
Récepteurs Z
800
600
400
V(m/s)
Z(m)
X(m)
1200
1000
Sources 0
100
▪ Inversion avec un modèle à 10 couches horizontales
Modèle: m = (z1,…z10,V1,…,V10) ▪ Loi a priori uniforme pour tous les paramètres
200
300
X
400
500
600
0
3500
5000
V9
6500
3000
4500
V10
6000
390
750
410
V8
430
770
Z7
790
810
450
570
820
160
Z1
Z4
180
590
610
840
Z8
860
880
8000
140
4000
Frequency
5000
15000
10000
Frequency
4000
130
0
0
0
Frequency
15000
V4
110
10000
4500
70 80 90
4000
V7
3000
4600
0
5500
5000
Frequency
V3
4200
Frequency
4000
3800
15000
V6
10000
V2
4500
Frequency
5500
3500
5000
V5
5000
10000
4500
4000
V1
4000
0
0
15000
15000
3000
4000
3700
Frequency
0 5000
Frequency
5000
4500
Frequency
3400
3500
4000 8000
0
Frequency
2500
0
0
15000
Frequency
0 5000
Frequency
0
0
0
10000
10000
8000
4000 8000
Frequency
4000
Frequency
4000
Frequency
15000
Frequency
4000
0 5000
0
Frequency
10000
Frequency
4000 8000
0 4000
0
Frequency
Application synthétique 200
240
630
670
920
260
Z2
Z3
690
Z5
Z6
6000
940
Z9
280
300
710
730
960
980
0
50
100
240:1
Profondeur (m)
Vert : vrai modèle.
Rouge: Moyenne a posteriori. Bleu : Meilleur modèle.
Noir : Intervalle de confiance à 95% 150
200
0 200 450 700 950 1200 Application synthétique 3000
4000
5000
q(0.025)
Vitesse(m/s)
6000
Conclusion
▪ La tomographie bayésienne permet
▪ de quantifier les incertitudes sur le champ de vitesse
▪ d’améliorer la quantification de l’erreur de localisation des hypocentres de séismes ▪ Algorithme des chaînes de Markov en interaction adapté à la multimodalité
▪ Approche bayésienne relativement coûteuse en temps de calcul ▪ une réflexion à la fois sur la paramétrisation du modèle de vitesse afin de réduire la dimension du problème et sur la définition de la loi a priori des paramètres
Téléchargement