Gravimétrie et sismologie

publicité
Gravimétrie et sismologie
Prépa-AGREG 2015-2016
C. Tiberi
Table des matières
1 Introduction
2 Gravimétrie
2.1 Préliminaires . . . . .
2.2 Structure de la Terre .
2.3 Dynamique - Isostasie
2.4 Conclusion . . . . . . .
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
. 2
. 5
. 7
. 10
3 Sismologie
10
3.1 Structure de la Terre . . . . . . . . . . . . . . . . . . . . . . . 10
3.2 Localisation et caractéristiques de la déformation . . . . . . . 16
3.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4 Sismique
4.1 Sismique reflexion . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 sismique refraction . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
18
19
22
24
Introduction
généralités
La forme et l’intérieur de la Terre ne sont connus qu’au travers d’observations faites uniquement sur sa surface. Nous n’avons aucun moyen direct
de connaı̂tre sa structure ou sa composition de façon précise et absolue.
Ces connaissances nous permettraient cependant d’en comprendre la dynamique et donc, par exemple de mieux anticiper les risques engendrés par
son activité
Plusieurs outils sont à notre disposition pour avoir une idée (déformée) de
sa structure interne et profonde. Parmi tous ceux à notre disposition, nous
avons la sismologie et la gravimétrie. Ces deux méthodes géophysiques
1
nous permettent d’une part d’imager les structures du globe (à plusieurs
échelles), et d’autre part d’accéder à un aspect temporel pour comprendre
certains points de la dynamique du globe terrestre.
Notions préliminaires
Quelque soit l’outil géophysique que nous utilisons, nous allons travailler
avec des méthodes indirectes, c’est à dire qui vont nous permettre d’obtenir
un modèle possible, qui explique au mieux (et pas parfaitement) les données
que nous avons récoltées en surface. Ce modèle est imparfait, souvent incomplet, et sera toujours relatif à un modèle initial ou de référence.
On travaille en sismologie et en gravimétrie en termes d’anomalies. C’est
à dire qu’on fait des allers-retours incessants entre observations et calculs
pour obtenir un modèle qui minimise les di↵érences entre les deux. Pour la
sismique, c’est un peu di↵érent, et cela sera expliquer dans le dernier châpitre.
Dans la suite de ce cours, une anomalie fera toujours référence à la
di↵érence entre un observable (gravité ou temps d’arrivée) et un calcul. Les
figures d’anomalie sont toujours par rapport à un modèle.
2
Gravimétrie
C’est l’étude du champ de pesanteur de la Terre (et/ou des autres corps
celestes). Elle permet notamment d’étudier la répartition (spatiale et temporelle) des masses à l’intérieur de la Terre. On peut également étudier
l’équilibre de ces masses, et donc avoir une information dynamique (isostasie).
2.1
Préliminaires
La Terre possédant une masse, elle attire tout objet dans son environnement (et réciproquement). Son attraction est d’autant plus grande que l’objet
est proche (loi en 1/r2 ). L’attraction que subit un objet à la surface de la
Terre dépend :
— de la forme de la Terre
— de la rotation de la Terre
— des e↵ets de marée (attraction des autres corps célestes)
— de la répartition des masses à l’intérieur de la Terre.
Pour étudier le dernier point, il faut donc s’a↵ranchir des 3 premiers.
Pour cela, on va utiliser un modèle de Terre homogène, sphérique, en
2
Figure 1 – Représentation des di↵érentes équipotentielles de pesanteur par
rapport à la topographie terrestre. L’ellipsoı̈de est théorique, et le géoı̈de est
réel.
rotation, et corriger des e↵ets de marée. Toute anomalie par rapport à
ce calcul reflètera des sources hétérogènes sous le point de mesure.
Ce modèle, c’est l’ellipsoı̈de de référence (Fig. 1). C’est une figure mathématique qui représente l’équipotentielle de pesanteur ⇤ théorique se confondant au mieux avec la surface moyenne des océans (pour être le plus proche
possible d’une équipotentielle terrestre).
L’équipotentielle réelle de la Terre est appelé Géoı̈de. Elle est proche de
l’ellipsoı̈de, mais s’en écarte en quelques endroits (Fig. 1). Ces di↵érences sont
appellées anomalies du géoı̈de, et se mesurent en mètre. Elles représentent
les écarts de l’équipotentielles de la Terre réelle par rapport à une Terre
homogène, sphérique et en rotation (Fig. 2).
On mesure le potentiel de pesanteur de la Terre (la forme du géoı̈de) grâce
à des satellites. CHAMPS, GRACE et GOCE en sont les trois plus récents.
En mer, le géoı̈de se confond avec le niveau moyen des océans (qui définit
l’horizontale).
La pesanteur (g) de la Terre peut de la même façon se calculer de façon
théorique sur l’ellipsoı̈de de référence (g0 ), et se mesurer sur la surface de
la Terre (gobs ). Les di↵érences observées (anomalies) sont alors interprétées
comme excès ou déficit de masse par rapport à un milieu homogène. Cependant, pour une parfaite comparaison, il faudrait être à la même altitude
dans les deux cas, et tenir compte de la présence (ou absence) de certains
matériaux (montagnes, océans). Des corrections vont donc être nécessaires :
— correction d’altitude. Elle permet de tenir compte du fait que la mesure n’est pas toujours à l’altitude de l’ellipsoı̈de. Si la mesure s’e↵ectue plus haut (on s’éloigne des sources), le gobs sera plus faible que le
⇤. Rigoureusement, le potentiel de pesanteur est la somme du potentiel de gravitation
et du potentiel de rotation.
3
Figure 2 – Anomalies du géoı̈de en mètres (d’après GFZ Postdam).
g0 , mais ce ne sera pas à cause d’un déficit de masse. Elle est égale à :
0.3086h † (Fig. 3).
— correction de plateau. Elle permet de tenir compte de la présence ou
de l’absence de masse entre le point de mesure réel et l’ellipsoı̈de. Si la
mesure est e↵ectuée au sommet d’une montagne, il faut tenir compte
de la masse de la montagne. C’est un premier ordre, et elle est égale
à : 2⇡⇢Gh = 0.0419⇢h ‡ (Fig. 3).
— correction de terrain. On affine simplement la correction de plateau en
tenant compte de la topographie fine autour du point de mesure. Elle
était auparavant estimée avec des abaques, elle est à présent calculée
à partir de modèles numériques de terrain (MNT) (Fig. 3).
En appliquant uniquement la correction d’altitude à g = gobs g0 , on
obtient l’anomalie à l’air libre. En Appliquant les correction d’altitude et
de plateau, on obtient l’anomalie de Bouguer simple. En appliquant les 3
corrections, on obtient l’anomalie de Bouguer complète.
Les anomalies ainsi obtenues reflètent donc les excès ( g > 0) ou les
déficits ( g < 0) de masse sous le point de mesure.
Attention à la nature de l’anomalie gravimétrique considérée. L’anomalie à l’air libre est très souvent utilisée en mer car elle contient les courtes
†. h = altitude de la mesure en mètres.
‡. ⇢ étant la densité moyenne du terrain (souvent prise à 2.67), G est la constante de
gravitation universelle.
4
gobs
gobs
topo
oïde
ellips
oïde
ellips
g0
a) air libre = 0.3086h
⇢
b) plateau = 0.0419ρh
gobs
topo
oïde
ellips
c) terrain
Figure 3 – principe des di↵érentes corrections gravimétriques : a) correction
d’altitude (ou air libre), b) correction de plateau, c) correction de terrain.
longueurs d’onde de la bathymétrie (car non corrigées), et est donc un excellent indicateur de la topographie sous-marine. L’anomalie de Bouguer est
beaucoup plus utilisée pour les études à Terre car elle tient compte de toutes
les masses sous la surface topographique.
2.2
Structure de la Terre
Les anomalies gravimétriques sont très utilisées pour comprendre la distribution des masses à l’intérieur de la Terre. Seulement deux gros inconvénients
interviennent. D’une part le signal gravimétrique décroit rapidement (en 1/r2 ,
r étant la distance entre source et mesure). Cela signifie que les sources
profondes auront une signature gravimétrique très faible. D’autre part, provenant d’un potentiel, la pesanteur sou↵re d’un problème de non-unicité.
Cela signifie qu’une même signature gravimétrique peut-être associée à une
infinité de sources. Que faire ? Ces 2 inconvénients s’accompagnent cependant du fait qu’une source plus profonde produira une anomalie certes plus
faible, mais de forme d’onde identique, et de longueur d’onde (⇠ largeur)
plus importante (Fig. 4). Les anomalies étroites (petites longueurs d’onde)
seront donc toujours à rattacher à des sources superficielles. En revanche, les
anomalies larges (grandes longueurs d’onde) pourront aussi bien provenir de
5
gz
Figure 4 – Une anomalie gravimétrique peut s’expliquer aussi bien par une
source superficielle étalée de faible contraste de densité, que par des sources
plus profondes moins étendues présentant des contrastes plus importants.
larges structures en surface que de sources plus petites mais en profondeur
(Fig. 4).
Pour pallier ces problèmes et obtenir des informations sur la structure
interne du globe, on peut utiliser à la fois le potentiel et les anomalies de pesanteur, et surtout, il faut les combiner à des connaissances supplémentaires
(géologie de surface, images tomographiques, géodynamique).
Notamment, les anomalies du géoı̈de sont mesurées par des satellites à
une altitude de plusieurs centaines de kilomètres. Ils sont donc loin des
sources, mais plus sensibles aux grandes longueurs d’onde donc potentiellement aux sources les plus profondes. C’est ainsi que sur les cartes récentes
d’anomalie du géoı̈de, on distingue clairement les anomalies dues aux zones
de subduction, aux topographies principales (Himalaya,. . . ), mais pas du
tout celles correspondant aux édifices volcaniques, par exemple (Fig. 2). À
plus grande échelle, les anomalies sous le sud de l’Inde et l’Afrique du Sud
par exemple sont plutôt interprétées comme provenant de sources dans le
manteau inférieur (convections, super-panache, . . . ). Comme la gravimétrie
ne permet absolument pas de localiser ces sources avec certitude en profondeur, des outils supplémentaires tels que la tomographie sismologique nous
permettra d’aller plus loin.
Les longueurs d’onde plus petites (les plus petits détails) seront présentes,
elles, dans les cartes d’anomalies gravimétriques terrestres (ex. Fig. 5). Ces
6
Figure 5 – Anomalies à l’air libre (gauche) et de Bouguer complète (droite)
pour la France.
données sont obtenues lors de campagnes de mesures à terre, aéroportées ou
maritimes. Les instruments utilisés sont les gravimètres. Ils peuvent être de
deux types : absolus ou relatifs. Dans le premier cas, on mesure la composante
verticale absolue du champ de pesanteur. C’est une mesure extrêmement
délicate à e↵ectuer (matériel peu transportable), et il y a donc peu d’endroits
au monde où une telle information existe. Pour les gravimètres relatifs, il
s’agit de mesurer la chute d’une masse, ou bien l’allongement d’un ressort.
Les mesures sont faites suivant des boucles et ne concernent que les variations
relatives de la pesanteur. Les cartes ainsi obtenues (anomalies de Bouguer,
le plus souvent) permettent de mettre en évidence des sauts de Moho, la
présence de cavités, de réservoirs magmatiques, de fluides,. . .
2.3
Dynamique - Isostasie
La gravimétrie peut également servir à étudier l’équilibre des masses à
l’intérieur de la Terre. Le premier à s’en rendre compte est Léonard de Vinci.
Mais le premier à le formuler est Pierre Bouguer en 1749, qui observe que les
montagnes dévient localement la verticale, mais dans le sens inverse de ce à
quoi on pouvait s’attendre : en e↵et, au lieu d’attirer un pendule (excès de
masse dû à la présence de montagne), elles le repousse (déficit de masse).
Plus tard en 1854, John Henry Pratt et Sir Georges B. Airy, quasi simultanément, proposent chacun un modèle pour expliquer ces observations.
Les deux modèles se basent simplement sur le principe d’Archimède. Le
modèle d’Airy considère que la croûte terreste peut être modélisée par des colonnes de terre, ayant toutes la même densité, mais des hauteurs di↵érentes.
7
ρc
ρ4 ρ1 ρ2 ρ1 ρ3 ρ4
ρm
ρm
Modèle Pratt
Modèle Airy
Figure 6 – a) Modèle de Pratt. Les di↵érences de topographie sont expliquées par des variations latérales de densité. b) Modèle d’Airy. Les
di↵érences de topographie sont compensées par des hauteurs de colonnes
di↵érentes de densité constante. Dans les deux cas, les poids de chaque colonne en base de manteau sont équivalents.
L’équilibre s’e↵ectue alors sur la hauteur de la colonne enracinée, un peu
comme un glaçon s’enfonce dans l’eau proportionnellement à sa masse volumique (Fig. 6b). Pour Pratt, l’équilibre s’e↵ectue non plus grâce aux profondeurs de pénétration, mais grâce aux variations latérales de densité (Fig. 6a).
Comme il s’agit de concepts dans les deux cas, de façon rigoureuse, ils ont
raison tous les deux ! Le modèle de Airy (plus facile à appréhender, certainement), est très utilisé pour expliquer ou comprendre la structure profonde
liée aux chaı̂nes de montagnes. Le modèle de Pratt s’applique lui plus facilement au domaine océanique, où la croûte se densifie en se refroidissant loin
de la dorsale.
En regardant la carte des anomalies gravimétriques de la France (Fig. 7),
on remarque une anomalie très négative sous les reliefs principaux (Alpes et
Pyrénées). C’est la signature des racines crustales. Dans le modèle de Airy,
une masse supplémentaire sur la croûte s’accompagne d’un enfoncement des
colonnes dans le manteau. On remplace du manteau (dense) par du matériel
crustal moins dense, on obtient donc une anomalie négative.
Seulement, ce n’est pas aussi simple, et les compensations isostatiques
vont dépendre avant tout de la rigidité de la lithosphère (qui supportent en
quelque sorte les charges) et de la longueur d’onde de la charge (Fig. 8). En
e↵et, si je pose un stylo sur ma table, je n’ai pas un équilibre qui s’e↵ectue
localement (la table ne se déforme pas sous mon stylo). La lithosphère peut :
— ne pas se déformer du tout si elle est extrêmement rigide (froide par
8
Figure 7 – Comparaison des reliefs de la France (gauche) avec l’anomalie
de Bouguer (source : BRGM)
exemple), ou bien si la charge est suffisamment petite
— ployer plus largement si elle a une rigidité suffisante pour résister un
peu à la charge. Dans ce cas, les déformations (et anomalies) peuvent
dépasser latéralement les bords de la charge
— se déformer localement et complètement à la façon de l’eau et du
glaçon si elle est très peu rigide ou si la charge est très large. On parle
alors d’isostasie locale, ou de relief parfaitement compensé.
Le moyen le plus efficace pour savoir dans quel cas on se situe est simplement de comparer la topographie avec les anomalies gravimétriques.
Une simple comparaison qualitative ne suffit pas dans la plupart des cas. On
peut quantifier le phénomène et retrouver la rigidité de la lithosphère en
corrélant les deux signaux. Les techniques de cohérence et d’admittance §
permettent (sous réserve de quelques hypothèses) d’estimer la rigidité de la
lithosphère en fonction des longueurs d’onde considérées.
Il est important de noter aussi que si la lithosphère possède une certaine
rigidité, elle va mettre un certain temps pour se déformer et compenser la
charge crustale. Le facteur temporel est essentiel, et on estime également
la rigidité de la lithosphère en étudiant le rebond post-glaciaire (le temps
que met la lithosphère pour retrouver un état d’équilibre après la fonte des
calottes glaciaires).
§. hors programme.
9
Figure 8 – Di↵érents cas d’isostasie suivant la rigidité de la lithosphère.
Gauche : cas d’une lithosphère très rigide (pas de compensation). Centre :
lithosphère supportant partiellement la charge (compensation régionale et
partielle).Droite : cas d’isostasie locale (compensation parfaite).
2.4
Conclusion
La gravimétrie est une méthode géophysique simple et depuis longtemps
utilisée pour deux choses : trouver la répartition des masses dans le sous-sol,
et obtenir une information sur la réponse à la déformation de la lithosphère.
Les échelles spatiales d’investigation vont de quelques mètres (en microgravimétrie) à l’échelle du Globe. La gravimétrie a été utilisée en exploration
minière jusqu’à l’arrivée de la sismique, plus coûteuse, mais plus efficace et
plus précise. Elle est toujours utilisée pour faire des prospections locales lors
de travaux de voirie, de rénovation ou d’exploration locale car peu coûteuse
et facile à mettre en place. Elle est dans ce cas souvent combinée à d’autres
techniques d’exploration géophysique (radar, sismique...).
L’avènement des satellites gravimétriques au début des années 2000 et
jusqu’en 2010 a permis de redecouvrir la gravimétrie et son utilité dans des
domaines aussi vastes que la géophysique, la climatologie, l’océanologie, la
glaciologie, la planétologie.
3
Sismologie
La sismologie est une science plutôt jeune, puisqu’il a fallu attendre le
développement d’instruments spécifiques pour pouvoir enregistrer les ondes
sismiques. On va distinguer ici deux aspects de la sismologie. D’une part
l’étude de la structure interne de la Terre par la propagation des ondes
sismiques, et d’autre part l’étude du séisme en tant qu’objet (dynamique,
localisation).
3.1
Structure de la Terre
Si l’on connaı̂t les séismes et leurs e↵ets dévastateurs depuis fort longtemps, la sismologie est relativement jeune. Le premier enregistrement d’un
10
séisme japonais à Potsdam en 1889 convaint les scientifiques qu’il existe des
ondes sismiques qui se propagent dans la Terre (Fig. 9). Cela signifie donc
qu’en les étudiant, on peut obtenir des informations sur l’état interne du
Globe !
Figure 9 – Enregistrement du séisme du 17 avril 1889 à Potsdam.
La première moitié du XXieme siècle voit un développement extrêment
rapide de notre connaissance sismique du globe. En identifiant et en étudiant
di↵érentes ondes sismiques (P, S, SKS, SKiKS,. . . ), les scientifiques arrivent
à identifier des interfaces majeures à l’intérieur de la Terre. Ainsi le noyau de
la Terre est identifié grâce à l’observation d’une discontinuité des temps d’arrivée des ondes P, et au retard des ondes S dans les sismogrammes. On obtient
donc vers les années 60 un modèle de Terre sismologique, concentrique, avec
une structuration en couches : une croûte, un manteau supérieur, un manteau
inférieur, un noyau externe et un noyau interne. Plusieurs modèles 1D voient
le jour ¶ , avec quelques di↵érences quant à la profondeur des interfaces, les
valeurs moyennes des vitesses etc. . . Ils restent tous très similaires et surtout
ne présentent que des couches homogènes concentriques (Fig. 10). Il s’agit
de plus de modèles élastiques, i.e. les caractéristiques temporelles (rigidité,
viscosité) ne peuvent être obtenus que par d’autres données (en particulier
la gravimétrie !).
Grâce à ces modèles sismologiques, les scientifiques peuvent dès lors obtenir des temps d’arrivée théoriques pour les ondes sismiques émises par
n’importe quel séisme. En les comparant aux arrivées réelles enregistrées sur
des sismogrammes, on a vite remarqué que des di↵érences existaient ; les
¶. Un des plus utilisé est le modèle PREM.
11
Figure 10 – Modèle sismologique 1D PREM (PReliminary Earth Model).
ondes arrivaient suivant les endroits soit en avance, soit en retard (Fig. 11).
La structure sismique interne de la Terre n’était pas homogène et déviait
des modèles globaux. Une avancée médicale va alors révolutionner le monde
de la sismologie dans les années 70 : la radiographie. En appliquant cette
technique d’imagerie à la Terre, et en utilisant non pas les rayons X mais les
rais sismiques, on va être à même de scanner l’intérieur de la Terre.
Lorsque les temps d’arrivée observés sont en retard par rapport aux
théoriques, alors le rai sismique a dû traverser une zone plus lente, et si les
observations sont en avance, alors le rai a traversé une zone plus rapide que
la vitesse prédite par le modèle. Pour parfaitement localiser et caractériser
ces anomalies (déviations par rapport au modèle 1D), on combine toutes les
obervations provenant de di↵érents séismes à di↵érentes stations afin d’optimiser l’éclairage (on parle de croisement ou de densité de rais, Fig. 11).
Il existe plusieurs techniques de tomographie sismologiques. On les utilise
en fonction du volume à explorer et des caractéristiques de la région. On
distingue ainsi :
12
B03201
VANORIO ET AL.: THREE-DIMENSIONAL TOMOGRAPHY AT CAMPI FLEGREI
B03201
P réelle
P
théorique
PREM
Temps
Figure 5. Vertical cross sections for (a) P and (b) S velocity models along the W-E and N-S directions
reported in Figure 1. Black circles, black stars, and triangles indicate earthquake, well, and station
locations.
Figure 11 – Principe de la tomographie sismique : Les décalages entre les
temps d’arrivée théorique et observé des ondes (ici une P) sur les séismes
enregistrés aux stations sismologiques servent à localiser et évaluer les anomalies de vitesses à l’intérieur de la Terre.
dure such as the coupling between the earthquake hypocenters and the velocity parameters [Thurber, 1992], the
initial 1-D velocity model [Kissling et al., 1994], as well
as the size of the grid used for data inversion and the
regularization technique. Similarly, the source-station
geometry which in turn affects ray path distribution is
a critical factor in resolving velocity structure. In order to
estimate if our distribution of earthquake hypocenters and
La tomographie locale
Ce type de tomographie utilise uniquement les arrivées P et S des séismes
locaux pour imager une région restreinte. On utilise pour cela des réseaux
sismologiques temporaires, déployés à l’aplomb des séismes. Cette techniques
est particulièrement délicate, car il faut à la fois retrouver les anomalies de vitesse mais également la localisation précises des séismes. Ces deux paramètres
étant inter-dépendants, il faut faire plusieurs itérations avant de trouver une
solution. La résolution spatiale des modèles obtenus est de l’ordre du kilomètre, et la profondeur d’investigation est restreinte aux séismes les plus
profonds (généralement ⇠20-30 km maximum).
Les modèles obtenus sont les seuls à être absolus. C’est à dire que ce ne
sont pas des anomalies par rapport à un modèle 1D. Cependant, l’inversion
étant très instable, on part souvent d’un modèle initial qui influence beaucoup
le résultat. On obtient des modèles pour les ondes P mais aussi pour les ondes
S (Fig. 12).
Figure 6. Vertical cross sections along the W-E and N-S directions of the checkerboard model
perturbations after inversion for (a) the P and (b) S velocity.
6 of 14
La tomographie régionale
Dans ce cas, on utilise des réseaux temporaires, mais déployés plus largement sur une zone d’étude qui fait plusieurs centaines de km2 . L’espacement
entre station est typiquement de ⇠30 km, et l’on utilise des séismes lointains
13
B03201
VANORIO ET AL.: THREE-DIMENSIONAL TOMOGRAPHY AT CAMPI FLEGREI
B03201
Figure 5. Vertical cross sections for (a) P and (b) S velocity models along the W-E and N-S directions
reported in Figure 1. Black circles, black stars, and triangles indicate earthquake, well, and station
Figure 12 – locations.
Exemple de modèle obtenu par tomographie locale (ici en Italie
dure such as the
coupling between the earthquake hypo- regularization technique. Similarly, the source-station
sous les champs
phlégréens).
centers and the velocity parameters [Thurber, 1992], the
initial 1-D velocity model [Kissling et al., 1994], as well
as the size of the grid used for data inversion and the
geometry which in turn affects ray path distribution is
a critical factor in resolving velocity structure. In order to
estimate if our distribution of earthquake hypocenters and
pour éclairer les 200-400 premiers kilomètres de la Terre. On peut uiliser les
ondes de volume, mais également les ondes de surface. La résolution spatiale
est de l’ordre de 30 km (fig. 13). Les modèles obtenus sont uniquement des
anomalies par rapport à un modèle 1D (type PREM).
Figure 6. Vertical cross sections along the W-E and N-S directions of the checkerboard model
perturbations after inversion for (a) the P and (b) S velocity.
6 of 14
Figure 13 – Exemple de modèle obtenu par tomographie régionale dans la
zone du Rift Est Africain.
que les
repésentent
uniquement
desh) P wave velocity model
Figure 3.Notez
Horizontal
crosscartes
sections
sliced through
(a – d) S and (e–
tomography.
anomalies (exprimées
en %). Horizontal cross sections through the model are shown for depths of 150, 200, 300
6 of 16
locations of the vertical cross sections in Figure 4 are shown in Figure 3a. Political boundaries are s
approximate rift boundaries are outlined in gray. The 2,000 m elevation contour line is show
locations are depicted as small white squares, and regions of the model with low ray coverage vo
La tomographie globale
black according to hit count, with a hit count of 10 having light shading and a hit count of 0 having
The P wave velocity model is after Benoit et al. [2006].
On utilise dans ce cas la totalité des stations sismologiques sur Terre,
et tous les séismes sur plusieurs années (avec un seuil de magnitude, quand
14
même). Les stations sont essentiellement les sites permanents internationaux
(comme GEOSCOPE, en France par exemple). Les données sont ainsi de
meilleure qualité. Le modèle obtenu est global, c’est à dire qu’il concerne
l’ensemble du globe pour une résolution latérale moins importante
bien sûr
488 I. D. Bastow
et al.
(plusieurs centaines de km). On utilise les ondes de volume (pour imager le
manteau terrestre), mais aussi les ondes de surface. Dans ce cas, on n’image
que les 300 premiers kilomètres de la Terre (ondes qui restent en surface).
Les anomalies sont là aussi par rapport à un modèle global 1D (Fig. 14).
Figure 14 – Exemple de modèle obtenu par tomographie globale pour des
ondes de surface (ici Vs/Vs).
L’interprétation des modèles tomographiques doit toujours se
faire en termes de vitesses plus lentes ou plus rapides que le modèle
de référence. Les variations de vitesse dépendent de plusieurs facteurs dont
il faut tenir compte pour aller plus loin dans l’interprétation : la température,
la composition chimique, la présence de fluide (eau, melt),. . .
Par exemple, les rides océaniques correspondent souvent à des zones de
vitesses lentes, car plus chaudes et contenant beaucoup de fusion partielle
(pareil pour les chambres magmatiques ou les points chauds). Les panneaux
plongeants des zones de subduction correspondent, eux, à des zones plus rapides car plus froides et plus denses que le manteau environnant (Fig. 14).
Mais ce n’est pas toujours le cas. . . Dans une tomographie locale, notamment, une remontée du manteau (matériel plus chaud que la croûte) peut
correspondre à une zone plus rapide. Le manteau, certes plus chaud que la
croûte, est cependant beaucoup plus rapide sismiquement (8 km/s au lieu de
15
⇠6.5 km/s), et apparaitra donc en ”bleu” dans les images tomographiques.
Enfin, comme toute image tomographique provient d’une inversion (on
part des données enregistrées pour trouver un modèle de vitesse), de nombreuses adaptations ou simplifications mathématiques sont faites qui génèrent
des artéfacts. Les données ne sont pas parfaites mais empruntes d’erreurs, et
ne sont pas homogènement réparties dans le volume d’investigation. Tout
cela engendre des erreurs, des approximations qui font que les images tomographiques ne sont pas uniques. Il faut faire attention avant de les interpréter,
et ne pas leur faire dire plus qu’elles ne peuvent réellement signifier.
3.2
Localisation et caractéristiques de la déformation
Les séismes émettent donc des ondes qui nous permettent d’explorer et
d’imager l’intérieur de la Terre. Ce sont également des objets qui se distribuent de façon non aléatoire sur Terre, et dont l’occurence est souvent
synonyme de danger, dégats voire catastrophe. Il est donc important de comprendre cet objet pour en estimer les risques sociétaux. Leur étude nous permet également de mieux comprendre où se localise la déformation cassante
sur Terre.
Les séismes se répartissent essentiellement le long des limites de plaques,
que ce soit les rides océaniques, les zones de subduction ou bien les grandes
transformantes. Leur occurence et leur concentration sont des signes d’activité tectonique et donc de fragilité de la croûte. En localisant les séismes, on
peut avoir une information directe sur la présence et bien souvent la géométrie
(profondeur, direction, plongement) des failles qui les génèrent.
Mécanismes au foyer
On localise les séismes grâces aux réseux sismologiques permanents ou
temporaires. Au minimum trois stations sont requises pour localiser un événement. Une quatrième est souvent requise pour accéder au temps origine
du séisme. La première impulsion des ondes P nous donne également une
indication sur le sens et la direction de propagation de l’onde, donc sur le
sens et la direction de la rupture. On peut ainsi déterminer quelles sont les
régions qui subissent une compression (+) ou une dilatation (-). En réunissant
suffisamment de premières arrivées réparties tout autour de la zone de rupture, on élabore un mécanisme au foyer, représentation stéréographique
de la zone de rupture avec des compartiments en dilatation et compression
(Fig. 15). Suivant la forme de ce schéma, on en déduit le fonctionnement et
16
l’orientation du plan de faille. C’est donc une information essentielle pour
comprendre les zones actives, et les mécanismes au foyer sont en général des
études systématiques e↵ectuées en priorité lors de séismes majeurs (grâce
aux réseaux permanents). Combinés avec des images tomographiques ou gravimétriques, on peut obtenir beaucoup plus d’information sur les structures
internes, par exemple (Fig. 15).
Figure 15 – Exemple de mécanisme au foyer et de leur utilisation pour
comprendre la déformation dans les Pyrénées.
Intensité et magnitude
Les paramètres régissant les e↵ets d’un séisme sur les populations sont
nombreux. Parmi eux, la distance à l’épicentre est fondamental. Plus on est
loin, moins la Terre tremble. Pourtant à égale distance, certains séismes sont
plus dévastateurs. Cela provient de la taille de la rupture, de sa profondeur
et des e↵ets de sites. Si l’on essaie de quantifier un séisme il faut donc tenir
compte de tout cela. L’intensité d’un séisme est calculée uniquement en
tenant compte des dégats qu’il engendre, c’est l’échelle de Mercalli. On estime
l’énergie libérée par un séisme par sa magnitude. Il s’agit d’une grandeur qui
ne dépend ni de l’instrument utilisé pour mesurer, ni de la distance épicentral
de l’évenement.
La magnitude d’un séisme se calcule de plusieurs façons, il y a donc
plusieurs types de magnitude. Le premier type se calcul à partir des enregistrements sismologiques et de l’amplitude des ondes P, S et/ou de la longueur
de la coda (”queue” du signal). On y apporte des corrections pour le type
d’instrument utilisé (les sismomètres ne sont pas tous sensibles aux mêmes
fréquences), les e↵ets locaux de sites (sismomètres sur bassins sédimentaires
ou sur rochers a✏eurant),. . . Le deuxième type de magnitude se calcule à partir des caractéristiques mêmes de la rupture : durée de la rupture, glissement
17
moyen et longueur de glissement. Cette magnitude appelée de moment
présente l’avantage de ne pas saturer (contrairement au type précédent),
mais nécessite une bonne connaissance/estimation de la rupture, ce qui n’est
pas facile d’obtenir immédiatement. C’est pourquoi on la calcule uniquement
pour des séismes supérieurs à 7, bien souvent.
La magnitude est une quantité sans unité, sans maximum, sur une échelle
logarithmique. Chaque augmentation d’un nombre de magnitude correspond
à une énergie libérée 30 fois plus importante, et un mouvement du sol 10 fois
plus grand.
3.3
Conclusion
La sismologie utilise ou étudie les séismes provoqués par la rupture de
la croûte. On distingue l’exploration (étude de la structure de la Terre) de
l’étude des séismes.
Dans le premier cas, on utilise les séismes comme des sources d’énergie
qui vont radiographier les structures. Notre connaissance de la structure terrestre (radiale, homogène au premier ordre) provient de l’étude des arrivées
des di↵érentes ondes, et ne date que du début du XXème siècle. En fonction
de l’étendue des réseaux sismologiques et des ondes (volume ou surface), on
peut regarder les variations de vitesse à l’échelle de quelques kilomètres ou
bien à l’échelle globale.
La profondeur d’investigation dépend également des ondes utilisées et de l’extension du réseau. Localement, on ne va pas plus loin que la profondeur des
séismes utilisés (souvent crustaux et > 20km). Avec les réseaux globaux, on
image l’ensemble du manteau.
L’étude des séismes nous permet par ailleurs d’identifier les zones cassantes de la lithosphère et de comprendre les mécanismes de rupture. Il reste
très difficile tout de même de comprendre les intéractions complexes qui
peuvent exister entre les contraintes, les fluides, les hétérogénéités crustales,
les structures déjà présentes et l’occurence des séismes.
4
Sismique
La sismique est une méthode de prospection qui utilise des sources actives pour générer des ondes sismique et explorer la surface de la Terre. Du
fait du contenu haute fréquence de ces sources (explosions, canons à air, camions vibreurs, marteau), la profondeur d’investigation reste faible (quelques
mètres à quelques dizaines de kilomètres).
18
Elle est très utilisée pour la prospection pétrolière, à terre comme en mer.
Elle permet aujourd’hui d’avoir une excellente résolution, ainsi que des reconstructions en 3D du sous-sol.
Pour simplifier le traitement et les assurer une bonne adéquation entre théorie
et pratique, on travaille presque toujours le long des profils car le trajet des
ondes est facilement modélisable (Fig. 16).
Figure 16 – Principe de sismique et les di↵érents types d’ondes enregistrés
et utilisés.
Deux techniques se distinguent en sismique : la sismique reflexion et la
sismique refraction. On utilise l’une ou l’autre suivant les besoins de l’étude.
4.1
Sismique reflexion
La sismique reflexion utilise uniquement les ondes refléchies aux interfaces. On obtient alors la géométrie de ces interfaces. La vitesse des di↵érentes
couches ne peut pas être obtenue.
Les données utilisées sont les temps d’arrivée des ondes refléchies. Il est cependant nécessaire de procéder à un certain nombre de corrections et de
traitements pour obtenir une image claire et fiable du sous-sol comme cidessous (Fig. 17).
La correction NMO (Normal Move Out)
Dû à la géométrie du procédé d’acquisition, les temps d’arrivée des ondes
réfléchies augmentent en fonction de la distance de façon artificielle. Il faut
donc prendre en compte cet e↵et purement géométrique et apporter des corrections (Normal Move Out, Fig. 18).
Cependant, ces corrections ne peuvent s’e↵ectuer qu’en connaissant la vi19
Figure 17 – Exemple de coupe de sismique reflexion.
Figure 18 – E↵ect géométrique de la sismique reflexion.
tesse de propoagation des ondes dans le milieu. Un modèle de vitesse inexact
provoquera des artefacts qui risquent d’être interprêtés comme réel (Fig. 19).
Plusieurs techniques sont utilisées suivant les entreprises ou laboratoires
qui traitent les données. Elles peuvent aller de la simple prise en compte
d’un modèle de vitesse uniforme, au tirage aléatoire de plusieurs milliers de
modèles de vitesse pour diminuer les artefacts.
La migration
La présence d’interfaces pentées ou encore non planes (bosses, creux)
créer des artefacts importants et des recouvrements dans les profils de sismique reflexion (Fig. 20). Pour s’en a↵ranchir au mieux, on procède à des
20
Figure 19 – Principe de la correction NMO. Une vitesse sous-évaluée fera
remonter artificiellement l’interface, alors qu’une vitesse trop grande ne corrigera pas assez l’e↵et géométrique des hyperboles.
migrations. Ces opérations consistent à déceler les recouvrements ou les endroits ou les signaux se multiplient et à les corriger. Ces corrections sont
parfois très complexes et nécessitent de passer dans le domaine spectral (en
fréquence). De nombreuses recherches
sont encore menées pour correctement
Migration
Migration
corriger ces artefacts.
Avant migration
Conversion temps
Après migration
profondeur (avec v de l’analyse de vitesse)
Conversion temps
profondeur (avec v de l’analyse de vitesse)
Figure 20 – Migration d’une coupe sismique pour retrouver la topographie
”vraie” des interfaces. Avant migration à droite, après migration à gauche.
19/64
20/64
La migration permet également de passer des coupes en temps double
(TWT, Two Way TravelTime), à des coupes en profondeur. Pour cela, il
faut non seulement s’a↵ranchir des e↵ets de topographie des interfaces, mais
également connaı̂tre précisemment les vitesses du milieu que traversent les
ondes. Sans quoi, les profondeurs risquent d’être éronnées.
21
Les multiples
Enfin, je voudrais mentionner un dernier e↵et qu’il faut corriger et bien
connaı̂tre, celui des multiples. Les ondes sismiques vont se réverbérer sur
les interfaces plusieurs fois. Ces ondes réfléchies multiples provoquent des signaux de temps d’arrivée qui peuvent être assez important en termes d’amplitude (Fig. 21). Ces arrivées peuvent faire croire à tort à l’existence d’une
interface profonde parallèle à la primaire (Fig. 22).
Figure 21 – Droite : géométrie des multiples en sismique réflexion. Gauche :
signal des primaires et du multiples sur un enregistrement sismique.
Figure 22 – Coupe de sismique reflexion non corrigée des multiples. On voit
jusqu’à 5 interfaces parallèles à la première se propager en profondeur.
Il est donc important d’identifier ces multiples et de les éliminer des
courbes. Là encore, de nombreuses recherches sont menées pour correctement les traiter sans dégrader le signal des arrivées primaires.
4.2
sismique refraction
La sismique refraction utilise uniquement les ondes refractées sur les
interfaces. Par leur traitement, on obtient la vitesse de chaque couche tra22
versée par les ondes. Aucun renseignement sur la géométrie des couches n’est
obtenu.
Pour obtenir les di↵érentes vitesses des couches, il faut pointer le temps
d’arrivée des premières ondes en fonction de l’o↵set (l’onde qui se réfracte
circule sur l’interface avec la vitesse du milieu sous-jacent, bien souvent plus
rapide). La pente de la droite obtenue est l’inverse de la vitesse du milieu
sous-jacent (Fig. 23). Lorsque les interfaces sont pentées, il faut procéder à
Figure 23 – Principe de sismique refraction.
deux tirs, un en amont et l’autre en aval pour déterminer la vitesse vraie.
En e↵et, dans ce cas, les droite obtenue sur les hodochrone n’auront pas la
même pente (Fig. 24). Comme on ne connaı̂t pas a priori le pendage du
milieu explorer, on e↵ectue systématiquement des tirs aux deux bouts du
profil.
Figure 24 – Cas pour une interface pentée (droite) et obtention des hodochrones correspondantes (gauche).
Afin d’obtenir le maximum d’information sur les vitesses du milieu, on
procède généralement par inversion ou modélisation des hodochrones obtenues. Par un modèle direct, on va tenter par exemple de s’approcher le
plus possible des arrivées de temps observées (Fig. 25). C’est une procédure
extrêmement délicate, car il faut bien connaı̂tre la géométrie des interfaces,
correctement identifier les arrivées, et e↵ectuer des milliers de tests parfois
(recherche stochastique, ou aléatoire).
23
Figure 25 – Exemple de modélisation d’un profil de sismique refraction. On
fait passer des rais sismiques en changeant les vitesses pour une géométrie
donnée (B) jusqu’à l’obtention d’arrivées similaires (C) à celles observées
(A).
4.3
Conclusion
Les sismiques reflexion et refraction sont deux techniques complémentaires
qui permettent d’imager le sous-sol avec une précision beaucoup plus impor24
tante que la tomographie passive (sismologie) car on maı̂trise les localisation
et amplitude des sources. Le contenu fréquentiel des sources utilisées (haute
fréquence) ne permet pas cependant une exploration plus profonde que la
croûte avec ces méthodes. Elles sont particulièrement bien adaptées et sont
très utilisées pour l’exploration des énergies fossiles (gaz, pétrole) qui o↵rent
un contraste d’impédance important avec les roches encaissantes.
25
Téléchargement