Gravimétrie et sismologie Prépa-AGREG 2015-2016 C. Tiberi Table des matières 1 Introduction 2 Gravimétrie 2.1 Préliminaires . . . . . 2.2 Structure de la Terre . 2.3 Dynamique - Isostasie 2.4 Conclusion . . . . . . . 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 . 2 . 5 . 7 . 10 3 Sismologie 10 3.1 Structure de la Terre . . . . . . . . . . . . . . . . . . . . . . . 10 3.2 Localisation et caractéristiques de la déformation . . . . . . . 16 3.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 4 Sismique 4.1 Sismique reflexion . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 sismique refraction . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 18 19 22 24 Introduction généralités La forme et l’intérieur de la Terre ne sont connus qu’au travers d’observations faites uniquement sur sa surface. Nous n’avons aucun moyen direct de connaı̂tre sa structure ou sa composition de façon précise et absolue. Ces connaissances nous permettraient cependant d’en comprendre la dynamique et donc, par exemple de mieux anticiper les risques engendrés par son activité Plusieurs outils sont à notre disposition pour avoir une idée (déformée) de sa structure interne et profonde. Parmi tous ceux à notre disposition, nous avons la sismologie et la gravimétrie. Ces deux méthodes géophysiques 1 nous permettent d’une part d’imager les structures du globe (à plusieurs échelles), et d’autre part d’accéder à un aspect temporel pour comprendre certains points de la dynamique du globe terrestre. Notions préliminaires Quelque soit l’outil géophysique que nous utilisons, nous allons travailler avec des méthodes indirectes, c’est à dire qui vont nous permettre d’obtenir un modèle possible, qui explique au mieux (et pas parfaitement) les données que nous avons récoltées en surface. Ce modèle est imparfait, souvent incomplet, et sera toujours relatif à un modèle initial ou de référence. On travaille en sismologie et en gravimétrie en termes d’anomalies. C’est à dire qu’on fait des allers-retours incessants entre observations et calculs pour obtenir un modèle qui minimise les di↵érences entre les deux. Pour la sismique, c’est un peu di↵érent, et cela sera expliquer dans le dernier châpitre. Dans la suite de ce cours, une anomalie fera toujours référence à la di↵érence entre un observable (gravité ou temps d’arrivée) et un calcul. Les figures d’anomalie sont toujours par rapport à un modèle. 2 Gravimétrie C’est l’étude du champ de pesanteur de la Terre (et/ou des autres corps celestes). Elle permet notamment d’étudier la répartition (spatiale et temporelle) des masses à l’intérieur de la Terre. On peut également étudier l’équilibre de ces masses, et donc avoir une information dynamique (isostasie). 2.1 Préliminaires La Terre possédant une masse, elle attire tout objet dans son environnement (et réciproquement). Son attraction est d’autant plus grande que l’objet est proche (loi en 1/r2 ). L’attraction que subit un objet à la surface de la Terre dépend : — de la forme de la Terre — de la rotation de la Terre — des e↵ets de marée (attraction des autres corps célestes) — de la répartition des masses à l’intérieur de la Terre. Pour étudier le dernier point, il faut donc s’a↵ranchir des 3 premiers. Pour cela, on va utiliser un modèle de Terre homogène, sphérique, en 2 Figure 1 – Représentation des di↵érentes équipotentielles de pesanteur par rapport à la topographie terrestre. L’ellipsoı̈de est théorique, et le géoı̈de est réel. rotation, et corriger des e↵ets de marée. Toute anomalie par rapport à ce calcul reflètera des sources hétérogènes sous le point de mesure. Ce modèle, c’est l’ellipsoı̈de de référence (Fig. 1). C’est une figure mathématique qui représente l’équipotentielle de pesanteur ⇤ théorique se confondant au mieux avec la surface moyenne des océans (pour être le plus proche possible d’une équipotentielle terrestre). L’équipotentielle réelle de la Terre est appelé Géoı̈de. Elle est proche de l’ellipsoı̈de, mais s’en écarte en quelques endroits (Fig. 1). Ces di↵érences sont appellées anomalies du géoı̈de, et se mesurent en mètre. Elles représentent les écarts de l’équipotentielles de la Terre réelle par rapport à une Terre homogène, sphérique et en rotation (Fig. 2). On mesure le potentiel de pesanteur de la Terre (la forme du géoı̈de) grâce à des satellites. CHAMPS, GRACE et GOCE en sont les trois plus récents. En mer, le géoı̈de se confond avec le niveau moyen des océans (qui définit l’horizontale). La pesanteur (g) de la Terre peut de la même façon se calculer de façon théorique sur l’ellipsoı̈de de référence (g0 ), et se mesurer sur la surface de la Terre (gobs ). Les di↵érences observées (anomalies) sont alors interprétées comme excès ou déficit de masse par rapport à un milieu homogène. Cependant, pour une parfaite comparaison, il faudrait être à la même altitude dans les deux cas, et tenir compte de la présence (ou absence) de certains matériaux (montagnes, océans). Des corrections vont donc être nécessaires : — correction d’altitude. Elle permet de tenir compte du fait que la mesure n’est pas toujours à l’altitude de l’ellipsoı̈de. Si la mesure s’e↵ectue plus haut (on s’éloigne des sources), le gobs sera plus faible que le ⇤. Rigoureusement, le potentiel de pesanteur est la somme du potentiel de gravitation et du potentiel de rotation. 3 Figure 2 – Anomalies du géoı̈de en mètres (d’après GFZ Postdam). g0 , mais ce ne sera pas à cause d’un déficit de masse. Elle est égale à : 0.3086h † (Fig. 3). — correction de plateau. Elle permet de tenir compte de la présence ou de l’absence de masse entre le point de mesure réel et l’ellipsoı̈de. Si la mesure est e↵ectuée au sommet d’une montagne, il faut tenir compte de la masse de la montagne. C’est un premier ordre, et elle est égale à : 2⇡⇢Gh = 0.0419⇢h ‡ (Fig. 3). — correction de terrain. On affine simplement la correction de plateau en tenant compte de la topographie fine autour du point de mesure. Elle était auparavant estimée avec des abaques, elle est à présent calculée à partir de modèles numériques de terrain (MNT) (Fig. 3). En appliquant uniquement la correction d’altitude à g = gobs g0 , on obtient l’anomalie à l’air libre. En Appliquant les correction d’altitude et de plateau, on obtient l’anomalie de Bouguer simple. En appliquant les 3 corrections, on obtient l’anomalie de Bouguer complète. Les anomalies ainsi obtenues reflètent donc les excès ( g > 0) ou les déficits ( g < 0) de masse sous le point de mesure. Attention à la nature de l’anomalie gravimétrique considérée. L’anomalie à l’air libre est très souvent utilisée en mer car elle contient les courtes †. h = altitude de la mesure en mètres. ‡. ⇢ étant la densité moyenne du terrain (souvent prise à 2.67), G est la constante de gravitation universelle. 4 gobs gobs topo oïde ellips oïde ellips g0 a) air libre = 0.3086h ⇢ b) plateau = 0.0419ρh gobs topo oïde ellips c) terrain Figure 3 – principe des di↵érentes corrections gravimétriques : a) correction d’altitude (ou air libre), b) correction de plateau, c) correction de terrain. longueurs d’onde de la bathymétrie (car non corrigées), et est donc un excellent indicateur de la topographie sous-marine. L’anomalie de Bouguer est beaucoup plus utilisée pour les études à Terre car elle tient compte de toutes les masses sous la surface topographique. 2.2 Structure de la Terre Les anomalies gravimétriques sont très utilisées pour comprendre la distribution des masses à l’intérieur de la Terre. Seulement deux gros inconvénients interviennent. D’une part le signal gravimétrique décroit rapidement (en 1/r2 , r étant la distance entre source et mesure). Cela signifie que les sources profondes auront une signature gravimétrique très faible. D’autre part, provenant d’un potentiel, la pesanteur sou↵re d’un problème de non-unicité. Cela signifie qu’une même signature gravimétrique peut-être associée à une infinité de sources. Que faire ? Ces 2 inconvénients s’accompagnent cependant du fait qu’une source plus profonde produira une anomalie certes plus faible, mais de forme d’onde identique, et de longueur d’onde (⇠ largeur) plus importante (Fig. 4). Les anomalies étroites (petites longueurs d’onde) seront donc toujours à rattacher à des sources superficielles. En revanche, les anomalies larges (grandes longueurs d’onde) pourront aussi bien provenir de 5 gz Figure 4 – Une anomalie gravimétrique peut s’expliquer aussi bien par une source superficielle étalée de faible contraste de densité, que par des sources plus profondes moins étendues présentant des contrastes plus importants. larges structures en surface que de sources plus petites mais en profondeur (Fig. 4). Pour pallier ces problèmes et obtenir des informations sur la structure interne du globe, on peut utiliser à la fois le potentiel et les anomalies de pesanteur, et surtout, il faut les combiner à des connaissances supplémentaires (géologie de surface, images tomographiques, géodynamique). Notamment, les anomalies du géoı̈de sont mesurées par des satellites à une altitude de plusieurs centaines de kilomètres. Ils sont donc loin des sources, mais plus sensibles aux grandes longueurs d’onde donc potentiellement aux sources les plus profondes. C’est ainsi que sur les cartes récentes d’anomalie du géoı̈de, on distingue clairement les anomalies dues aux zones de subduction, aux topographies principales (Himalaya,. . . ), mais pas du tout celles correspondant aux édifices volcaniques, par exemple (Fig. 2). À plus grande échelle, les anomalies sous le sud de l’Inde et l’Afrique du Sud par exemple sont plutôt interprétées comme provenant de sources dans le manteau inférieur (convections, super-panache, . . . ). Comme la gravimétrie ne permet absolument pas de localiser ces sources avec certitude en profondeur, des outils supplémentaires tels que la tomographie sismologique nous permettra d’aller plus loin. Les longueurs d’onde plus petites (les plus petits détails) seront présentes, elles, dans les cartes d’anomalies gravimétriques terrestres (ex. Fig. 5). Ces 6 Figure 5 – Anomalies à l’air libre (gauche) et de Bouguer complète (droite) pour la France. données sont obtenues lors de campagnes de mesures à terre, aéroportées ou maritimes. Les instruments utilisés sont les gravimètres. Ils peuvent être de deux types : absolus ou relatifs. Dans le premier cas, on mesure la composante verticale absolue du champ de pesanteur. C’est une mesure extrêmement délicate à e↵ectuer (matériel peu transportable), et il y a donc peu d’endroits au monde où une telle information existe. Pour les gravimètres relatifs, il s’agit de mesurer la chute d’une masse, ou bien l’allongement d’un ressort. Les mesures sont faites suivant des boucles et ne concernent que les variations relatives de la pesanteur. Les cartes ainsi obtenues (anomalies de Bouguer, le plus souvent) permettent de mettre en évidence des sauts de Moho, la présence de cavités, de réservoirs magmatiques, de fluides,. . . 2.3 Dynamique - Isostasie La gravimétrie peut également servir à étudier l’équilibre des masses à l’intérieur de la Terre. Le premier à s’en rendre compte est Léonard de Vinci. Mais le premier à le formuler est Pierre Bouguer en 1749, qui observe que les montagnes dévient localement la verticale, mais dans le sens inverse de ce à quoi on pouvait s’attendre : en e↵et, au lieu d’attirer un pendule (excès de masse dû à la présence de montagne), elles le repousse (déficit de masse). Plus tard en 1854, John Henry Pratt et Sir Georges B. Airy, quasi simultanément, proposent chacun un modèle pour expliquer ces observations. Les deux modèles se basent simplement sur le principe d’Archimède. Le modèle d’Airy considère que la croûte terreste peut être modélisée par des colonnes de terre, ayant toutes la même densité, mais des hauteurs di↵érentes. 7 ρc ρ4 ρ1 ρ2 ρ1 ρ3 ρ4 ρm ρm Modèle Pratt Modèle Airy Figure 6 – a) Modèle de Pratt. Les di↵érences de topographie sont expliquées par des variations latérales de densité. b) Modèle d’Airy. Les di↵érences de topographie sont compensées par des hauteurs de colonnes di↵érentes de densité constante. Dans les deux cas, les poids de chaque colonne en base de manteau sont équivalents. L’équilibre s’e↵ectue alors sur la hauteur de la colonne enracinée, un peu comme un glaçon s’enfonce dans l’eau proportionnellement à sa masse volumique (Fig. 6b). Pour Pratt, l’équilibre s’e↵ectue non plus grâce aux profondeurs de pénétration, mais grâce aux variations latérales de densité (Fig. 6a). Comme il s’agit de concepts dans les deux cas, de façon rigoureuse, ils ont raison tous les deux ! Le modèle de Airy (plus facile à appréhender, certainement), est très utilisé pour expliquer ou comprendre la structure profonde liée aux chaı̂nes de montagnes. Le modèle de Pratt s’applique lui plus facilement au domaine océanique, où la croûte se densifie en se refroidissant loin de la dorsale. En regardant la carte des anomalies gravimétriques de la France (Fig. 7), on remarque une anomalie très négative sous les reliefs principaux (Alpes et Pyrénées). C’est la signature des racines crustales. Dans le modèle de Airy, une masse supplémentaire sur la croûte s’accompagne d’un enfoncement des colonnes dans le manteau. On remplace du manteau (dense) par du matériel crustal moins dense, on obtient donc une anomalie négative. Seulement, ce n’est pas aussi simple, et les compensations isostatiques vont dépendre avant tout de la rigidité de la lithosphère (qui supportent en quelque sorte les charges) et de la longueur d’onde de la charge (Fig. 8). En e↵et, si je pose un stylo sur ma table, je n’ai pas un équilibre qui s’e↵ectue localement (la table ne se déforme pas sous mon stylo). La lithosphère peut : — ne pas se déformer du tout si elle est extrêmement rigide (froide par 8 Figure 7 – Comparaison des reliefs de la France (gauche) avec l’anomalie de Bouguer (source : BRGM) exemple), ou bien si la charge est suffisamment petite — ployer plus largement si elle a une rigidité suffisante pour résister un peu à la charge. Dans ce cas, les déformations (et anomalies) peuvent dépasser latéralement les bords de la charge — se déformer localement et complètement à la façon de l’eau et du glaçon si elle est très peu rigide ou si la charge est très large. On parle alors d’isostasie locale, ou de relief parfaitement compensé. Le moyen le plus efficace pour savoir dans quel cas on se situe est simplement de comparer la topographie avec les anomalies gravimétriques. Une simple comparaison qualitative ne suffit pas dans la plupart des cas. On peut quantifier le phénomène et retrouver la rigidité de la lithosphère en corrélant les deux signaux. Les techniques de cohérence et d’admittance § permettent (sous réserve de quelques hypothèses) d’estimer la rigidité de la lithosphère en fonction des longueurs d’onde considérées. Il est important de noter aussi que si la lithosphère possède une certaine rigidité, elle va mettre un certain temps pour se déformer et compenser la charge crustale. Le facteur temporel est essentiel, et on estime également la rigidité de la lithosphère en étudiant le rebond post-glaciaire (le temps que met la lithosphère pour retrouver un état d’équilibre après la fonte des calottes glaciaires). §. hors programme. 9 Figure 8 – Di↵érents cas d’isostasie suivant la rigidité de la lithosphère. Gauche : cas d’une lithosphère très rigide (pas de compensation). Centre : lithosphère supportant partiellement la charge (compensation régionale et partielle).Droite : cas d’isostasie locale (compensation parfaite). 2.4 Conclusion La gravimétrie est une méthode géophysique simple et depuis longtemps utilisée pour deux choses : trouver la répartition des masses dans le sous-sol, et obtenir une information sur la réponse à la déformation de la lithosphère. Les échelles spatiales d’investigation vont de quelques mètres (en microgravimétrie) à l’échelle du Globe. La gravimétrie a été utilisée en exploration minière jusqu’à l’arrivée de la sismique, plus coûteuse, mais plus efficace et plus précise. Elle est toujours utilisée pour faire des prospections locales lors de travaux de voirie, de rénovation ou d’exploration locale car peu coûteuse et facile à mettre en place. Elle est dans ce cas souvent combinée à d’autres techniques d’exploration géophysique (radar, sismique...). L’avènement des satellites gravimétriques au début des années 2000 et jusqu’en 2010 a permis de redecouvrir la gravimétrie et son utilité dans des domaines aussi vastes que la géophysique, la climatologie, l’océanologie, la glaciologie, la planétologie. 3 Sismologie La sismologie est une science plutôt jeune, puisqu’il a fallu attendre le développement d’instruments spécifiques pour pouvoir enregistrer les ondes sismiques. On va distinguer ici deux aspects de la sismologie. D’une part l’étude de la structure interne de la Terre par la propagation des ondes sismiques, et d’autre part l’étude du séisme en tant qu’objet (dynamique, localisation). 3.1 Structure de la Terre Si l’on connaı̂t les séismes et leurs e↵ets dévastateurs depuis fort longtemps, la sismologie est relativement jeune. Le premier enregistrement d’un 10 séisme japonais à Potsdam en 1889 convaint les scientifiques qu’il existe des ondes sismiques qui se propagent dans la Terre (Fig. 9). Cela signifie donc qu’en les étudiant, on peut obtenir des informations sur l’état interne du Globe ! Figure 9 – Enregistrement du séisme du 17 avril 1889 à Potsdam. La première moitié du XXieme siècle voit un développement extrêment rapide de notre connaissance sismique du globe. En identifiant et en étudiant di↵érentes ondes sismiques (P, S, SKS, SKiKS,. . . ), les scientifiques arrivent à identifier des interfaces majeures à l’intérieur de la Terre. Ainsi le noyau de la Terre est identifié grâce à l’observation d’une discontinuité des temps d’arrivée des ondes P, et au retard des ondes S dans les sismogrammes. On obtient donc vers les années 60 un modèle de Terre sismologique, concentrique, avec une structuration en couches : une croûte, un manteau supérieur, un manteau inférieur, un noyau externe et un noyau interne. Plusieurs modèles 1D voient le jour ¶ , avec quelques di↵érences quant à la profondeur des interfaces, les valeurs moyennes des vitesses etc. . . Ils restent tous très similaires et surtout ne présentent que des couches homogènes concentriques (Fig. 10). Il s’agit de plus de modèles élastiques, i.e. les caractéristiques temporelles (rigidité, viscosité) ne peuvent être obtenus que par d’autres données (en particulier la gravimétrie !). Grâce à ces modèles sismologiques, les scientifiques peuvent dès lors obtenir des temps d’arrivée théoriques pour les ondes sismiques émises par n’importe quel séisme. En les comparant aux arrivées réelles enregistrées sur des sismogrammes, on a vite remarqué que des di↵érences existaient ; les ¶. Un des plus utilisé est le modèle PREM. 11 Figure 10 – Modèle sismologique 1D PREM (PReliminary Earth Model). ondes arrivaient suivant les endroits soit en avance, soit en retard (Fig. 11). La structure sismique interne de la Terre n’était pas homogène et déviait des modèles globaux. Une avancée médicale va alors révolutionner le monde de la sismologie dans les années 70 : la radiographie. En appliquant cette technique d’imagerie à la Terre, et en utilisant non pas les rayons X mais les rais sismiques, on va être à même de scanner l’intérieur de la Terre. Lorsque les temps d’arrivée observés sont en retard par rapport aux théoriques, alors le rai sismique a dû traverser une zone plus lente, et si les observations sont en avance, alors le rai a traversé une zone plus rapide que la vitesse prédite par le modèle. Pour parfaitement localiser et caractériser ces anomalies (déviations par rapport au modèle 1D), on combine toutes les obervations provenant de di↵érents séismes à di↵érentes stations afin d’optimiser l’éclairage (on parle de croisement ou de densité de rais, Fig. 11). Il existe plusieurs techniques de tomographie sismologiques. On les utilise en fonction du volume à explorer et des caractéristiques de la région. On distingue ainsi : 12 B03201 VANORIO ET AL.: THREE-DIMENSIONAL TOMOGRAPHY AT CAMPI FLEGREI B03201 P réelle P théorique PREM Temps Figure 5. Vertical cross sections for (a) P and (b) S velocity models along the W-E and N-S directions reported in Figure 1. Black circles, black stars, and triangles indicate earthquake, well, and station locations. Figure 11 – Principe de la tomographie sismique : Les décalages entre les temps d’arrivée théorique et observé des ondes (ici une P) sur les séismes enregistrés aux stations sismologiques servent à localiser et évaluer les anomalies de vitesses à l’intérieur de la Terre. dure such as the coupling between the earthquake hypocenters and the velocity parameters [Thurber, 1992], the initial 1-D velocity model [Kissling et al., 1994], as well as the size of the grid used for data inversion and the regularization technique. Similarly, the source-station geometry which in turn affects ray path distribution is a critical factor in resolving velocity structure. In order to estimate if our distribution of earthquake hypocenters and La tomographie locale Ce type de tomographie utilise uniquement les arrivées P et S des séismes locaux pour imager une région restreinte. On utilise pour cela des réseaux sismologiques temporaires, déployés à l’aplomb des séismes. Cette techniques est particulièrement délicate, car il faut à la fois retrouver les anomalies de vitesse mais également la localisation précises des séismes. Ces deux paramètres étant inter-dépendants, il faut faire plusieurs itérations avant de trouver une solution. La résolution spatiale des modèles obtenus est de l’ordre du kilomètre, et la profondeur d’investigation est restreinte aux séismes les plus profonds (généralement ⇠20-30 km maximum). Les modèles obtenus sont les seuls à être absolus. C’est à dire que ce ne sont pas des anomalies par rapport à un modèle 1D. Cependant, l’inversion étant très instable, on part souvent d’un modèle initial qui influence beaucoup le résultat. On obtient des modèles pour les ondes P mais aussi pour les ondes S (Fig. 12). Figure 6. Vertical cross sections along the W-E and N-S directions of the checkerboard model perturbations after inversion for (a) the P and (b) S velocity. 6 of 14 La tomographie régionale Dans ce cas, on utilise des réseaux temporaires, mais déployés plus largement sur une zone d’étude qui fait plusieurs centaines de km2 . L’espacement entre station est typiquement de ⇠30 km, et l’on utilise des séismes lointains 13 B03201 VANORIO ET AL.: THREE-DIMENSIONAL TOMOGRAPHY AT CAMPI FLEGREI B03201 Figure 5. Vertical cross sections for (a) P and (b) S velocity models along the W-E and N-S directions reported in Figure 1. Black circles, black stars, and triangles indicate earthquake, well, and station Figure 12 – locations. Exemple de modèle obtenu par tomographie locale (ici en Italie dure such as the coupling between the earthquake hypo- regularization technique. Similarly, the source-station sous les champs phlégréens). centers and the velocity parameters [Thurber, 1992], the initial 1-D velocity model [Kissling et al., 1994], as well as the size of the grid used for data inversion and the geometry which in turn affects ray path distribution is a critical factor in resolving velocity structure. In order to estimate if our distribution of earthquake hypocenters and pour éclairer les 200-400 premiers kilomètres de la Terre. On peut uiliser les ondes de volume, mais également les ondes de surface. La résolution spatiale est de l’ordre de 30 km (fig. 13). Les modèles obtenus sont uniquement des anomalies par rapport à un modèle 1D (type PREM). Figure 6. Vertical cross sections along the W-E and N-S directions of the checkerboard model perturbations after inversion for (a) the P and (b) S velocity. 6 of 14 Figure 13 – Exemple de modèle obtenu par tomographie régionale dans la zone du Rift Est Africain. que les repésentent uniquement desh) P wave velocity model Figure 3.Notez Horizontal crosscartes sections sliced through (a – d) S and (e– tomography. anomalies (exprimées en %). Horizontal cross sections through the model are shown for depths of 150, 200, 300 6 of 16 locations of the vertical cross sections in Figure 4 are shown in Figure 3a. Political boundaries are s approximate rift boundaries are outlined in gray. The 2,000 m elevation contour line is show locations are depicted as small white squares, and regions of the model with low ray coverage vo La tomographie globale black according to hit count, with a hit count of 10 having light shading and a hit count of 0 having The P wave velocity model is after Benoit et al. [2006]. On utilise dans ce cas la totalité des stations sismologiques sur Terre, et tous les séismes sur plusieurs années (avec un seuil de magnitude, quand 14 même). Les stations sont essentiellement les sites permanents internationaux (comme GEOSCOPE, en France par exemple). Les données sont ainsi de meilleure qualité. Le modèle obtenu est global, c’est à dire qu’il concerne l’ensemble du globe pour une résolution latérale moins importante bien sûr 488 I. D. Bastow et al. (plusieurs centaines de km). On utilise les ondes de volume (pour imager le manteau terrestre), mais aussi les ondes de surface. Dans ce cas, on n’image que les 300 premiers kilomètres de la Terre (ondes qui restent en surface). Les anomalies sont là aussi par rapport à un modèle global 1D (Fig. 14). Figure 14 – Exemple de modèle obtenu par tomographie globale pour des ondes de surface (ici Vs/Vs). L’interprétation des modèles tomographiques doit toujours se faire en termes de vitesses plus lentes ou plus rapides que le modèle de référence. Les variations de vitesse dépendent de plusieurs facteurs dont il faut tenir compte pour aller plus loin dans l’interprétation : la température, la composition chimique, la présence de fluide (eau, melt),. . . Par exemple, les rides océaniques correspondent souvent à des zones de vitesses lentes, car plus chaudes et contenant beaucoup de fusion partielle (pareil pour les chambres magmatiques ou les points chauds). Les panneaux plongeants des zones de subduction correspondent, eux, à des zones plus rapides car plus froides et plus denses que le manteau environnant (Fig. 14). Mais ce n’est pas toujours le cas. . . Dans une tomographie locale, notamment, une remontée du manteau (matériel plus chaud que la croûte) peut correspondre à une zone plus rapide. Le manteau, certes plus chaud que la croûte, est cependant beaucoup plus rapide sismiquement (8 km/s au lieu de 15 ⇠6.5 km/s), et apparaitra donc en ”bleu” dans les images tomographiques. Enfin, comme toute image tomographique provient d’une inversion (on part des données enregistrées pour trouver un modèle de vitesse), de nombreuses adaptations ou simplifications mathématiques sont faites qui génèrent des artéfacts. Les données ne sont pas parfaites mais empruntes d’erreurs, et ne sont pas homogènement réparties dans le volume d’investigation. Tout cela engendre des erreurs, des approximations qui font que les images tomographiques ne sont pas uniques. Il faut faire attention avant de les interpréter, et ne pas leur faire dire plus qu’elles ne peuvent réellement signifier. 3.2 Localisation et caractéristiques de la déformation Les séismes émettent donc des ondes qui nous permettent d’explorer et d’imager l’intérieur de la Terre. Ce sont également des objets qui se distribuent de façon non aléatoire sur Terre, et dont l’occurence est souvent synonyme de danger, dégats voire catastrophe. Il est donc important de comprendre cet objet pour en estimer les risques sociétaux. Leur étude nous permet également de mieux comprendre où se localise la déformation cassante sur Terre. Les séismes se répartissent essentiellement le long des limites de plaques, que ce soit les rides océaniques, les zones de subduction ou bien les grandes transformantes. Leur occurence et leur concentration sont des signes d’activité tectonique et donc de fragilité de la croûte. En localisant les séismes, on peut avoir une information directe sur la présence et bien souvent la géométrie (profondeur, direction, plongement) des failles qui les génèrent. Mécanismes au foyer On localise les séismes grâces aux réseux sismologiques permanents ou temporaires. Au minimum trois stations sont requises pour localiser un événement. Une quatrième est souvent requise pour accéder au temps origine du séisme. La première impulsion des ondes P nous donne également une indication sur le sens et la direction de propagation de l’onde, donc sur le sens et la direction de la rupture. On peut ainsi déterminer quelles sont les régions qui subissent une compression (+) ou une dilatation (-). En réunissant suffisamment de premières arrivées réparties tout autour de la zone de rupture, on élabore un mécanisme au foyer, représentation stéréographique de la zone de rupture avec des compartiments en dilatation et compression (Fig. 15). Suivant la forme de ce schéma, on en déduit le fonctionnement et 16 l’orientation du plan de faille. C’est donc une information essentielle pour comprendre les zones actives, et les mécanismes au foyer sont en général des études systématiques e↵ectuées en priorité lors de séismes majeurs (grâce aux réseaux permanents). Combinés avec des images tomographiques ou gravimétriques, on peut obtenir beaucoup plus d’information sur les structures internes, par exemple (Fig. 15). Figure 15 – Exemple de mécanisme au foyer et de leur utilisation pour comprendre la déformation dans les Pyrénées. Intensité et magnitude Les paramètres régissant les e↵ets d’un séisme sur les populations sont nombreux. Parmi eux, la distance à l’épicentre est fondamental. Plus on est loin, moins la Terre tremble. Pourtant à égale distance, certains séismes sont plus dévastateurs. Cela provient de la taille de la rupture, de sa profondeur et des e↵ets de sites. Si l’on essaie de quantifier un séisme il faut donc tenir compte de tout cela. L’intensité d’un séisme est calculée uniquement en tenant compte des dégats qu’il engendre, c’est l’échelle de Mercalli. On estime l’énergie libérée par un séisme par sa magnitude. Il s’agit d’une grandeur qui ne dépend ni de l’instrument utilisé pour mesurer, ni de la distance épicentral de l’évenement. La magnitude d’un séisme se calcule de plusieurs façons, il y a donc plusieurs types de magnitude. Le premier type se calcul à partir des enregistrements sismologiques et de l’amplitude des ondes P, S et/ou de la longueur de la coda (”queue” du signal). On y apporte des corrections pour le type d’instrument utilisé (les sismomètres ne sont pas tous sensibles aux mêmes fréquences), les e↵ets locaux de sites (sismomètres sur bassins sédimentaires ou sur rochers a✏eurant),. . . Le deuxième type de magnitude se calcule à partir des caractéristiques mêmes de la rupture : durée de la rupture, glissement 17 moyen et longueur de glissement. Cette magnitude appelée de moment présente l’avantage de ne pas saturer (contrairement au type précédent), mais nécessite une bonne connaissance/estimation de la rupture, ce qui n’est pas facile d’obtenir immédiatement. C’est pourquoi on la calcule uniquement pour des séismes supérieurs à 7, bien souvent. La magnitude est une quantité sans unité, sans maximum, sur une échelle logarithmique. Chaque augmentation d’un nombre de magnitude correspond à une énergie libérée 30 fois plus importante, et un mouvement du sol 10 fois plus grand. 3.3 Conclusion La sismologie utilise ou étudie les séismes provoqués par la rupture de la croûte. On distingue l’exploration (étude de la structure de la Terre) de l’étude des séismes. Dans le premier cas, on utilise les séismes comme des sources d’énergie qui vont radiographier les structures. Notre connaissance de la structure terrestre (radiale, homogène au premier ordre) provient de l’étude des arrivées des di↵érentes ondes, et ne date que du début du XXème siècle. En fonction de l’étendue des réseaux sismologiques et des ondes (volume ou surface), on peut regarder les variations de vitesse à l’échelle de quelques kilomètres ou bien à l’échelle globale. La profondeur d’investigation dépend également des ondes utilisées et de l’extension du réseau. Localement, on ne va pas plus loin que la profondeur des séismes utilisés (souvent crustaux et > 20km). Avec les réseaux globaux, on image l’ensemble du manteau. L’étude des séismes nous permet par ailleurs d’identifier les zones cassantes de la lithosphère et de comprendre les mécanismes de rupture. Il reste très difficile tout de même de comprendre les intéractions complexes qui peuvent exister entre les contraintes, les fluides, les hétérogénéités crustales, les structures déjà présentes et l’occurence des séismes. 4 Sismique La sismique est une méthode de prospection qui utilise des sources actives pour générer des ondes sismique et explorer la surface de la Terre. Du fait du contenu haute fréquence de ces sources (explosions, canons à air, camions vibreurs, marteau), la profondeur d’investigation reste faible (quelques mètres à quelques dizaines de kilomètres). 18 Elle est très utilisée pour la prospection pétrolière, à terre comme en mer. Elle permet aujourd’hui d’avoir une excellente résolution, ainsi que des reconstructions en 3D du sous-sol. Pour simplifier le traitement et les assurer une bonne adéquation entre théorie et pratique, on travaille presque toujours le long des profils car le trajet des ondes est facilement modélisable (Fig. 16). Figure 16 – Principe de sismique et les di↵érents types d’ondes enregistrés et utilisés. Deux techniques se distinguent en sismique : la sismique reflexion et la sismique refraction. On utilise l’une ou l’autre suivant les besoins de l’étude. 4.1 Sismique reflexion La sismique reflexion utilise uniquement les ondes refléchies aux interfaces. On obtient alors la géométrie de ces interfaces. La vitesse des di↵érentes couches ne peut pas être obtenue. Les données utilisées sont les temps d’arrivée des ondes refléchies. Il est cependant nécessaire de procéder à un certain nombre de corrections et de traitements pour obtenir une image claire et fiable du sous-sol comme cidessous (Fig. 17). La correction NMO (Normal Move Out) Dû à la géométrie du procédé d’acquisition, les temps d’arrivée des ondes réfléchies augmentent en fonction de la distance de façon artificielle. Il faut donc prendre en compte cet e↵et purement géométrique et apporter des corrections (Normal Move Out, Fig. 18). Cependant, ces corrections ne peuvent s’e↵ectuer qu’en connaissant la vi19 Figure 17 – Exemple de coupe de sismique reflexion. Figure 18 – E↵ect géométrique de la sismique reflexion. tesse de propoagation des ondes dans le milieu. Un modèle de vitesse inexact provoquera des artefacts qui risquent d’être interprêtés comme réel (Fig. 19). Plusieurs techniques sont utilisées suivant les entreprises ou laboratoires qui traitent les données. Elles peuvent aller de la simple prise en compte d’un modèle de vitesse uniforme, au tirage aléatoire de plusieurs milliers de modèles de vitesse pour diminuer les artefacts. La migration La présence d’interfaces pentées ou encore non planes (bosses, creux) créer des artefacts importants et des recouvrements dans les profils de sismique reflexion (Fig. 20). Pour s’en a↵ranchir au mieux, on procède à des 20 Figure 19 – Principe de la correction NMO. Une vitesse sous-évaluée fera remonter artificiellement l’interface, alors qu’une vitesse trop grande ne corrigera pas assez l’e↵et géométrique des hyperboles. migrations. Ces opérations consistent à déceler les recouvrements ou les endroits ou les signaux se multiplient et à les corriger. Ces corrections sont parfois très complexes et nécessitent de passer dans le domaine spectral (en fréquence). De nombreuses recherches sont encore menées pour correctement Migration Migration corriger ces artefacts. Avant migration Conversion temps Après migration profondeur (avec v de l’analyse de vitesse) Conversion temps profondeur (avec v de l’analyse de vitesse) Figure 20 – Migration d’une coupe sismique pour retrouver la topographie ”vraie” des interfaces. Avant migration à droite, après migration à gauche. 19/64 20/64 La migration permet également de passer des coupes en temps double (TWT, Two Way TravelTime), à des coupes en profondeur. Pour cela, il faut non seulement s’a↵ranchir des e↵ets de topographie des interfaces, mais également connaı̂tre précisemment les vitesses du milieu que traversent les ondes. Sans quoi, les profondeurs risquent d’être éronnées. 21 Les multiples Enfin, je voudrais mentionner un dernier e↵et qu’il faut corriger et bien connaı̂tre, celui des multiples. Les ondes sismiques vont se réverbérer sur les interfaces plusieurs fois. Ces ondes réfléchies multiples provoquent des signaux de temps d’arrivée qui peuvent être assez important en termes d’amplitude (Fig. 21). Ces arrivées peuvent faire croire à tort à l’existence d’une interface profonde parallèle à la primaire (Fig. 22). Figure 21 – Droite : géométrie des multiples en sismique réflexion. Gauche : signal des primaires et du multiples sur un enregistrement sismique. Figure 22 – Coupe de sismique reflexion non corrigée des multiples. On voit jusqu’à 5 interfaces parallèles à la première se propager en profondeur. Il est donc important d’identifier ces multiples et de les éliminer des courbes. Là encore, de nombreuses recherches sont menées pour correctement les traiter sans dégrader le signal des arrivées primaires. 4.2 sismique refraction La sismique refraction utilise uniquement les ondes refractées sur les interfaces. Par leur traitement, on obtient la vitesse de chaque couche tra22 versée par les ondes. Aucun renseignement sur la géométrie des couches n’est obtenu. Pour obtenir les di↵érentes vitesses des couches, il faut pointer le temps d’arrivée des premières ondes en fonction de l’o↵set (l’onde qui se réfracte circule sur l’interface avec la vitesse du milieu sous-jacent, bien souvent plus rapide). La pente de la droite obtenue est l’inverse de la vitesse du milieu sous-jacent (Fig. 23). Lorsque les interfaces sont pentées, il faut procéder à Figure 23 – Principe de sismique refraction. deux tirs, un en amont et l’autre en aval pour déterminer la vitesse vraie. En e↵et, dans ce cas, les droite obtenue sur les hodochrone n’auront pas la même pente (Fig. 24). Comme on ne connaı̂t pas a priori le pendage du milieu explorer, on e↵ectue systématiquement des tirs aux deux bouts du profil. Figure 24 – Cas pour une interface pentée (droite) et obtention des hodochrones correspondantes (gauche). Afin d’obtenir le maximum d’information sur les vitesses du milieu, on procède généralement par inversion ou modélisation des hodochrones obtenues. Par un modèle direct, on va tenter par exemple de s’approcher le plus possible des arrivées de temps observées (Fig. 25). C’est une procédure extrêmement délicate, car il faut bien connaı̂tre la géométrie des interfaces, correctement identifier les arrivées, et e↵ectuer des milliers de tests parfois (recherche stochastique, ou aléatoire). 23 Figure 25 – Exemple de modélisation d’un profil de sismique refraction. On fait passer des rais sismiques en changeant les vitesses pour une géométrie donnée (B) jusqu’à l’obtention d’arrivées similaires (C) à celles observées (A). 4.3 Conclusion Les sismiques reflexion et refraction sont deux techniques complémentaires qui permettent d’imager le sous-sol avec une précision beaucoup plus impor24 tante que la tomographie passive (sismologie) car on maı̂trise les localisation et amplitude des sources. Le contenu fréquentiel des sources utilisées (haute fréquence) ne permet pas cependant une exploration plus profonde que la croûte avec ces méthodes. Elles sont particulièrement bien adaptées et sont très utilisées pour l’exploration des énergies fossiles (gaz, pétrole) qui o↵rent un contraste d’impédance important avec les roches encaissantes. 25