Reconnaissance Géophysique La reconnaissance géophysique, ou prospection géophysique (geophysical survey en anglais), met en oeuvre un ensemble de méthodes indirectes où l’on cherche, à partir d’une ou plusieurs propriétés physiques à déterminer la structure du milieu souterrain de manière non destructive (non-invasive) et avec un échantillonnage spatial suffisamment dense pour que les variations latérales et verticales en soient décrites aussi complètement que le permettent la propriété et la méthode de mesure utilisées. La résolution, c’est à dire le degré de finesse avec lequel le sous-sol va être décrit, est en effet variable selon la propriété choisie et la méthode utilisée. Les mesures peuvent être réalisées à partir de la surface, de puits ou d’excavations préexistantes. Le plus souvent elles ne permettent pas, à elles seules, de déterminer les valeurs de paramètres géotechniques mais sont indispensables pour placer judicieusement les forages où seront effectuées les mesures de ces paramètres, pour interpoler entre ces localisations et pour déceler les anomalies préjudiciables à un projet. Certaines méthodes de grand rendement et capables de déterminer les grands traits de la structure géologique – sismique réfraction et méthodes électriques en particulier – seront mises en œuvre dès les premiers stades de l’étude du projet (faisabilité géotechnique G12, phase 1). Ces mesures seront réalisées quasi obligatoirement pour les études de tracés linéaires (routes, autoroutes, voies ferrées). On choisit la propriété à mesurer à partir de la corrélation qu’on lui connaît avec les caractéristiques géotechniques recherchées et de l’amplitude des contrastes qu’elle peut montrer. Toutefois, les propriétés physiques montrant à la fois une variabilité suffisamment importante en fonction des paramètres d’état du terrain significatifs en géotechnique (porosité, teneur en eau, argilosité …), et donnant lieu à des méthodes de mesure réalisables à faible coût avec des appareils robustes et de mise en œuvre facile sur le terrain, sont en nombre limité. On s’arrêtera ici à la densité, à la vitesse de propagation des ondes de compression et aux propriétés électriques. On ne traitera pas des propriétés magnétiques qui, quoique d’un usage très important en prospection archéologique et en géophysique de l’environnement sont peu utilisées en Génie Civil, ni des propriétés thermiques qui présentent l’avantage de pouvoir être mesurées en télédétection mais sur une épaisseur inférieure au mètre. Si une même propriété physique peut-être mesurée de plusieurs façons, le premier choix du prospecteur reste celui de la propriété à mesurer, en fonction des caractéristiques recherchées du terrain, la 1 facilité d’emploi et les sensibilités des appareils disponibles intervenant ensuite dans le choix de la méthode de mesure et de l’appareillage. Le coût de la mise en œuvre d’une méthode reste toujours un élément déterminant dans les choix. 3-1 Propriétés physiques utilisées 3-1-1 Densité, d Par définition, la densité d’un matériau est le rapport entre le poids d’un volume donné et le poids du même volume d’eau, c’est donc une grandeur sans unité contrairement à la masse volumique et au poids volumique (dans le système c.g.s., la masse volumique de l’eau étant de 1gcm-3 la valeur exprimant la densité est la même que celle exprimant cette propriété). Pour les milieux superficiels du sous-sol, la densité de la fraction solide est toujours très proche de ds =2,67. De ce fait, pour un sol saturé on aura : d=ds(1-n)+n n étant la porosité, et pour un sol non-saturé, d=ds(1-n)+nSr, si l’on néglige le poids de la fraction gazeuse, Sr étant le degré de saturation en eau. On a donc des relations linéaires très simples et, pour les milieux saturés, directement une valeur de la porosité. La mise en évidence de contrastes de densité est réalisée à partir de la surface par mesures gravimétriques et indirectement en sismique (cf infra). En forage, on peut aussi faire des mesures avec un gravimètre (mais c’est très rare) ; par contre, les diagraphies de densité avec un rayon d’investigation de 40cm environ sont couramment réalisées avec des sondes γγ,. Le rayonnement γ par ces sondes interagit avec les nuages électroniques des atomes présents, la quantité de rayons rétrodiffusés dépend du nombre d’électrons donc de la masse des atomes. La restitution de la densité nécessite un étalonnage. 3-1-2 Vitesse de propagation des ondes élastiques, Vp Pour un milieu linéaire, homogène et isotrope, la vitesse des ondes de compression dépend des coefficients de Lamé, λ et μ, et de la masse volumique ρ. On a : Vp = λ + 2μ . ρ 2 Les données expérimentales ne correspondent cependant pas à cette expression théorique, la vitesse étant en générale croissante avec la densité. On a donc recherché à partir de séries d’expériences, des lois empiriques simples permettant de relier la vitesse avec les paramètres significatifs. La meilleure de ces lois est celle proposée par Wyllie (1957), elle s’appuie sur le modèle ‘en pile’ où l’on considère que, dans le volume élémentaire, l’onde traverse successivement la partie solide puis la partie liquide puis la partie gazeuse et que les temps de transit s’ajoutent. On a donc sommation des lenteurs (inverse des vitesses) : 1 = (1−n) + nSr + n(1−Sr ) , Vp Vs Vw Vg où Vg est la vitesse dans la fraction gazeuse (proche de 330m s-1), Vw la vitesse dans l’eau (1500 ms-1) et Vs la vitesse dans la fraction solide. Cette dernière vitesse ne correspond pas à la vitesse dans les cristaux (de quartz, calcite ou autres) mais a été définie à partir de l’expérimentation. On peut l’appeler, « vitesse dans le solide en grain ou dans le squelette». Pour un squelette solide à dominante quartzeuse, elle est un peu plus faible, 6000 ms-1 environ, que pour un squelette solide à dominante calcaire, 6500 à 7000 ms-1. Cette expression montre toute l’importance qu’a la fraction gazeuse dans la vitesse totale : une teneur de 10% en gaz peut diviser par 2 la vitesse des ondes de compression. Les argiles saturées et consolidées ont une vitesse comprise entre 2500 et 3000 ms-1. Les milieux les plus lents que l’on puisse rencontrer correspondent aux couches superficielles non-saturées dont la vitesse peut être aussi faible que 750 ms-1, voire moins pour des couches superficielles. Les milieux les plus rapides correspondent aux dolomies et surtout aux formations cristallines saines (granites en place) dont la vitesse est de 6500 ms-1. La plage totale de variation est d’un facteur proche de 10, bien supérieur à celle présentée par la densité qui n’est que d’un facteur 2. Les tableaux ci-après montrent les corrélations qui ont été observées entre la vitesse des ondes P dans la couche superficielle et la rippabilité du terrain, et donnent une ensemble de valeurs observées pour les différents minéraux et les sols. 3-1-3 Propriétés électriques ρ, σ, ε Pour pouvoir rendre compte des phénomènes observés lorsqu’on applique sur un matériau un champ électrique deux propriétés indépendantes doivent être considérées : la conductivité électrique qui caractérise les déplacements « libres » des charges électriques sur des distances « macroscopiques » et la permittivité électrique relative qui caractérise la polarisation électrique du matériau. Cette deuxième propriété recouvre plusieurs types de 3 phénomènes différents, « déformations » de molécules ou du réseau, rotations de molécules, déplacements de charges sur de faibles distances (au plus à l’échelle du pore). La conductivité, σ, est définie par la loi d’Ohm, i=σE, où i est la densité de courant, c’est à dire la somme des charges traversant la surface unité pendant l’unité de temps, E le champ électrique. La conductivité s’exprime en Sm-1. Plutôt que la conductivité, on utilise en prospection son inverse la résistivité : ρ=1/σ ( en Ω.m). La permittivité diélectrique relative, εr, est définie par D=ε0 E+P=ε0εrE, où D est le vecteur induction électrique, P la polarisation électrique, ε0 la permittivité diélectrique du vide, ε0=1 /(36π109) Fm-1. La permittivité relative est sans unité. Pour le mécanicien en général et le géotechnicien en particulier, les notations utilisées dans le domaine des méthodes électriques peuvent créer des difficultés. On veillera ainsi à ne pas confondre le champ électrique avec le module d’Young, la conductivité avec le coefficient de Poisson, la résistivité avec la masse volumique et la permittivité diélectrique avec un déplacement. 3-1-3-1 Conductivité (ou résistivité) électrique, σ, ρ L’analyse de la variation de la résistivité d’une roche ou d’un sol avec la température montre sans ambiguïté qu’elle décroît quand la température augmente. On a donc affaire à une conductivité électrolytique où la baisse de la viscosité du fluide avec la température rend plus facile le déplacement des ions. Pour une solution de chlorure de sodium (les ions les plus abondants dans le sous-sol) on a : σ(T)=σ(T0)(1+(T-T0) 0,02), où la température est comptée en degré Kelvin (ou Celsius). Cependant l’expérience montre que souvent le déplacement d’ions dans l’eau interstitielle ne peut suffire à expliquer les valeurs obtenues et, qu’en présence de matériaux fins (argiles), la conductivité est notablement plus élevée. On tient compte de ce fait en séparant les cas de roches ou de sols grossiers des cas où intervient de l’argile. 4 a) Milieux sans argile, loi d’Archie Dans ce type de milieu on observe une proportionnalité directe entre la résistivité totale d’un échantillon, ρt, et la résistivité de l’eau qu’il contient, ρw. Le rapport F = ρt , est ρw appelé « facteur de formation ». Pour un milieu saturé, ce facteur est lié à la porosité par une formule du type F=n-m, à laquelle on peut ajouter un coefficient multiplicatif. Cette loi empirique est la loi d’Archie (1942). Le coefficient m est toujours proche de 2, il dépend de la complexité du parcours des ions dans le réseau poreux, on l’appelle coefficient de tortuosité ou de cimentation. Pour un milieu non-saturé on aura F=(nSr)-m, mais il est aussi possible d’introduire deux exposants légèrement différents, l’un pour n, l’autre pour Sr. Si les grains se rapprochent d’une forme sphérique, m est plutôt inférieur à 2 (grès, sable), si les grains se rapprochent d’une forme « en plaquette », il est plutôt supérieur à 2. b) Milieux avec argile Dans les matériaux fins il faut tenir compte d’un phénomène de conduction « surfacique » qui s’explique de la façon suivante (théorie de la « double couche » de GouyChapman) : en bordure des grains, les sites d’arrêt du réseau cristallin sont favorables à la fixation d’anions qui se trouvent ainsi liés de manière rigide au réseau. C’est aussi le cas des feuillets d’argile (smectite) qui sont chargés négativement. La surface négativement chargée attire par effet électrostatique des cations qui se placent à l’extérieur de la couche d’anions mais qui restent libres de glisser dans les directions tangentes à la surface. Le déplacement de ces cations correspond à une « conductivité surfacique ». Dans les matériaux grossiers où la surface spécifique est faible, cet effet est négligeable, mais dans les matériaux fins cet effet est dominant. Ces cations sont les mêmes que ceux qui interviennent dans la mesure de la capacité d ‘échange cationique (C.E.C.) méthode de mesure du contenu en argile d’un sol. 5 Les milieux contenant de l’argile sont donc simultanément le siège d’une conduction par déplacement des ions dans le volume d’eau et par déplacement des cations à la surface des feuillets. Pour décrire ce double phénomène la meilleure formule empirique s’est avérée être la simple sommation des deux conductivités, σs conductivité surfacique et σv conductivité volumique: σ =σ v +σ s =σ w +σ s , F et il a été montré que σs est proportionnelle à la CEC. Dans la pratique, si l’eau est très minéralisée (bords de mer, sols salés, couches profondes), la conductivité volumique l’emporte et, si l’eau est peu minéralisée (couches superficielles en milieu continental), la conductivité surfacique l’emporte. En géotechnique, en milieu continental, on doit donc d’abord considérer que la conductivité électrique traduit l’argilosité du matériau plutôt que des variations de porosité ou de salinité de l’eau. Il faut souligner aussi qu’une teneur en argile très faible du point de vue géotechnique, 5% par exemple (cf chapitre 1) a des effets électriques très marqués, elle peut diviser par deux la résistivité de la roche. Le tableau : Valeurs de la résistivité électriques pour l’eau et quelques roches. Résistivité en Ω.m Eau de mer 0,25 Eau ‘douce’ 10-200 Argiles massives 5-20 Marne 20-80 Calcaire non argileux 1000-5000 Granite non-altéré 6 3000-10000 3-1-3-2 Permittivité diélectrique, ε Alors que la résistivité peut être considérée comme constante sur toute la gamme de fréquences que l’on est amené à utiliser en prospection (0-1 GHz), la caractéristique principale de la permittivité est sa variation avec la fréquence. Deux phénomènes doivent être considérés : la rotation de la molécule d’eau et l’effet Maxwell-Wagner. La molécule d’eau étant une molécule polaire, les molécules d’eau libre (l’eau liquide si l’on considère la participation de la vapeur comme négligeable) vont s’aligner sur tout champ électrique appliqué selon un phénomène de relaxation : −t ε r (t)=ε rot (1−e τ ) , où τ est la constante de temps caractérisant la vitesse à laquelle se réalise cet alignement. Dans le domaine fréquentiel la formule précédente correspond à ε r(ω)= ε rot , 1+iωτ où ω est la pulsation. Comme τ vaut environ 10-10s, cette rotation va se produire sur toute la gamme de fréquences considérée et donner à l’eau une permittivité relative très élevée, εr=81, bien supérieure à celle de la fraction solide, comprise entre 2 et 5. Ce phénomène fait de cette propriété la plus sensible à la teneur en eau liquide libre, cette teneur peut donc être déterminée avec des mesures Radar (cf infra) ou par des mesures ponctuelles avec des sondes capacitives ou T.D.R. (Time Domain Refectometry). Pour les fréquences supérieures à 50MHz, on peut exprimer la relation entre la permittivité relative apparenteet la teneur en eau volumique, θv, par deux lois empiriques : ε a = 3.03 + 9.3θ v + 146.0θ v2 − 76.7θ v3 θ v = −5.3 × 10 −2 + 2.92 × 10 −2 ε a − 5.5 × 10 −4 ε a2 + 4.3 × 10 −6 ε a3 . Mais les résultats obtenus cadrent aussi avec l’expression empirique CRIM : pour εw=81 et εs=5 : ε a = θ ε w + (n − θ ) 1 + (1 − n) ε s Pour les fréquences inférieures à 1 MHz, il peut se produire l’effet Maxwell-Wagner, lorsque des ions se déplaçant sous l’effet d’un champ électrique se trouvent bloqués sur les parois des pores ou en bordure des plaquettes d’argile. Ces blocages vont créer une polarisation du milieu et faire intervenir des temps de relaxation variés dépendant du parcours 7 des ions (taille des pores en particulier). Il en résulte une croissance de la permittivité alors que la fréquence décroît. La permittivité diélectrique relative peut atteindre, voire dépasser, 1000 à quelles centaines de Hz dans les matériaux argileux. La permittivité relative est ici proportionnelle à la conductivité électrique, et le coefficient de proportionnalité dépend de l’organisation des pores. 3-2 Prospection gravimétrique 3-2-1 Champ de gravité, potentiel et accélération de la pesanteur Selon la loi de Newton, deux masses m1 et m2 s'attirent selon une force F =G m1 m2 , r2 dirigée suivant la droite qui les joint, G est la constante d’attraction universelle, elle vaut 6,673 10-11 m3kg-1s-2 dans le système international (6,673 10-8 en c.g.s.). Un excès ou un manque de masse dans le sous-sol va donc exercer en tout point de la surface du sol un champ (la force qui s'exercerait sur la masse unité en ce point) : H =G m . r2 La prospection gravimétrique consiste à mesurer ce champ. Il est une grandeur vectorielle r r m r , et dont les composantes dans un repère cartésien qu'il est préférable d'écrire H =G r3 auront pour expressions: y − y0 et H z =Gm z − z0 , H x =Gm x− x0 , H y =Gm r3 r3 r3 si x0, y0 et z0 sont les coordonnées de la masse et x, y et z les coordonnées du pont 1 d'observation. Si l'on considère la quantité scalaire V = Gm , on observe que les r composantes du champ correspondent au signe près à son gradient, H x =− ∂V , H y =− ∂V et H z =− ∂V . ∂x ∂y ∂z On appelle cette quantité le potentiel et on va l'utiliser dans les calculs, plutôt que le vecteur champ, car c'est beaucoup plus simple. L'effet d'un volume de matière se calcule donc à partit du potentiel: ρ V = G ∫∫∫ dv r 8 si ρ est la masse volumique. D'après le théorème de Gauss, à l'extérieur du volume, le potentiel (et chacune des composantes du champ) est une fonction harmonique qui vérifie: ΔV = ∂ 2V ∂ 2V ∂ 2V + + = 0. ∂x 2 ∂y 2 ∂z 2 A la surface de la terre, toute masse est en fait soumise à deux types de forces: (1) l’attraction exercée par la masse de la terre (et des autres astres), (2) la force d'inertie axifuge due à la rotation de la terre sur elle-même. r La résultante de ces deux forces est le poids, ou force de pesanteur. Pour une masse unité, g est l'accélération de la pesanteur et sa direction définit la verticale. 3-2-2 Mesure de la gravité Les gravimètres utilisés sont des pesons à ressorts très perfectionnés, où la force de pesanteur est opposée à la force de rappel élastique d'une série de ressorts. Les mesures sont relatives ; on mesure en chaque point une variation de l’allongement qui est proportionnelle au module du vecteur somme de la pesanteur moyenne locale et de l’anomalie. Comme l’anomalie est très faible devant la pesanteur (entre 10-6 et 10-9 fois), la longueur du vecteur r r r somme peut être approchée par la somme de g et de la projection de H sur g , c’est à dire sa composante verticale que l’on a pris l’habitude de noter Δg . Les gravimètres de Génie Civil peuvent atteindre une sensibilité de 1µgal (1 gal=1cm s-2 , 1 µgal=10-8 m.s-2) alors que la pesanteur locale est proche de 980 gal. Du fait de leur grande sensibilité, les gravimètres d’une part dérivent, et sont d’autre part sensibles aux variations de l’attraction des astres et notamment aux effets de marée. Ils sont ainsi affectés par une variation temporelle de la mesure qui doit être corrigée par des mesures en circuit fermé, en revenant régulièrement (toutes les heures environ) à un même point appelé « base » et en répartissant entre les mesures l’écart observé entre deux bases successives. 3-2-3 Corrections gravimétriques La principale difficulté rencontrée dans les mesures gravimétriques provient du fait que les variations de densité dans le sous-sol ne sont pas les seules causes de modification de la composante verticale de la pesanteur. On a d’abord une variation avec la latitude (982 gal au pôle, 978 gal à l’équateur), qui correspond à l’effet de rotation de la terre et à sa forme 9 elliptique. Cette variation est de 0,5 mgal/km dans la direction N-S aux latitudes moyennes, mais elle est régionale et donc aisément corrigeable. 3-2-3-1 Corrections de Bouguer Les différents points de mesure ne sont pas à la même altitude, ni entourés du même relief, et, en particulier, l’effet des différences d’altitude est en général supérieur à l’amplitude des anomalies recherchées. Les corrections à réaliser sont regroupées sous le terme de corrections de Bouguer et sont au nombre de trois : la correction de relief, la correction de plateau et la correction d’air libre. Pour effectuer ces corrections on doit d’abord définir un niveau de référence. En Génie Civil, le plan horizontal passant par le point le plus bas convient (ceci permet de ne pas se tromper dans les signes des corrections ensuite). Pour les prospections couvrant de grandes surfaces, on prend l’ellipsoïde. Les corrections sont réalisées point par point. La correction de relief a pour but de calculer les effets des creux et des bosses entourant le point de mesure (A sur la figure). Les bosses, comme les creux, correspondent à A une attraction dont la composante verticale est vers le haut. L’application de la correction doit donc augmenter la valeur de Δg (on dit qu’elle A’ est positive). Sa réalisation est délicate, puisqu’elle demande que l’on connaisse le relief et la densité des terrains superficiels. En l’absence de relief marqué, elle reste cependant faible. En ville, elle demande que l’on calcule l’effet des immeubles avoisinants. La correction de plateau consiste à retirer l’attraction exercée en A par la tranche de terrain comprise entre A et A’. Cette attraction a pour expression : 2πGdh où d est la densité des terrains. Cette correction est négative. La correction d’air libre vise à corriger l’effet de la différence de distance entre A et A’ par rapport au centre de masse de la terre. Elle vaut 10 ∂g =−0,3086 mgal/m. Elle est ∂z positive puisqu’elle consiste à augmenter la valeur de Δg, A’ étant plus proche que A du centre de masse. Ces deux dernières corrections, proportionnelles à h, peuvent être regroupées (0,30860,0419 d) mgal/m. Elles nécessitent une détermination très précise des écarts d’altitude entre les stations : 3mm si l’on veut garder une sensibilité de 1 µgal. La détermination de d est aussi une difficulté. Nettelton a proposé de considérer que la meilleur valeur possible pour d était celle qui minimise la corrélation entre les valeurs corrigées Δg(x,y) et la topographie de la zone prospectée. Une fois les corrections effectuées, il ne reste dans les données que des effets ayant leur origine dans le sous-sol, mais la carte « d’anomalies de Bouguer » ainsi obtenue n’est pas celle que l’on aurait eu si toutes les mesures avaient été faites au niveau de référence et en l’absence de relief, car la distance entre A et les sources d’anomalies n’est pas celle de A’. On devra dans l’interprétation tenir compte de la position exacte des points de mesure. 3-2-4 Interprétation des prospections gravimétriques Une fois les corrections effectuées, le prospecteur dispose d’une carte d’anomalies de Bouguer qu’il doit interpréter en proposant une distribution (ou plusieurs) de la densité du sous-sol qui explique exactement les anomalies observées. Malheureusement ce problème, le problème inverse, a en gravimétrie une infinité de solutions et une interprétation quantitative ne peut être proposée qu’en s’appuyant sur d’autres informations et gardera souvent une part d’arbitraire. C’est pourquoi, on s’attache dans un premier temps, sans rien modifier de l’information que la carte contient, à réaliser des transformations qui permettent de rendre plus lisibles les différentes anomalies et d’en mieux localiser les sources, on appelle ces transformations l’interprétation qualitative. Dans un deuxième temps on cherche à déterminer les paramètres invariants communs à toutes les solutions (par exemple l’excès ou le manque total de masse) et les limites des solutions (profondeur maximale des sources). 3-2-4-1 Interprétation qualitative La première transformation des données consiste en l’élimination de la variation régionale, variation dont on ne peut tirer aucune information. La méthode la plus utilisée consiste à calculer le plan (ou la surface du deuxième degré) qui s’adapte au mieux aux données et à l‘en soustraire. La carte obtenue montre alors les anomalies résiduelles. Sur cette carte, l’allure des anomalies reflète en gros celle des structures mais avec un effet d’étalement très important, on a une coalescence des anomalies et une seule anomalie 11 apparente peut en fait correspondre à l’effet de plusieurs sources distinctes. Pour corriger cet effet on peut : soit calculer les dérivées verticales de Δg, ( ∂ 2Δg ∂Δg ou ), soit prolonger ∂z ∂z 2 vers le bas la fonction Δg(x,y). Chacune de ces opérations est un produit de convolution qu’il est plus rapide de calculer dans le domaine spectral en trois étapes : on calcule la transformée de Fourier de Δg(x,y), f(u,v) où u est la fréquence spatiale correspondant à x et v la fréquence spatiale correspondant à y, on effectue une multiplication simple de cette transformée par la transformée de Fourier de l’opérateur choisi, on calcule la transformée inverse du produit. Pour le « prolongement » l’opérateur a pour transformée e −2πh u 2 + v 2 (h étant la différence d’altitude entre le niveau où on prolonge et le niveau des mesures), celle de la dérivée première verticale est : 2π u 2 +v2 , et celle de la dérivée seconde 4π 2(u 2 +v2) . 3-2-4-2 Détermination des paramètres invariants ou limitant les solutions La masse totale en excès (ou manquante) est donnée par l’expression : M =2πG∫∫Δg(x, y)dxdy , en intégrant sur toute la surface couverte par une anomalie. On peut aussi déterminer la barycentre des sources, mais celui-ci n’a qu’un intérêt limité car il peut très bien ne correspondre à aucune source réelle. Pour une structure « concentrée », ne présentant pas une direction d’allongement marquée, la source la plus profonde possible est une sphère. La profondeur maximale possible de son centre est h=0,65 L, L étant la largeur à mi-hauteur. Pour une structure allongée, la structure la plus profonde possible est le cylindre de section circulaire dont l’axe est à h=0,5L. On peut aussi, à partir de plusieurs points et après avoir calculé les gradients, appliquer la «déconvolution d’Euler» qui part de l’équation, vérifiée par toute fonction harmonique, (x− x0) ∂Δg ∂Δg ∂Δg =−NΔg . +(y − y0) − z0 ∂z ∂x ∂y 12 Cette équation permet une évaluation de la position de la source (x0, y0, z0) en fonction de l’indice structural, N. Cet indice vaut 2 pour une structure de type sphérique et 1 pour une structure de type cylindrique. 3-2-5 Utilisation de la méthode en Génie Civil La gravimétrie est une méthode bien adaptée à la détection des vides et des zones décompactées ; à ce titre elle joue un rôle majeur en Génie Civl (la détection de vides est obligatoire dans les zones périurbaines où on soupçonne la présence d’anciennes carrières). Il faut toutefois que les volumes des vides recherchés soient suffisamment importants : on considère habituellement qu’une structure assimilable à une sphère peut être détectée avec un gravimètre de génie Civil jusqu’à 2m de profondeur si son diamètre est de 2m et jusqu’à 25m si son diamètre est de 10m. Une structure allongée sera détectée jusqu’à 8m si son diamètre est de 2m et jusqu’à 40m si son diamètre est de 10m 3-2-5-1 Exemple d’utilisation 13 Cette figure, tirée de l’article de R. Neumann (Geophysical Prospecting, XVII, p129,) montre l’anomalie résiduelle obtenue sur une ancienne carrière. Les iso-valeurs sont en centièmes de mgal, le maximum est d’environ 0,3 mgal, l’anomalie, d’une largeur approximative de 50m, globalise l’effet de chacun des vides. _______________________ 3-3 Prospection sismique Dans le volume des solides existent deux types d’ondes élastiques de vitesses différentes : les ondes de compression, les plus rapides ou ondes P (primae) et les ondes de cisaillement ou ondes S (secundae). A l’interface sol-air apparaissent des ondes de surface (ondes de Rayleigh et ondes de Love) qui sont nettement plus lentes que les ondes de volume et dont l’amplitude s’amortit exponentiellement avec la profondeur. Pour les études peu profondes, l’utilisation des ondes S comme celle des ondes de surface sont peu usitées (même si elles font l’objet de programmes de recherche) et on se limite en général à l’étude des ondes P. Dans un milieu homogène la mesure de la vitesse consiste simplement à mesurer le temps d’arrivée, td, de l’onde P directe. A une distance Δ du point d’ébranlement on a : Vp = Δ td S’il existe dans le sol un interface séparant un premier milieu de vitesse V1 d’un deuxième de vitesse V2, deux phénomènes peuvent provoquer une remontée de l’onde vers la surface et permettre l’observation de l’arrivée d’une onde : une réflexion et, si V2>V1 et que l’on est à une distance suffisante du point source appelée distance critique, Δc ,une réfraction. Chacun de ces deux phénomènes a donné naissance à une technique de prospection, il existe une sismique réflexion et une sismique réfraction. 3-3-1 Sismique réflexion Du fait de l’égalité entre les angles Δ d’incidence et de réflexion, le parcours de l’onde réfléchie se divise en deux segments égaux et V1 h son temps d’arrivée a pour expression : V2 tr = 14 Δ / 4+h V1 2 2 Il dépend donc de V1 et de h, que l’on pourra déterminer si l’on dispose d'au moins deux points de mesure à des distances différentes de la source. Le graphe de la courbe t=f(Δ) est une hyperbole dont l’asymptote est de pente 1/V1. Pour Δ=0, on a tr=2h/V1. L’amplitude de l’onde réfléchie est dans le cas général une fonction complexe de l’angle d’incidence ; dans le cas particulier d’une incidence normale elle est proportionnelle au coefficient C : C= Z 2 − Z1 Z 2 + Z1 où Z1 est l’impédance acoustique du milieu 1 et Z2 celle du milieu 2 (l’impédance acoustique est le produit de la masse volumique par la vitesse des ondes P). On peut avoir des réflexions multiples entre le sol et l’interface mais leur temps d’arrivée peut se calculer si l’on connaît V1 et h à partir de la première réflexion. Dans un milieu stratifié, on aura des réflexions sur chacune des interfaces qui se traduiront par de arrivées successives au(x) point(s) d’observation. La sismique réflexion présente de nombreux avantages : elle voit toutes les interfaces et si Δ est petit, elle a un très bon pouvoir de résolution (elle voit bien les détails). Elle est de ce fait la méthode la plus utilisée en prospection pétrolière où elle représente environ 95% des dépenses. On utilise en général plusieurs points de réception pour pouvoir déterminer les vitesses et les épaisseurs. Si nécessaire, on peut préciser la valeur des vitesses par un CMP (Common Mid Point) où, en gardant fixe le centre entre les points d’émission et de réception, on augmente régulièrement leur écart de façon à avoir une détermination précise de l’hyperbole et de son asymptote. Après une «correction dynamique» pour tenir compte des écarts de distance entre les différents points de réception, on peut additionner (Stack) les enregistrements réalisés à ces points pour augmenter le rapport signal/bruit. Les résultats sont présentés sous forme de «coupe-temps» où l’on place sur l’axe horizontal les abscisses des points de tir et sur l’axe vertical dirigé vers le bas le temps. Le signal reçu est ainsi indiqué à la verticale de chaque point. Si l’amplitude du signal dépasse un certain seuil, l’aire qu’elle délimite est noircie pour faciliter la lecture. Après détermination 15 des vitesses dans les différentes couches, on peut transformer cette «coupe-temps» en «coupeprofondeur». Exemple de coupe profondeur obtenue à partir d’un profil de sismique réflexion, à gauche les données brutes, à droite les données traitées. En Génie Civil l’emploi de la sismique réflexion est peu courant, il est réservé aux profondeurs supérieures à la vingtaine de mètres. Les raisons en sont les suivantes : - le milieu peu profond est rarement un milieu stratifié simple et, en milieu complexe, l’interprétation des résultats de sismique réflexion est très délicate, - il faudrait pouvoir disposer de sources donnant des impulsions très brèves, hautes fréquences, mais ces fréquences sont très vite absorbées, - la mise en œuvre de cette méthode est lourde et son coût élevé. Cette méthode a été employée lors des études du tunnel sous la Manche dans l’objectif de déterminer les structures géologiques et leurs éventuelles discontinuités. 3-3-2 Sismique réfraction 3-3-2-1 Terrain tabulaire A la frontière entre deux milieux, on a un phénomène de réfraction conformément à la loi de Descartes : sini1 = sini2 . V1 V2 Si V2 >V1 l’angle de réfraction dans le milieu 2 sera supérieur à l’angle d’incidence dans le milieu 1 et, pour une valeur λ ,incidence critique, il atteindra 90°dans le milieu 2. On aura alors la condition de réfraction totale : 16 sin λ = V1 . V2 L’onde réfractée se propagera dans le milieu 2 le long de l’interface et produira continuellement des ondes réfractées du milieu 2 vers le milieu 1 qui remonteront vers la surface avec une incidence λ. Δ A M λ V1 V2 λ C h C’ Ce phénomène ne peut se réaliser qu’à partir d’une distance «critique» autorisant l’incidence sous un angle λ; en ce point la réfractée est confondue avec la réfléchie. La forme du front de l'onde réfractée correspond à un tronc de cône dont l’axe de révolution est la verticale passant par le point source puisque l’ensemble des points du segment perpendiculaire à C’M est atteint en même temps. On appelle donc cette onde réfractée «onde conique». L’expression du temps d’arrivée est : Δ 2h cos λ + V2 V1 Elle correspond à une droite de pente 1/V2. Cette pente étant inférieure à celle de l’onde t fr = directe, l’onde réfractée va arriver la première à partir d’une distance appelée “point de brisure”, Δb. on a: V2 + V1 V2 − V1 En sismique réfraction on dispose une série de récepteurs le long d’un profil partant du Δ b = 2h point source, on ne considère que les premières arrivées et on trace la courbe trf=f(Δ), dromochronique ou hodochrone. Sur cette courbe, les pentes successives donneront les vitesses et la position du point de brisure (ou l’ordonnée à l’origine obtenue en prolongeant la réfractée) donnera l’épaisseur h. 17 t 1/V1 1/V2 Δc Δb Δ Cette méthode peut être appliquée à un terrain à plusieurs couches à condition que les vitesses croissent avec la profondeur. Pour un terrain à n couches où les vitesses successives sont croissantes on aura l’expression générale : t = n −1 h Vj Δ j + 2∑ cos I j , où Ij est définie par sin I j = Vn Vn j =1 V j 3-3-2-2 Terrains non-tabulaires Si l’interface entre les deux milieux n’est pas parallèle à la surface du sol (ce qui est le cas le plus courant), mais fait un angle α (compté positivement vers le bas) avec cette surface, le temps d’arrivée s’en trouve modifié, on a: Δ M A V1 V2 λ λ α C C’ sin(λ +α) 2hcosλ trf = Δ + V2 sinλ V1 La pente de la réfractée va alors dépendre des angles λ et α et rendre impossible la détermination de V2 et de h. La solution à ce problème a été trouvée dans la pratique du «Tir Inverse», où l’on inverse le sens de parcours de l’onde en gardant les mêmes points de mesure et en plaçant le point de tir à l'autre extrémité du profil. Ceci revient à changer α de signe. On a alors : tef = Δ V2 sin(λ −α) 2hcosλ + sinλ V1 18 Et une valeur différente de la pente de la dromochronique. On peut déterminer α , V2 et h. Si α est petit (c’est le cas sinon le milieu de vitesse V2 affleurerait) on a une bonne approximation de V2 par la moyenne harmonique des pentes apparentes: 2 ≅ sin(λ +α) + sin(λ −α) ≅ 1 + 1 V2 V2 sinλ V2 sinλ V2' V2'' Le cas d’un changement latéral de milieu, une faille par exemple, peut être résolu de la même façon. Si l’on tire de A vers A’ et que V3>V2, la dromochronique sera identique à celle d’un terrain tabulaire à trois couches. Δ A V1 V2 A’ λ2 λ3 C C’ h V3 C’est par contre le tir de A’ vers A, qui en montrant une pente plus faible d’abord, puis un redressement de la pente, prouve que le terrain à trois couches n’est pas une solution acceptable. En conclusion, on ne peut interpréter la sismique réfraction qu’à partir de couples, Tir Direct – Tir Inverse, et un seul tir ne permettrait que la détermination de V1. 3-3-2-3 Application de la méthode au Génie Civil Cette méthode est très utilisée pour rechercher le « bed-rock », substrat solide sous des couches peu compactes. Elle permet aussi de détecter le toit de la nappe aquifère. Sa mise en œuvre la plus courante se fait par de longs profils où les séries de points de mesure de 12 ou 24 géophones sont encadrées par des points de tir ; A1 A2 Les géophones qui détectent l’arrivée de l’onde sont des capteurs très simples où le déplacement du sol crée une induction magnétique dans une bobine. Ce sont donc des 19 capteurs de vitesse. Ils sont petits, légers et robustes. Une «flûte» les relie à l’appareil enregistreur. Avec les appareils les plus simples, on peut n’utiliser qu’un seul géophone et déplacer la source pour faire varier Δ, la source est alors un marteau à main. Les chutes de poids, ou des «fusils» constituent des sources plus efficaces, mais la plupart des enregistreurs permettent de répéter la mesure et de sommer (stack) les résultats pour améliorer le rapport signal/bruit. La sismique réfraction s’adapte parfaitement aux mesures en mer (ou en rivières), un même bateau tirant la source (un canon à air par exemple) et une ligne d’hydrophones tout en se déplaçant «en continu». 3-3-3 Tomographie sismique Les mesures de tomographie sismique s’effectuent entre deux forages, entre surface et forage ou en surface, on place alors une série de points de tir entre les géophones et non pas 2 aux extrémités du profil comme en réfraction simple. Entre forage, une série de sources est déployée dans l’un des forages, une série de récepteurs dans l’autre (on peut aussi n’utiliser qu’une source que l’on déplace). Le temps mis par l’onde directe pour atteindre les différents récepteurs permet de restituer les variations de vitesse et donc les hétérogénéités qui existent entre les deux forages. On peut aussi prendre en compte les variations d’amplitude entre les différents récepteurs. Cette méthode, lourde, est de plus en plus utilisée, après les autres méthodes géophysiques, en cas de forte présomption de présence de cavités. Elle permet de les définir avec un degré de finesse utilisable à l’échelle de l’ouvrage. _____________________ 3-4 Méthodes électriques 3-4-1 Principe des différentes méthodes Le comportement des phénomènes électrique et magnétique est régi par un ensemble de quatre lois expérimentales : les équations de Maxwell. r v Si B est l’induction magnétique et E le champ électrique, on a dans un milieu linéaire et isotrope : r divB=0 r q divE = ε 20 r r ∂ B rotE =− ∂t r r r ∂ E rotB=μσE +εμ ∂t (équation de Maxwell-Faraday) (équation de Maxwell-Ampère) où µ est la perméabilité magnétique, ε la permittivité diélectrique, σ la conductivité électrique et q la densité volumique de charges (égale à 0 au niveau macroscopique puisqu’on a autant de charges négatives que de charges positives dans un volume donné). C’est donc trois propriétés qu’il faut connaître pour décrire le comportement des champs. Réciproquement connaissant ce comportement, on devrait pouvoir déterminer ces trois propriétés ; a priori ceci n’est pas simple, en particulier parce qu’elles apparaissent par des produits. En fait, les choses se simplifient, d’une part parce que la perméabilité magnétique des matériaux du soussol reste toujours très proche de 1, d’autre part parce qu’il est possible, à partir d’approximations portant sur les variations temporelles, de simplifier les équations. La susceptibilité magnétique, κ, des sols, comme des roches, est inférieure à 0,01. comme µ=µ0(1+κ) , on peut adopter l’approximation µ=µ0. Si l’on considère les phénomènes indépendants du temps, des courants continus, ∂ ≈0 , les deux dernières équations se réduisent à : ∂t r r v rot B =µσ E et rot E =0. La seule propriété présentant des variations sera donc la conductivité électrique. On utilisera comme source un courant injecté, le terme de droite de l’équation de Maxwell-Ampère v v E secondaire). Le champ E pourra être considéré comme le v gradient d’un potentiel scalaire , E =-gradV, dont le laplacien est nul : ΔV=0. Son calcul sera v pouvant être écrit µ( i source+σ ainsi plus facile. On parle dans ce cas de « prospection électrique », « méthode électrique », « courant continu » (en anglais DC electrical method). Une deuxième approximation peut être proposée en considérant les deux termes σE et ε ∂E ∂t dont l’importance relative dépend de la valeur des deux propriétés et de la vitesse de variation dans le temps. Si on se place pour la comparaison de ces deux termes dans le domaine « fréquentiel » où l’on considère des variations sinusoïdales ( eiωt , de pulsation ω) on a : ∂ =iω . En choisissant des valeurs courantes, par exemple σ=0,01 S/m et εr=18, on aurait ∂t égalité des deux termes σ et εω si f=10 Mhz. Pour une fréquence beaucoup plus basse, par v exemple f< 100 kHz le terme iωε E peut être négligé et l’équation de Maxwell-Ampère se 21 v r réduit comme précédemment à rot B =µσ E . Dans ce cas seule la conductivité interviendra. On l’appelle approximation des basses fréquences, ou B.F.ou cas de l’induction, puisqu’on peut utiliser comme source la variation temporelle d’un champ magnétique. Pour des hautes fréquences, supérieures à la dizaine de Mhz, la permittivité diélectrique dominera et on aura affaire à des phénomènes de propagation électromagnétique. 3-4-2 Méthode électrique 3-4-2-1 Principe de la mesure, le quadripôle Pour injecter un courant dans le sol, il suffit d’y planter 2 électrodes, c’est à dire deux piquets métalliques, mais cela ne suffit pas pour mesurer la conductivité ou la résistivité du sous-sol. Si l’on s’en tient, en effet, à la mesure du rapport entre la différence de potentiel entre ces deux électrodes et le courant qui les traverse on obtient la somme des deux résistances de prise de terre et la résistivité du sous-sol lui-même n’intervient pas puisque le milieu étant illimité, sa résistance électrique est nulle. Par contre, en mesurant le potentiel en des points différents des points d’injection on a, pour un milieu homogène, une mesure proportionnelle à la résistivité. Si l’on considère, en effet, un point d’injection, A, unique, où le courant injecté a une valeur +I, le courant dans le milieu homogène se répartit de façon isotrope et pour un point situé à une distance r de A, la densité de courant vaut : ir = I 2πr 2 donc Er = , le champ électrique vaut ρI ρI et le potentiel, V = si l’on adopte V=0 comme condition à l’infini. Si 2 2πr 2πr l’on considère les deux électrodes A et B permettant le passage du courant (en ayant en B un courant –I) et un deuxième point de mesure différent du premier pour pouvoir mesurer une différence de potentiel, on a : VM −VN =ΔV = [ ] ρI 1 − 1 − 1 + 1 . 2π MA MB NA NB La mesure ainsi obtenue est proportionnelle à ρ mais sa valeur dépend de la disposition des électrodes. Pour pouvoir exprimer le résultat d’une mesure par un seul paramètre, sans avoir à donner les valeurs de ΔV , de I et la disposition des électrodes, on a introduit la notion de résistivité apparente : la résistivité apparente, ρa est celle qu’aurait le terrain homogène donnant la même valeur de ΔV/I avec la même disposition d’électrodes que celle utilisée. La 22 disposition géométrique des électrodes intervient dans sa définition par un coefficient k qui s’écrit : k= 2π et on a ρa =k ΔV . 1 − 1 − 1 + 1 I AM BM AN BN Comme il existe une infinité de façons de placer quatre électrodes sur un plan, des habitudes ont été prises, elles tiennent compte des problèmes pratiques de mise en place et de déplacement des électrodes comme de considérations théoriques. Les principaux quadripôles utilisés sont ainsi : - le quadripôle Schlumberger où les quatre électrodes sont alignées selon un dispositif symétrique avec MN<<AB, on a donc k ≅ 4MN . B M O N A - πAB2 le quadripôle Wenner où les quatre électrodes sont alignées et distantes d’un écart a, (k=2πa) M A B N a - le quadripôle carré, (k=10,72 a, si a est le coté) A M B a N On peut diminuer le nombre d’électrodes à déplacer sur le terrain si l’une ou deux sont fixes et placées très loin (à l’infini). C’est le cas pour le dispositif pôle-dipôle (où k=4πa) A M N ou pour le dispositif pôle-pôle (où k=2πa). 23 B ? A B ? N ? M 3-4-2-2 Mise eu œuvre de la méthode La méthode électrique peut s’employer de deux façons complémentaires, le «trainé» et le «sondage» que l’on peut aujourd’hui réaliser simultanément avec des dispositifs multiélectrodes (ou multi-pôles), dont le plus utilisé est le « panneau ». Sa mise en œuvre nécessite que l’on maîtrise la notion de profondeur d’investigation. Cette notion empirique qualifie l’épaisseur de terrain prise en compte dans la mesure. Pour un quadripôle donné, elle dépend de l’écart existant entre l’électrode de potentiel et l’électrode d’injection les plus proches. Selon la répartition verticale des résistivité elle est prise égale à cet écart ou à la moitié de cet écart. En trainé, on déplace latéralement un dispositif de dimensions fixes, afin de cartographier les variations horizontales de la résistivité. Le sondage part de l’observation selon laquelle l’épaisseur du terrain où circule la part significative du courant dépend de l’écartement des électrodes. On peut donc, en gardant fixe le centre du dispositif et en augmentant régulièrement sa taille, augmenter l’épaisseur de terrain prise en compte dans la mesure et ainsi reconnaître la variation de la résistivité avec la profondeur. Pour respecter le fait que seules les variations relatives sont significatives, cette augmentation doit être réalisée selon une progression géométrique dont la raison est choisie pour avoir environ 6 points par décade (1,5 par exemple). Un panneau électrique 2D est constitué par une ligne pré-implantée de N électrodes équidistantes d’un écart a. Par commutation on déplace le quadripôle utilisé, qui peut être un Wenner, un dipôle-dipôle, un pôle-dipôle ou un pôle-pôle, en commençant par l’écartement a, puis l’écartement 2a, et ainsi de suite… Un panneau électrique 3D correspond à une série de panneaux 2D parallèles utilisés simultanément. Le quadripôle peut alors être carré ou en ligne parallèle, perpendiculaire ou diagonale par rapport aux panneaux 2D. Il existe d’autres dispositifs multi-électrodes, mobiles, qui, tractés sur la surface à étudier, permettent de prospecter rapidement des surfaces étendues avec une maille de mesure fine (le système de traction peut être un tracteur agricole, un quad ou une chenillette). Les électrodes utilisées sont par exemple des roues à picots mais leur nombre est alors plus faible que dans 24 un panneau ; les mesures peuvent, par exemple, porter sur trois profondeurs d’investigation différentes. 300 560.4 250 550.4 402.6 325.8 263.7 200 213.5 172.8 139.8 150 113.2 91.6 74.2 100 60.0 48.6 39.3 50 31.8 25.8 20.9 0 0 50 0 50 100 100 150 150 200 250 300 350 400 200 La cartographie de la résistivité apparente réalisée avec un quadripôle Wenner dipôle-dipôle où a=5m sur un plateau calcaire ( d’age oxfordien) montre des variations très fortes de la résistivité électrique (et donc des caractéristiques mécaniques) du sous-sol. Le récif a une résistivité supérieur à 400Ω.m tandis que la zone extérieure à l’ancienne barrière de corail est en dessous de 50Ω.m du fait de la forte teneur en argile. 3-4-2-3 Interprétation des mesures Si l’interprétation du trainé fait en principe toujours appel à des modèles 3D complexes, le sondage peut être interpréter avec un modèle 1D de terrain tabulaire dont on connaît la solution analytique. Pour un sol à N couches de résistivités, ρ1, ,ρN, et d’épaisseurs, e1, le potentiel à la surface en un point M, à une distance r de A, a pour expression : 25 , eN, ρ1I ⎡ 1 ∞ V = ⎢ + ∫2f(λ)J 0(λr)dλ ⎤⎥ 2π ⎣ r 0 ⎦ où J0 est la fonction de Bessel et f(λ)= en partant de RN=ρN et de Ri = ρi ρ1− R2 (R2 − ρ1)−(R2 + ρ1)e2λe 1 , R2 étant définie itérativement Ri +1+ ρithλei . ρi + Ri +1thλei L’interprétation d’un sondage se fait sous l’hypothèse d’un terrain tabulaire en choisissant le nombre de terrains, puis leurs résistivités et leurs épaisseurs, de telle sorte que la courbe théorique s’adapte au mieux aux points expérimentaux. En théorie, ce problème est à solution unique mais la précision nécessairement limitée des mesures ne permet pas de séparer des ensembles de solutions que l’on appelle des « cas d’équivalence ». Ainsi (1) toute couche conductrice placée entre deux couches résistantes peut être remplacée par une autre couche (ou une série d’autres couches) présentant le même rapport e/ρ (qui correspond physiquement à une conductance), (2) toute couche résistante placée entre deux couches conductrices peut être remplacée par une autre couche (ou une série d’autres couches) présentant le même produit e.ρ et (3) lorsque la résistivité apparente croît, on peut toujours intercaler entre deux couches résistantes une couche de résistivité intermédiaire et, de la même façon, quand la résistivité apparente décroît on peut intercaler entre deux couches conductrices une couche de résistivité intermédiaire. Longtemps réalisée à l’aide d’abaques cette interprétation l’est maintenant par inversion itérative à l’aide d’un programme informatique. Le choix du modèle approché initial s’appuie sur des règles simples : le nombre de couches est au moins égal au nombre de changements de pente de la courbe plus un, les interfaces sont à placer au début des changements de pentes, les contrastes de résistivité croissent avec l’importance de la pente. On présente les résultats obtenus avec les panneaux sous forme de « pseudosections » où la position affectée à chaque mesure le long du profil est celle du centre des quatre électrodes utilisées pour cette mesure et où la position en profondeur est l’écart entre électrodes du quadripôle considéré. L’interprétation des panneaux 2D (respectivement 3D) est réalisée avec des programmes numériques 2D (respectivement 3D). 26 1000 Résistivité ( Ω.m) Modèle à 3 couches Résistivité Epaisseur (Ω.m) (m) 96.96 .5 30.02 2.11 121.31 100 écart : .060 modèle données courbe 10 0.1 A (mètres) 1 10 1000 Modèle à 3 couches Résistivité (Ω.m) Résistivité Epaisseur (Ω.m) (m) 89.49 .65 21.82 1.36 115.88 100 écart : .045 modèle données courbe 10 0.1 A (mètres) 1 10 Les figures ci-dessus présentent deux interprétations possibles d’un même sondage où une couche conductrice est intercalée entre deux plus résistantes ; l’erreur étant pratiquement la même. Ces deux interprétations constitue un cas d’équivalence où la conductance, e/ρ, est de 0,07 S. 27 1000 Résistivité ( Ω.m) Modèle à 3 couches Résistivité Epaisseur (m) (Ω.m) 187.15 .14 58.14 .63 32.06 100 écart : .052 modèle données courbe 10 0.1 A (mètres) 1 10 1000 Résistivité ( Ω.m) Modèle à 4 couches Résistivité Epaisseur (Ω.m) (m) 194.21 .14 57.51 .74 35.4 .27 30.66 100 écart : .042 modèle données courbe 10 0.1 A (mètres) 1 10 Ce sondage montre une décroissance monotone de la résistivité, il peut être interprété avec 3 terrains, mais on peut aussi introduire un quatrième terrain (ou plus). 28 Une pseudo-section, ici réalisée avec une configuration Wenner, se présente sous la forme d’une coupe verticale de la résistivité apparente où, par convention, les valeurs de la résistivité apparente mesurée sont affectées à des points, les croix sur la figure du haut, localisés au centre des quadripôles et à une profondeur égale à la distance entre les électrodes. La figure du bas montre l’interprétation réalisée avec la méthode des différences finies : à chaque maille est affectée une résistivité de telle sorte que le calcul des résistivités apparentes redonne, figure du milieu, la même coupe que la pseudo-section expérimentale. 3-4-2-4 Réalisation des mesures L’injection du courant dans le sol peut poser des problèmes de sécurité, la norme limitant le courant est de 27 mA. Cette intensité est heureusement suffisante pour la plupart des mesures sur les profondeurs intéressant le Génie Civil. La principale difficulté expérimentale associée à la méthode électrique tient à l’insertion des électrodes dans le sol, à 29 la différence de potentiel spontané (P.S.) qui apparaît alors et à la valeur de la résistance de contact. Si l’on utilise un courant continu, la polarisation spontanée des électrodes étant instable dans le temps, la mesure doit être répétée (et de ce fait est longue). On pallie cette difficulté en inversant le sens de circulation du courant, la P.S. ne changeant pas de signe, la différence entre les mesures obtenues pour chaque sens du courant élimine la P.S.. L’utilisation d’un courant alternatif est l’aboutissement normal de cette idée mais sa fréquence doit rester suffisamment basse pour que tout effet inductif soit évité (voir plus loin). Le problème du contact sol-électrode reste alors la principale difficulté posée par l’emploi de la méthode électrique, elle rend son utilisation lente et impossible sur les sols construits ou très secs comme sur les affleurements rocheux. Pour surmonter cette difficulté, il faut se tourner soit vers la méthode électrostatique, soit vers les méthodes électromagnétiques basse fréquence. 3-4-3 Méthode électrostatique L’idée à la base de cette méthode est d’utiliser des pôles électrostatiques placés dans l’air au-dessus du sol pour mesurer les propriétés électriques de celui-ci. Un pôle de charge Q placé dans un milieu homogène de permittivité ε, crée à la distance r un potentiel V = Q 4πεr . Si le pôle est placé au voisinage de la surface du sol, le potentiel va se trouver modifié. La méthode des images permet de calculer cette modification tout en prenant en compte la permittivité diélectrique complexe du sol qui dépend à la fois de sa conductivité et de sa permittivité. Pour un sol suffisamment conducteur et une fréquence suffisamment basse, on obtient finalement : V= Qiω ρI , soit V = 2πσr 2πr si l’on considère le courant I=Qiω alimentant le pôle. On retrouve la même expression qu’en prospection électrique dont la méthode électrostatique constitue une généralisation. Cette méthode a les mêmes types d’utilisation, trainés, sondages, panneaux,…, que la méthode électrique et les mêmes méthodes d’interprétation, tout en étant utilisable quelque soit l’état de la surface du sol. Elle souffre néanmoins d’une limite technique : la fréquence utilisée ne peut être nulle, car il serait impossible de maintenir des charges sur les pôles d’injection et elle détermine, avec la surface du pôle, son impédance. Pour que celle-ci ne soit pas trop élevée tout en gardant des pôles de surface totale inférieure au mètre carré, on ne 30 descend pas en dessous de 10 kHz. L’usage de cette méthode est donc limité par les effets inductifs qui apparaissent dès que le nombre d’induction (σµωL2, voir plus loin) est supérieur à 0,1 (L étant la dimension caractéristique du quadripôle : écart entre les pôles d’injection et de mesure les plus proches). Pour les sols conducteurs, cette méthode ne permet donc d’explorer que la première dizaine de mètres, mais ceci représente une part importante des problèmes posés en Génie Civil. 3-4-4 Méthodes électromagnétiques basse fréquence L’induction d’un courant dans le sol par la variation d’un champ magnétique source peut être réalisée par toute une gamme de dispositifs d’émission ne nécessitant aucun contact avec le sol ; de la même façon, à la réception, la mesure du champ magnétique secondaire créé par les courants induits permet d’éviter la mesure du champ électrique. Cependant, avant de décrire les types de sources utilisés, il convient de donner les caractéristiques générales des méthodes électromagnétiques (E.M.) basse fréquence. 3-4-4-1 Effet de peau, profondeur de pénétration, nombre d’induction En se plaçant dans le cas le plus simple d’un champ primaire uniforme horizontal et d’un sol homogène de conductivité σ, une composante horizontale du champ, Ex par exemple, vérifie l’équation : ∂ 2 Ex −iσμωEx =0 , ∂z 2 dont la solution est Ex = Ex e− 0 iσμω z = Ex e 0 −i σμω 2 z e − σμω 2 z . En profondeur le champ est donc amorti et déphasé, le paramètre qui contrôle ces deux effets étant p= 2 σμω que l’on appelle profondeur de pénétration ou profondeur de peau (skin depth en anglais). Les courants induits se concentrent près de la surface d’une façon qui dépend de la fréquence et de la conductivité. Ceci ouvre la voie à une méthode de sondage où l’épaisseur de terrain prise en compte dans la mesure est contrôlée par la fréquence : plus celle-ci est basse, plus cette épaisseur est grande. Si dans un dispositif E.M. de prospection, la distance entre la source et le point de mesure est bien inférieure à la profondeur de pénétration, celle-ci ne peut avoir d’effet sur l’épaisseur de terrain prise en compte dans la mesure qui, comme en prospection électrique, 31 est alors gouvernée par distance source-point de mesure. Si, par contre, la distance entre la source et le point de mesure est plus grande que la profondeur de pénétration, c’est elle qui détermine l’épaisseur de terrain prise en compte dans la mesure. Il est utile de disposer d’un critère qui permette de savoir dans quelle situation on se trouve. On définit donc le nombre d’induction, σμωL2, nombre sans dimension, qui compare la dimension caractéristique d’un dispositif de mesure, L, l’écart entre émission et réception le plus souvent, et la «portée» du phénomène d’induction. Plus le nombre d’induction est petit, plus on se rapproche du cas statique et plus le rôle des phénomènes d’induction est réduit. 3-4-4-2 Modes électromagnétiques v Les équations de Maxwell-Ampère et de Maxwell-Faraday montrent que B dépend r des variations spatiales de E et réciproquement. Il s’en suit que le couplage entre les deux champs et les composantes existantes vont dépendre des symétries et des invariances en translation présentées par le terrain et le champ primaire. Ainsi, pour un terrain tabulaire (1D) et un champ primaire uniforme, on a, en coordonnées cartésiennes ∂ =0 et ∂ =0 ; aucun ∂x ∂y des champs n’a donc de composante verticale et les composantes horizontales sont liées 2 à 2, chaque paire étant indépendante de l’autre : on a iωBx = ∂Ey et μσEy = ∂Bx d’une part, iωBy = ∂Ex et σμEx =− ∂By d’autre part. ∂z ∂z ∂z ∂z Chacune de ces deux paires constitue un mode électromagnétique. Dans tout problème E.M. on doit d’abord identifier les modes présents (par habitude on utilise plutôt que B le champ magnétique H, H=B/µ0). 3-4-4-3 Sources utilisées Si a priori un grand nombre de dispositifs différents peut être utilisé pour créer un champ primaire, en pratique on se limite à trois catégories de sources :les sources «lointaines», correspondant à un champ primaire uniforme, les sources « étendues » où le champ primaire est en 1/r, et les sources dipolaires où le champ primaire est en 1/r3. En Génie Civil, on n’utilise pratiquement pas la deuxième catégorie et on se limite aux sources lointaines et dipolaires. La gamme de profondeur à explorer correspond à des fréquences où les sources lointaines sont constituées par des émetteurs radio des gammes L.F. (150-250 kHz) et V.L.F. (15-25 kHz) ; au-dessus de 2 kHz, les variations naturelles du champ magnétique terrestre sont en effet trop faibles pour être utilisées. Les sources dipolaires 32 correspondent à des dipôles magnétiques, de petites boucles dont l’intérêt premier est la maniabilité. 3-4-4-4 Utilisation des sources lointaines Les émetteurs des gammes VLF et LF sont de grands pylônes verticaux qui rayonnent un champ primaire constitué d’un champ électrique vertical Ezp et d’un champ magnétique horizontal Hyp. Sur toute la zone prospectée, dont l’étendue est en général bien inférieure à la longueur d’onde (15 km à 20 kHz), le champ primaire Hyp peut être considéré comme uniforme. Le nombre d’induction est très grand et la profondeur d’investigation (définie au paragraphe 3.4.2.2) va dépendre de la conductivité et de la fréquence ; dans ce cas, on considère habituellement que la profondeur d’investigation correspond à la moitié de la profondeur de pénétration. Sur un sol tabulaire, seul le mode (Ex, Hy) existe. Si le sol est homogène on a en surface : Ex=Ex0 et H y = Ex0 σ e−i π4 . μω Il est habituel dans les méthodes électromagnétiques, pour éviter que la mesure ne soit faussée par une variation de puissance de la source (et ici le prospecteur n’a aucun contrôle sur elle), de mesurer un rapport de deux composantes plutôt qu’une composante seule. Ici, le rapport 2 Ex/Hy permet, de plus, de déterminer la résistivité du terrain, ρ = 1 Ex , et donc, pour un ωμ H y terrain quelconque, de définir une résistivité apparente. La méthode de mesure basée sur ce rapport est en général appelée Magnéto-Tellurique (M.T.). Malheureusement, pour les études peu profondes, la répartition en fréquence des émetteurs se prête difficilement à l’exécution de sondages, qui ne pourraient avoir le plus souvent que deux points : un en LF et un en VLF ; son application se limite donc au trainé, à la cartographie des variations latérales de résistivité. Sur un sol non-tabulaire, on a en 2D le mode (Hy, Ex, Ez), si ∂ =0 ; ou le mode (Ey, ∂y Hx, Hz), si ∂ =0 . Pour une direction de cylindricité quelconque, on doit décomposer le ∂x champ primaire par rapport à la direction des structures. Sur un sol 3D, on a les 6 composantes. Dans tous ces cas, l’expérience et les modèles théoriques ont montré que la composante Hz est la plus intéressante à mesurer. La mesure de Hz/Hy s’est donc développée comme outil de mise en évidence des variations latérales de la résistivité. 33 Les sources lointaines sont ainsi utilisées pour effectuer des trainés en mesurant soit Ex/Hy soit Hz/Hy, mais ces deux mesures montrent une très forte «anisotropie apparente», la carte obtenue dépendant de l’orientation du champ primaire, c’est à dire de la direction de l’émetteur. Pour pallier ce défaut, il est en fait nécessaire d’utiliser deux émetteurs de directions différentes et (autant que possible) perpendiculaires et de combiner leurs résultats en cartographiant un paramètre isotrope. Deux invariants existent pour la résistivité apparente : ρa1ρa2 et ρ a1 + ρ a2 2 , ρa1 et ρa2 étant les résistivités obtenues en un point pour chaque émetteur. Pour la composante verticale l’invariant s’écrit 2 2 ⎛⎜ H z1 ⎞⎟ +⎛⎜ H z2 ⎞⎟ . ⎝ H y1 ⎠ ⎝ H y2 ⎠ La mesure utilisant la composante verticale est appelée habituellement V.L.F.-E.M. ou V.L.F.-Mag, la mesure M.T. a reçu, en fonction des utilisateurs, beaucoup de noms : RadioOhm, V.L.F.-R., M.T. artificielle, M.T.-V.L.F. ou Radio-M.T. (RMT). 3-4-4-5 Utilisation des sources dipolaires L’intérêt principal d’une source dipolaire étant sa maniabilité, la grandeur mesurée doit respecter aussi cette caractéristique, on mesure donc une (ou plusieurs) composante(s) du champ magnétique avec une bobine. Dans de tels dispositifs, dipôle-dipôle, l’orientation relative des bobines joue un rôle important dans la profondeur d’investigation, le signe et l’allure des réponses. On a adopté le système de dénomination suivant: HCP VCP PERP 34 VCA Les dispositifs utilisés correspondent le plus souvent à un faible nombre d’induction et on retient en général HCP, qui présente la meilleure profondeur d’investigation, 1,5 L si L est l’écartement des bobines, et qui permet de passer en VCP par simple rotation de l’appareil. En faible nombre d’induction, le champ secondaire mesuré est proportionnel à la conductivité, il est donc logique d’appeler ces appareil des conductivimètres. Il sont le plus souvent utilisés en trainé, mais peuvent l’être en sondage en faisant varier L. Leur mise en œuvre est beaucoup plus rapide que celle de la méthode électrique, mais ils en sont bien complémentaires, puisque pour eux le rapport Signal/bruit est meilleur en milieu conducteur (mesure proportionnelle à σ) alors que, pour la méthode électrique, ce rapport est meilleur en milieu résistant (mesure proportionnelle à ρ). 3-4-5 Mesures haute fréquence, Radar-sol (ou GPR ou Géo-Radar) L’utilisation des hautes fréquences présente deux intérêts par rapport aux mesures électrique et E.M. déjà décrites : (1) déterminer une propriété, la permittivité, très bien corrélée à l’humidité, (2) offrir une méthode d’investigation de la structure verticale du terrain par propagation et réflexion. On ne peut en effet étendre l’idée du sondage fréquentiel, telle qu’elle existe en basse fréquence, là où la condition σ>>εω n’est plus respectée et les sondages géométriques sont d’une réalisation relativement lente et d’une résolution verticale bien inférieure à ce que l’on peut espérer d’une méthode utilisant une propagation. On considère, l’équation vérifiée dans un demi–espace homogène par un champ électrique uniforme en surface : ∂2 E −iσμωE +εμω 2 E =0 . ∂z 2 Cette équation décrit un phénomène de propagation avec amortissement. Si l’amortissement n’est pas trop important, on peut proposer des mesures par réflexion (ce serait plus difficile en réfraction où le parcours est beaucoup plus long et alors que la loi de vitesse n’est pas croissante avec la profondeur). La vitesse v= 1 ε 0ε r μ0 = c (c étant la vitesse de la lumière εr dans le vide : 30 cm/ns), est indépendante de la fréquence si εr est indépendant de la fréquence. Dans ce cas, et si εω>>σ, la profondeur de pénétration s’écrit : 35 p= 2 ε 0ε r σ μ0 et est aussi indépendante de la fréquence. Le milieu n’est alors pas dispersif, le signal n’est pas déformé par l’amortissement qui seul limite la profondeur d’investigation. L’appareil de mesure le compensera par un gain (qui peut atteindre 90dB). Pour σ=0,01 S/m, et εr=18 on a par exemple p=2,25 m soit une atténuation de 3,86dB/m en amplitude. En dessous de 1 GHz, la variation de ε avec la fréquence est effectivement très faible, par contre on peut rarement négliger le terme de pertes diélectriques et ε doit être considéré comme complexe, εr=ε’-iε’’. Faible dans les milieux grossiers, ε’’ est important dans les milieux argileux où il peut atteindre ε’/3. Dans un tel cas l’amortissement est beaucoup plus important et il va dépendre de la fréquence ; si la conductivité n’intervenait pas p serait inversement proportionnel à ω, et en plus d’un fort amortissement, on aura une déformation des impulsions rendant très difficile leur identification. Dans une argile où σ=0,1 S/m, ε’=18et ε’’=6,on a, à 100 MHz, p= 0,11m, soit une atténuation en amplitude de 79db/m et à 500 MHz, p= 0,022m, soit une atténuation en amplitude de 395dB/m. La présence d’argile est donc l’obstacle principal à l’utilisation du Radar-Sol. La mise en œuvre et l’interprétation du Radar est analogue à celle de la sismique réflexion. On déplace point par point une ensemble constitué par une antenne d’émission et une (ou plusieurs) antenne(s) de réception (on peut aussi travailler en « monostatique » avec une seule antenne pour les deux fonctions) faiblement écartées (le déport est par exemple de 50cm). Les résultats sont d’abord présentés sous la forme d’une coupe-temps. Pour déterminer la vitesse on peut réaliser un CMP (Common Middle Point), défini au paragraphe 3.3.1), mais la gamme de vitesses est peu étendue ;(comprise entre 12cm/ns si ε’=6 et 6cm/ns si ε’=25) ; en prenant 9cm/ns on peut proposer une première interprétation. Les objets diffractant, comme par exemple des canalisations, créent des hyperboles dont les asymptotes donnent la vitesse. 36 Coupe temps et coupe profondeur d’un profil radar. On observe des réflexions sur une interface pratiquement parallèle à la surface à 0,43m et des « hyperboles » caractéristiques de structures (tuyaux) localisées à 0,62m. La pente des asymptotes correspond à une vitesse de 12 cm/ns. Un autre traitement intéressant pour voir en plan les structures du sous-sol consiste, après avoir réalisé des points de mesures suffisamment serrés, sur une maille de mesure régulière, égale à la moitié du déport par exemple, à représenter des «time slices», c’est à dire à cartographier l’intensité totale du signal reçu dans un intervalle de temps, par exemple entre 20 et 25 ns. Les utilisations du Radar en Génie Civil sont très variées, elles dépassent la stricte géophysique pour toucher aussi l’auscultation d’ouvrages d’art et de chaussées (détermination des différentes couches et de leur épaisseur). La principale utilisation est probablement la recherche de canalisations en milieu urbain. Par rapport aux autres méthodes, notamment électriques, la caractéristique principale du Radar est le grand détail d’information qu’il permet d’acquérir. 37 Tableau récapitulatif de l’utilisation des méthodes Méthode Principe de Mesure Objectifs -caractérisation des vitesse des vitesses des terrains ondes -profondeur du de compression substratum Sismique réfraction directe et -recherche du toit de réfractée la nappe Sismique réflexion Tomographie sismique (micro)Gravimétrie Prospection électrique par courant injecté Prospection électrostatique Avantages Inconvénients porte directement sur une propriété utilisable en mécanique -la vitesse doit être croissante avec la profondeur -suppose un milieu quasi-tabulaire -Lente -mauvaise résolution horizontale -mise en œuvre délicate en ville -mise en œuvre très -structure géologique lourde porte directement profonde, -utilisable pour les sur des propriétés -caractérisation des profondeurs > 20m utilisables en terrains par mise en -utilisation mécanique évidence des exceptionnelle en Génie horizons réflecteurs Civil -vitesse et impédance acoustique caractérisation inversion des porte directement mécanique des temps de trajet sur des propriétés -mise en œuvre lourde terrains, des ondes utilisables en -coût élevé mise en œuvre entre sismiques à mécanique forages, galeries travers la zone et/ou surface étudiée variations Recherche des vides, -mesures lentes locales du des zones porte sur la densité -mesures d’altitudes très champ de décomprimées, du précises nécessaires pesanteur toit du substratum et corrections -la résistivité présente une grande gamme de -nécessité d’un contact résistivité structure du terrain variations électrique avec le sol -maîtrise de la d’où difficultés en résolution latérale milieu urbain et verticale (profondeur d’investigation) -rapide (faibles coûts) mêmes avantages que la méthode électrique mais en -limitée aux 10 premiers mètres résistivité structure du terrain s’affranchissant du problème du contact avec le sol temps d’arrivée des ondes élastiques sur tout interface 38 Conductivimètre E.M. Slingram Radio-MagnétoTellurique, MTVLF, VLF-R Radar-Sol conductivité (inverse de la résistivité) structure du terrain et perturbateurs métalliques -la conductivité présente une grande gamme de variations -très rapide (faibles coûts) mesure de la -la résistivité -structure du terrain résistivité à présente une grande -structures partir du champ gamme de métalliques émise par les variations allongées(cables..) émetteur L.F. -rapide et V.L.F. réflexion des ondes E.M. sur les contrastes de permittivité structure du terrain identification d’obstacles 39 très grande résolution géométrique de la structure du terrain -limitée en pratique au profilage -sensible aux perturbateurs métalliques -inopérante en milieux résistants (supérieurs à 500 Ohm.m) -profondeur d’investigation mal contrôlée -perturbation par les réseaux métalliques (difficile en milieu urbain) -nécessité d’utiliser 2 émetteurs de directions approximativement perpendiculaires -profondeur d’investigation limitée par la présence d’argile