Reconnaissance Géophysique pour le génie civil

publicité
Reconnaissance Géophysique
La reconnaissance géophysique, ou prospection géophysique (geophysical survey en
anglais), met en oeuvre un ensemble de méthodes indirectes où l’on cherche, à partir d’une ou
plusieurs propriétés physiques à déterminer la structure du milieu souterrain de manière non
destructive (non-invasive) et avec un échantillonnage spatial suffisamment dense pour que les
variations latérales et verticales en soient décrites aussi complètement que le permettent la
propriété et la méthode de mesure utilisées. La résolution, c’est à dire le degré de finesse avec
lequel le sous-sol va être décrit, est en effet variable selon la propriété choisie et la méthode
utilisée.
Les mesures peuvent être réalisées à partir de la surface, de puits ou d’excavations
préexistantes. Le plus souvent elles ne permettent pas, à elles seules, de déterminer les valeurs
de paramètres géotechniques mais sont indispensables pour placer judicieusement les forages
où seront effectuées les mesures de ces paramètres, pour interpoler entre ces localisations et
pour déceler les anomalies préjudiciables à un projet.
Certaines méthodes de grand rendement et capables de déterminer les grands traits de
la structure géologique – sismique réfraction et méthodes électriques en particulier – seront
mises en œuvre dès les premiers stades de l’étude du projet (faisabilité géotechnique G12,
phase 1). Ces mesures seront réalisées quasi obligatoirement pour les études de tracés
linéaires (routes, autoroutes, voies ferrées).
On choisit la propriété à mesurer à partir de la corrélation qu’on lui connaît avec les
caractéristiques géotechniques recherchées et de l’amplitude des contrastes qu’elle peut
montrer. Toutefois, les propriétés physiques montrant à la fois une variabilité suffisamment
importante en fonction des paramètres d’état du terrain significatifs en géotechnique (porosité,
teneur en eau, argilosité …), et donnant lieu à des méthodes de mesure réalisables à faible
coût avec des appareils robustes et de mise en œuvre facile sur le terrain, sont en nombre
limité. On s’arrêtera ici à la densité, à la vitesse de propagation des ondes de compression et
aux propriétés électriques. On ne traitera pas des propriétés magnétiques qui, quoique d’un
usage très important en prospection archéologique et en géophysique de l’environnement sont
peu utilisées en Génie Civil, ni des propriétés thermiques qui présentent l’avantage de pouvoir
être mesurées en télédétection mais sur une épaisseur inférieure au mètre. Si une même
propriété physique peut-être mesurée de plusieurs façons, le premier choix du prospecteur
reste celui de la propriété à mesurer, en fonction des caractéristiques recherchées du terrain, la
1
facilité d’emploi et les sensibilités des appareils disponibles intervenant ensuite dans le choix
de la méthode de mesure et de l’appareillage. Le coût de la mise en œuvre d’une méthode
reste toujours un élément déterminant dans les choix.
3-1 Propriétés physiques utilisées
3-1-1 Densité, d
Par définition, la densité d’un matériau est le rapport entre le poids d’un volume donné
et le poids du même volume d’eau, c’est donc une grandeur sans unité contrairement à la
masse volumique et au poids volumique (dans le système c.g.s., la masse volumique de l’eau
étant de 1gcm-3 la valeur exprimant la densité est la même que celle exprimant cette
propriété).
Pour les milieux superficiels du sous-sol, la densité de la fraction solide est toujours
très proche de ds =2,67. De ce fait, pour un sol saturé on aura :
d=ds(1-n)+n
n étant la porosité, et pour un sol non-saturé,
d=ds(1-n)+nSr,
si l’on néglige le poids de la fraction gazeuse, Sr étant le degré de saturation en eau. On a
donc des relations linéaires très simples et, pour les milieux saturés, directement une valeur de
la porosité.
La mise en évidence de contrastes de densité est réalisée à partir de la surface par
mesures gravimétriques et indirectement en sismique (cf infra). En forage, on peut aussi faire
des mesures avec un gravimètre (mais c’est très rare) ; par contre, les diagraphies de densité
avec un rayon d’investigation de 40cm environ sont couramment réalisées avec des sondes γγ,. Le rayonnement γ par ces sondes interagit avec les nuages électroniques des atomes
présents, la quantité de rayons rétrodiffusés dépend du nombre d’électrons donc de la masse
des atomes. La restitution de la densité nécessite un étalonnage.
3-1-2 Vitesse de propagation des ondes élastiques, Vp
Pour un milieu linéaire, homogène et isotrope, la vitesse des ondes de compression
dépend des coefficients de Lamé, λ et μ, et de la masse volumique ρ. On a :
Vp =
λ + 2μ
.
ρ
2
Les données expérimentales ne correspondent cependant pas à cette expression théorique, la
vitesse étant en générale croissante avec la densité. On a donc recherché à partir de séries
d’expériences, des lois empiriques simples permettant de relier la vitesse avec les paramètres
significatifs. La meilleure de ces lois est celle proposée par Wyllie (1957), elle s’appuie sur le
modèle ‘en pile’ où l’on considère que, dans le volume élémentaire, l’onde traverse
successivement la partie solide puis la partie liquide puis la partie gazeuse et que les temps de
transit s’ajoutent. On a donc sommation des lenteurs (inverse des vitesses) :
1 = (1−n) + nSr + n(1−Sr ) ,
Vp Vs
Vw
Vg
où Vg est la vitesse dans la fraction gazeuse (proche de 330m s-1), Vw la vitesse dans l’eau
(1500 ms-1) et Vs la vitesse dans la fraction solide. Cette dernière vitesse ne correspond pas à
la vitesse dans les cristaux (de quartz, calcite ou autres) mais a été définie à partir de
l’expérimentation. On peut l’appeler, « vitesse dans le solide en grain ou dans le squelette».
Pour un squelette solide à dominante quartzeuse, elle est un peu plus faible, 6000 ms-1
environ, que pour un squelette solide à dominante calcaire, 6500 à 7000 ms-1. Cette
expression montre toute l’importance qu’a la fraction gazeuse dans la vitesse totale : une
teneur de 10% en gaz peut diviser par 2 la vitesse des ondes de compression. Les argiles
saturées et consolidées ont une vitesse comprise entre 2500 et 3000 ms-1.
Les milieux les plus lents que l’on puisse rencontrer correspondent aux couches
superficielles non-saturées dont la vitesse peut être aussi faible que 750 ms-1, voire moins
pour des couches superficielles. Les milieux les plus rapides correspondent aux dolomies et
surtout aux formations cristallines saines (granites en place) dont la vitesse est de 6500 ms-1.
La plage totale de variation est d’un facteur proche de 10, bien supérieur à celle présentée par
la densité qui n’est que d’un facteur 2.
Les tableaux ci-après montrent les corrélations qui ont été observées entre la vitesse
des ondes P dans la couche superficielle et la rippabilité du terrain, et donnent une ensemble
de valeurs observées pour les différents minéraux et les sols.
3-1-3 Propriétés électriques ρ, σ, ε
Pour pouvoir rendre compte des phénomènes observés lorsqu’on applique sur un
matériau un champ électrique deux propriétés indépendantes doivent être considérées : la
conductivité électrique qui caractérise les déplacements « libres » des charges électriques sur
des distances « macroscopiques » et la permittivité électrique relative qui caractérise la
polarisation électrique du matériau. Cette deuxième propriété recouvre plusieurs types de
3
phénomènes différents, « déformations » de molécules ou du réseau, rotations de molécules,
déplacements de charges sur de faibles distances (au plus à l’échelle du pore).
La conductivité, σ, est définie par la loi d’Ohm, i=σE, où i est la densité de courant,
c’est à dire la somme des charges traversant la surface unité pendant l’unité de temps, E le
champ électrique. La conductivité s’exprime en Sm-1. Plutôt que la conductivité, on utilise en
prospection son inverse la résistivité : ρ=1/σ ( en Ω.m).
La permittivité diélectrique relative, εr, est définie par D=ε0 E+P=ε0εrE, où D est le
vecteur induction électrique, P la polarisation électrique, ε0 la permittivité diélectrique du
vide, ε0=1 /(36π109) Fm-1. La permittivité relative est sans unité.
Pour le mécanicien en général et le géotechnicien en particulier, les notations utilisées dans le
domaine des méthodes électriques peuvent créer des difficultés. On veillera ainsi à ne pas
confondre le champ électrique avec le module d’Young, la conductivité avec le coefficient de
Poisson, la résistivité avec la masse volumique et la permittivité diélectrique avec un
déplacement.
3-1-3-1 Conductivité (ou résistivité) électrique, σ, ρ
L’analyse de la variation de la résistivité d’une roche ou d’un sol avec la température
montre sans ambiguïté qu’elle décroît quand la température augmente. On a donc affaire à une
conductivité électrolytique où la baisse de la viscosité du fluide avec la température rend plus
facile le déplacement des ions. Pour une solution de chlorure de sodium (les ions les plus
abondants dans le sous-sol) on a :
σ(T)=σ(T0)(1+(T-T0) 0,02),
où la température est comptée en degré Kelvin (ou Celsius).
Cependant l’expérience montre que souvent le déplacement d’ions dans l’eau interstitielle ne
peut suffire à expliquer les valeurs obtenues et, qu’en présence de matériaux fins (argiles), la
conductivité est notablement plus élevée. On tient compte de ce fait en séparant les cas de
roches ou de sols grossiers des cas où intervient de l’argile.
4
a) Milieux sans argile, loi d’Archie
Dans ce type de milieu on observe une proportionnalité directe entre la résistivité
totale d’un échantillon, ρt, et la résistivité de l’eau qu’il contient, ρw. Le rapport F =
ρt
, est
ρw
appelé « facteur de formation ».
Pour un milieu saturé, ce facteur est lié à la porosité par une formule du type
F=n-m,
à laquelle on peut ajouter un coefficient multiplicatif. Cette loi empirique est la loi d’Archie
(1942). Le coefficient m est toujours proche de 2, il dépend de la complexité du parcours des
ions dans le réseau poreux, on l’appelle coefficient de tortuosité ou de cimentation. Pour un
milieu non-saturé on aura
F=(nSr)-m,
mais il est aussi possible d’introduire deux exposants légèrement différents, l’un pour n,
l’autre pour Sr.
Si les grains se rapprochent d’une forme sphérique, m est plutôt inférieur à 2 (grès,
sable), si les grains se rapprochent d’une forme « en plaquette », il est plutôt supérieur à 2.
b) Milieux avec argile
Dans les matériaux fins il faut tenir compte d’un phénomène de
conduction
« surfacique » qui s’explique de la façon suivante (théorie de la « double couche » de GouyChapman) : en bordure des grains, les sites d’arrêt du réseau cristallin sont favorables à la
fixation d’anions qui se trouvent ainsi liés de manière rigide au réseau. C’est aussi le cas des
feuillets d’argile (smectite) qui sont chargés négativement. La surface négativement chargée
attire par effet électrostatique des cations qui se placent à l’extérieur de la couche d’anions
mais qui restent libres de glisser dans les directions tangentes à la surface. Le déplacement de
ces cations correspond à une « conductivité surfacique ». Dans les matériaux grossiers où la
surface spécifique est faible, cet effet est négligeable, mais dans les matériaux fins cet effet est
dominant. Ces cations sont les mêmes que ceux qui interviennent dans la mesure de la
capacité d ‘échange cationique (C.E.C.) méthode de mesure du contenu en argile d’un sol.
5
Les milieux contenant de l’argile sont donc simultanément le siège d’une conduction
par déplacement des ions dans le volume d’eau et par déplacement des cations à la surface des
feuillets. Pour décrire ce double phénomène la meilleure formule empirique s’est avérée être
la simple sommation des deux conductivités, σs conductivité surfacique et σv conductivité
volumique:
σ =σ v +σ s =σ w +σ s ,
F
et il a été montré que σs est proportionnelle à la CEC.
Dans la pratique, si l’eau est très minéralisée (bords de mer, sols salés, couches
profondes), la conductivité volumique l’emporte et, si l’eau est peu minéralisée (couches
superficielles en milieu continental), la conductivité surfacique l’emporte. En géotechnique,
en milieu continental, on doit donc d’abord considérer que la conductivité électrique traduit
l’argilosité du matériau plutôt que des variations de porosité ou de salinité de l’eau. Il faut
souligner aussi qu’une teneur en argile très faible du point de vue géotechnique, 5% par
exemple (cf chapitre 1) a des effets électriques très marqués, elle peut diviser par deux la
résistivité de la roche.
Le tableau : Valeurs de la résistivité électriques pour l’eau et quelques roches.
Résistivité
en Ω.m
Eau de mer
0,25
Eau ‘douce’
10-200
Argiles massives
5-20
Marne
20-80
Calcaire non argileux 1000-5000
Granite non-altéré
6
3000-10000
3-1-3-2 Permittivité diélectrique, ε
Alors que la résistivité peut être considérée comme constante sur toute la gamme de
fréquences que l’on est amené à utiliser en prospection (0-1 GHz), la caractéristique
principale de la permittivité est sa variation avec la fréquence. Deux phénomènes doivent être
considérés : la rotation de la molécule d’eau et l’effet Maxwell-Wagner.
La molécule d’eau étant une molécule polaire, les molécules d’eau libre (l’eau liquide
si l’on considère la participation de la vapeur comme négligeable) vont s’aligner sur tout
champ électrique appliqué selon un phénomène de relaxation :
−t
ε r (t)=ε rot (1−e τ ) ,
où τ est la constante de temps caractérisant la vitesse à laquelle se réalise cet alignement.
Dans le domaine fréquentiel la formule précédente correspond à
ε r(ω)= ε rot ,
1+iωτ
où ω est la pulsation. Comme τ vaut environ 10-10s, cette rotation va se produire sur toute la
gamme de fréquences considérée et donner à l’eau une permittivité relative très élevée, εr=81,
bien supérieure à celle de la fraction solide, comprise entre 2 et 5. Ce phénomène fait de cette
propriété la plus sensible à la teneur en eau liquide libre, cette teneur peut donc être
déterminée avec des mesures Radar (cf infra) ou par des mesures ponctuelles avec des sondes
capacitives ou T.D.R. (Time Domain Refectometry). Pour les fréquences supérieures à
50MHz, on peut exprimer la relation entre la permittivité relative apparenteet la teneur en eau
volumique, θv, par deux lois empiriques :
ε a = 3.03 + 9.3θ v + 146.0θ v2 − 76.7θ v3
θ v = −5.3 × 10 −2 + 2.92 × 10 −2 ε a − 5.5 × 10 −4 ε a2 + 4.3 × 10 −6 ε a3 .
Mais les résultats obtenus cadrent aussi avec l’expression empirique CRIM : pour εw=81 et
εs=5 :
ε a = θ ε w + (n − θ ) 1 + (1 − n) ε s
Pour les fréquences inférieures à 1 MHz, il peut se produire l’effet Maxwell-Wagner,
lorsque des ions se déplaçant sous l’effet d’un champ électrique se trouvent bloqués sur les
parois des pores ou en bordure des plaquettes d’argile. Ces blocages vont créer une
polarisation du milieu et faire intervenir des temps de relaxation variés dépendant du parcours
7
des ions (taille des pores en particulier). Il en résulte une croissance de la permittivité alors
que la fréquence décroît. La permittivité diélectrique relative peut atteindre, voire dépasser,
1000 à quelles centaines de Hz dans les matériaux argileux. La permittivité relative est ici
proportionnelle à la conductivité électrique, et le coefficient de proportionnalité dépend de
l’organisation des pores.
3-2 Prospection gravimétrique
3-2-1 Champ de gravité, potentiel et accélération de la pesanteur
Selon la loi de Newton, deux masses m1 et m2 s'attirent selon une force
F =G
m1 m2
,
r2
dirigée suivant la droite qui les joint, G est la constante d’attraction universelle, elle vaut
6,673 10-11 m3kg-1s-2 dans le système international (6,673 10-8 en c.g.s.). Un excès ou un
manque de masse dans le sous-sol va donc exercer en tout point de la surface du sol un champ
(la force qui s'exercerait sur la masse unité en ce point) :
H =G m .
r2
La prospection gravimétrique consiste à mesurer ce champ. Il est une grandeur vectorielle
r
r
m
r
, et dont les composantes dans un repère cartésien
qu'il est préférable d'écrire H =G
r3
auront pour expressions:
y − y0
et H z =Gm z − z0 ,
H x =Gm x− x0 , H y =Gm
r3
r3
r3
si x0, y0 et z0 sont les coordonnées de la masse et x, y et z les coordonnées du pont
1
d'observation. Si l'on considère la quantité scalaire V = Gm , on observe que les
r
composantes du champ correspondent au signe près à son gradient,
H x =− ∂V , H y =− ∂V et H z =− ∂V .
∂x
∂y
∂z
On appelle cette quantité le potentiel et on va l'utiliser dans les calculs, plutôt que le vecteur
champ, car c'est beaucoup plus simple.
L'effet d'un volume de matière se calcule donc à partit du potentiel:
ρ
V = G ∫∫∫ dv
r
8
si ρ est la masse volumique. D'après le théorème de Gauss, à l'extérieur du volume, le
potentiel (et chacune des composantes du champ) est une fonction harmonique qui vérifie:
ΔV =
∂ 2V ∂ 2V ∂ 2V
+
+
= 0.
∂x 2 ∂y 2 ∂z 2
A la surface de la terre, toute masse est en fait soumise à deux types de forces:
(1) l’attraction exercée par la masse de la terre (et des autres astres),
(2) la force d'inertie axifuge due à la rotation de la terre sur elle-même.
r
La résultante de ces deux forces est le poids, ou force de pesanteur. Pour une masse unité, g
est l'accélération de la pesanteur et sa direction définit la verticale.
3-2-2 Mesure de la gravité
Les gravimètres utilisés sont des pesons à ressorts très perfectionnés, où la force de
pesanteur est opposée à la force de rappel élastique d'une série de ressorts. Les mesures sont
relatives ; on mesure en chaque point une variation de l’allongement qui est proportionnelle
au module du vecteur somme de la pesanteur moyenne locale et de l’anomalie. Comme
l’anomalie est très faible devant la pesanteur (entre 10-6 et 10-9 fois), la longueur du vecteur
r
r
r
somme peut être approchée par la somme de g et de la projection de H sur g , c’est à dire
sa composante verticale que l’on a pris l’habitude de noter Δg . Les gravimètres de Génie
Civil peuvent atteindre une sensibilité de 1µgal (1 gal=1cm s-2 , 1 µgal=10-8 m.s-2) alors que la
pesanteur locale est proche de 980 gal.
Du fait de leur grande sensibilité, les gravimètres d’une part dérivent, et sont d’autre
part sensibles aux variations de l’attraction des astres et notamment aux effets de marée. Ils
sont ainsi affectés par une variation temporelle de la mesure qui doit être corrigée par des
mesures en circuit fermé, en revenant régulièrement (toutes les heures environ) à un même
point appelé « base » et en répartissant entre les mesures l’écart observé entre deux bases
successives.
3-2-3 Corrections gravimétriques
La principale difficulté rencontrée dans les mesures gravimétriques provient du fait
que les variations de densité dans le sous-sol ne sont pas les seules causes de modification de
la composante verticale de la pesanteur. On a d’abord une variation avec la latitude (982 gal
au pôle, 978 gal à l’équateur), qui correspond à l’effet de rotation de la terre et à sa forme
9
elliptique. Cette variation est de 0,5 mgal/km dans la direction N-S aux latitudes moyennes,
mais elle est régionale et donc aisément corrigeable.
3-2-3-1 Corrections de Bouguer
Les différents points de mesure ne sont pas à la même altitude, ni entourés du même
relief, et, en particulier, l’effet des différences d’altitude est en général supérieur à l’amplitude
des anomalies recherchées. Les corrections à réaliser sont regroupées sous le terme de
corrections de Bouguer et sont au nombre de trois : la correction de relief, la correction de
plateau et la correction d’air libre.
Pour effectuer ces corrections on doit d’abord définir un niveau de référence. En Génie
Civil, le plan horizontal passant par le point le plus bas convient (ceci permet de ne pas se
tromper dans les signes des corrections ensuite). Pour les prospections couvrant de grandes
surfaces, on prend l’ellipsoïde. Les corrections sont réalisées point par point.
La correction de relief a pour but de
calculer les effets des creux et des bosses
entourant le point de mesure (A sur la figure).
Les bosses, comme les creux, correspondent à
A
une attraction dont la composante verticale est
vers le haut. L’application de la correction doit
donc augmenter la valeur de Δg (on dit qu’elle
A’
est positive).
Sa réalisation est délicate, puisqu’elle demande
que l’on connaisse le relief et la densité des terrains superficiels. En l’absence de relief
marqué, elle reste cependant faible. En ville, elle demande que l’on calcule l’effet des
immeubles avoisinants.
La correction de plateau consiste à retirer l’attraction exercée en A par la tranche de
terrain comprise entre A et A’. Cette attraction a pour expression :
2πGdh
où d est la densité des terrains. Cette correction est négative.
La correction d’air libre vise à corriger l’effet de la différence de distance entre A et
A’ par rapport au centre de masse de la terre. Elle vaut
10
∂g
=−0,3086 mgal/m. Elle est
∂z
positive puisqu’elle consiste à augmenter la valeur de Δg, A’ étant plus proche que A du
centre de masse.
Ces deux dernières corrections, proportionnelles à h, peuvent être regroupées (0,30860,0419 d) mgal/m. Elles nécessitent une détermination très précise des écarts d’altitude entre
les stations : 3mm si l’on veut garder une sensibilité de 1 µgal. La détermination de d est aussi
une difficulté. Nettelton a proposé de considérer que la meilleur valeur possible pour d était
celle qui minimise la corrélation entre les valeurs corrigées Δg(x,y) et la topographie de la
zone prospectée.
Une fois les corrections effectuées, il ne reste dans les données que des effets ayant
leur origine dans le sous-sol, mais la carte « d’anomalies de Bouguer » ainsi obtenue n’est pas
celle que l’on aurait eu si toutes les mesures avaient été faites au niveau de référence et en
l’absence de relief, car la distance entre A et les sources d’anomalies n’est pas celle de A’. On
devra dans l’interprétation tenir compte de la position exacte des points de mesure.
3-2-4 Interprétation des prospections gravimétriques
Une fois les corrections effectuées, le prospecteur dispose d’une carte d’anomalies de
Bouguer qu’il doit interpréter en proposant une distribution (ou plusieurs) de la densité du
sous-sol qui explique exactement les anomalies observées. Malheureusement ce problème, le
problème inverse, a en gravimétrie une infinité de solutions et une interprétation quantitative
ne peut être proposée qu’en s’appuyant sur d’autres informations et gardera souvent une part
d’arbitraire. C’est pourquoi, on s’attache dans un premier temps, sans rien modifier de
l’information que la carte contient, à réaliser des transformations qui permettent de rendre
plus lisibles les différentes anomalies et d’en mieux localiser les sources, on appelle ces
transformations l’interprétation qualitative. Dans un deuxième temps on cherche à
déterminer les paramètres invariants communs à toutes les solutions (par exemple l’excès ou
le manque total de masse) et les limites des solutions (profondeur maximale des sources).
3-2-4-1 Interprétation qualitative
La première transformation des données consiste en l’élimination de la variation
régionale, variation dont on ne peut tirer aucune information. La méthode la plus utilisée
consiste à calculer le plan (ou la surface du deuxième degré) qui s’adapte au mieux aux
données et à l‘en soustraire. La carte obtenue montre alors les anomalies résiduelles.
Sur cette carte, l’allure des anomalies reflète en gros celle des structures mais avec un effet
d’étalement très important, on a une coalescence des anomalies et une seule anomalie
11
apparente peut en fait correspondre à l’effet de plusieurs sources distinctes. Pour corriger cet
effet on peut : soit calculer les dérivées verticales de Δg, (
∂ 2Δg
∂Δg
ou
), soit prolonger
∂z
∂z 2
vers le bas la fonction Δg(x,y). Chacune de ces opérations est un produit de convolution qu’il
est plus rapide de calculer dans le domaine spectral en trois étapes : on calcule la transformée
de Fourier de Δg(x,y), f(u,v) où u est la fréquence spatiale correspondant à x et v la fréquence
spatiale correspondant à y, on effectue une multiplication simple de cette transformée par la
transformée de Fourier de l’opérateur choisi, on calcule la transformée inverse du produit.
Pour le « prolongement » l’opérateur a pour transformée e
−2πh u 2 + v 2
(h étant la différence d’altitude entre le niveau où on prolonge et le niveau des mesures), celle
de la dérivée première verticale est :
2π u 2 +v2 ,
et celle de la dérivée seconde
4π 2(u 2 +v2) .
3-2-4-2 Détermination des paramètres invariants ou limitant les solutions
La masse totale en excès (ou manquante) est donnée par l’expression :
M =2πG∫∫Δg(x, y)dxdy ,
en intégrant sur toute la surface couverte par une anomalie. On peut aussi déterminer la
barycentre des sources, mais celui-ci n’a qu’un intérêt limité car il peut très bien ne
correspondre à aucune source réelle.
Pour une structure « concentrée », ne présentant pas une direction d’allongement
marquée, la source la plus profonde possible est une sphère. La profondeur maximale possible
de son centre est h=0,65 L, L étant la largeur à mi-hauteur. Pour une structure allongée, la
structure la plus profonde possible est le cylindre de section circulaire dont l’axe est à h=0,5L.
On peut aussi, à partir de plusieurs points et après avoir calculé les gradients, appliquer
la «déconvolution d’Euler» qui part de l’équation, vérifiée par toute fonction harmonique,
(x− x0)
∂Δg
∂Δg ∂Δg
=−NΔg .
+(y − y0)
− z0
∂z
∂x
∂y
12
Cette équation permet une évaluation de la position de la source (x0, y0, z0) en fonction
de l’indice structural, N. Cet indice vaut 2 pour une structure de type sphérique et 1 pour une
structure de type cylindrique.
3-2-5 Utilisation de la méthode en Génie Civil
La gravimétrie est une méthode bien adaptée à la détection des vides et des zones
décompactées ; à ce titre elle joue un rôle majeur en Génie Civl (la détection de vides est
obligatoire dans les zones périurbaines où on soupçonne la présence d’anciennes carrières).
Il faut toutefois que les volumes des vides recherchés soient suffisamment importants :
on considère habituellement qu’une structure assimilable à une sphère peut être détectée avec
un gravimètre de génie Civil jusqu’à 2m de profondeur si son diamètre est de 2m et jusqu’à
25m si son diamètre est de 10m. Une structure allongée sera détectée jusqu’à 8m si son
diamètre est de 2m et jusqu’à 40m si son diamètre est de 10m
3-2-5-1 Exemple d’utilisation
13
Cette figure, tirée de l’article de R. Neumann (Geophysical Prospecting, XVII, p129,) montre
l’anomalie résiduelle obtenue sur une ancienne carrière. Les iso-valeurs sont en centièmes de
mgal, le maximum est d’environ 0,3 mgal, l’anomalie, d’une largeur approximative de 50m,
globalise l’effet de chacun des vides.
_______________________
3-3 Prospection sismique
Dans le volume des solides existent deux types d’ondes élastiques de vitesses différentes : les
ondes de compression, les plus rapides ou ondes P (primae) et les ondes de cisaillement ou
ondes S (secundae). A l’interface sol-air apparaissent des ondes de surface (ondes de Rayleigh
et ondes de Love) qui sont nettement plus lentes que les ondes de volume et dont l’amplitude
s’amortit exponentiellement avec la profondeur. Pour les études peu profondes, l’utilisation
des ondes S comme celle des ondes de surface sont peu usitées (même si elles font l’objet de
programmes de recherche) et on se limite en général à l’étude des ondes P. Dans un milieu
homogène la mesure de la vitesse consiste simplement à mesurer le temps d’arrivée, td, de
l’onde P directe. A une distance Δ du point d’ébranlement on a :
Vp = Δ
td
S’il existe dans le sol un interface séparant un premier milieu de vitesse V1 d’un
deuxième de vitesse V2, deux phénomènes peuvent provoquer une remontée de l’onde vers la
surface et permettre l’observation de l’arrivée d’une onde : une réflexion et, si V2>V1 et que
l’on est à une distance suffisante du point source appelée distance critique, Δc ,une réfraction.
Chacun de ces deux phénomènes a donné naissance à une technique de prospection, il existe
une sismique réflexion et une sismique réfraction.
3-3-1 Sismique réflexion
Du fait de l’égalité entre les angles
Δ
d’incidence et de réflexion, le parcours de l’onde
réfléchie se divise en deux segments égaux et
V1
h
son temps d’arrivée a pour expression :
V2
tr =
14
Δ / 4+h
V1
2
2
Il dépend donc de V1 et de h, que l’on pourra déterminer si l’on dispose d'au moins deux
points de mesure à des distances différentes de la source. Le graphe de la courbe t=f(Δ) est
une hyperbole dont l’asymptote est de pente 1/V1. Pour Δ=0, on a tr=2h/V1.
L’amplitude de l’onde réfléchie est dans le cas général une fonction complexe de l’angle
d’incidence ; dans le cas particulier d’une incidence normale elle est proportionnelle au
coefficient C :
C=
Z 2 − Z1
Z 2 + Z1
où Z1 est l’impédance acoustique du milieu 1 et Z2 celle du milieu 2 (l’impédance acoustique
est le produit de la masse volumique par la vitesse des ondes P).
On peut avoir des réflexions multiples entre le sol et l’interface mais leur temps
d’arrivée peut se calculer si l’on connaît V1 et h à partir de la première réflexion. Dans un
milieu stratifié, on aura des réflexions sur chacune des interfaces qui se traduiront par de
arrivées successives au(x) point(s) d’observation.
La sismique réflexion présente de nombreux avantages : elle voit toutes les interfaces
et si Δ est petit, elle a un très bon pouvoir de résolution (elle voit bien les détails). Elle est de
ce fait la méthode la plus utilisée en prospection pétrolière où elle représente environ 95% des
dépenses.
On utilise en général plusieurs points de réception pour pouvoir déterminer les vitesses
et les épaisseurs. Si nécessaire, on peut préciser la valeur des vitesses par un CMP (Common
Mid Point) où, en gardant fixe le centre entre les points d’émission et de réception, on
augmente régulièrement leur écart de façon à avoir une détermination précise de l’hyperbole
et de son asymptote. Après une «correction dynamique» pour tenir compte des écarts de
distance entre les différents points de réception, on peut additionner (Stack) les
enregistrements réalisés à ces points pour augmenter le rapport signal/bruit.
Les résultats sont présentés sous forme de «coupe-temps» où l’on place sur l’axe
horizontal les abscisses des points de tir et sur l’axe vertical dirigé vers le bas le temps. Le
signal reçu est ainsi indiqué à la verticale de chaque point. Si l’amplitude du signal dépasse un
certain seuil, l’aire qu’elle délimite est noircie pour faciliter la lecture. Après détermination
15
des vitesses dans les différentes couches, on peut transformer cette «coupe-temps» en «coupeprofondeur».
Exemple de coupe profondeur obtenue à partir d’un profil de sismique réflexion, à gauche les
données brutes, à droite les données traitées.
En Génie Civil l’emploi de la sismique réflexion est peu courant, il est réservé aux
profondeurs supérieures à la vingtaine de mètres. Les raisons en sont les suivantes :
- le milieu peu profond est rarement un milieu stratifié simple et, en milieu complexe,
l’interprétation des résultats de sismique réflexion est très délicate,
- il faudrait pouvoir disposer de sources donnant des impulsions très brèves, hautes
fréquences, mais ces fréquences sont très vite absorbées,
- la mise en œuvre de cette méthode est lourde et son coût élevé.
Cette méthode a été employée lors des études du tunnel sous la Manche dans l’objectif de
déterminer les structures géologiques et leurs éventuelles discontinuités.
3-3-2 Sismique réfraction
3-3-2-1 Terrain tabulaire
A la frontière entre deux milieux, on a un phénomène de réfraction conformément à la
loi de Descartes :
sini1 = sini2 .
V1
V2
Si V2 >V1 l’angle de réfraction dans le milieu 2 sera supérieur à l’angle d’incidence dans le
milieu 1 et, pour une valeur λ ,incidence critique, il atteindra 90°dans le milieu 2. On aura
alors la condition de réfraction totale :
16
sin λ = V1 .
V2
L’onde réfractée se propagera dans le milieu 2 le long de l’interface et produira
continuellement des ondes réfractées du milieu 2 vers le milieu 1 qui remonteront vers la
surface avec une incidence λ.
Δ
A
M
λ
V1
V2
λ
C
h
C’
Ce phénomène ne peut se réaliser qu’à partir d’une distance «critique» autorisant
l’incidence sous un angle λ; en ce point la réfractée est confondue avec la réfléchie. La forme
du front de l'onde réfractée correspond à un tronc de cône dont l’axe de révolution est la
verticale passant par le point source puisque l’ensemble des points du segment
perpendiculaire à C’M est atteint en même temps. On appelle donc cette onde réfractée «onde
conique». L’expression du temps d’arrivée est :
Δ 2h cos λ
+
V2
V1
Elle correspond à une droite de pente 1/V2. Cette pente étant inférieure à celle de l’onde
t fr =
directe, l’onde réfractée va arriver la première à partir d’une distance appelée “point de
brisure”, Δb. on a:
V2 + V1
V2 − V1
En sismique réfraction on dispose une série de récepteurs le long d’un profil partant du
Δ b = 2h
point source, on ne considère que les premières arrivées et on trace la courbe trf=f(Δ),
dromochronique ou hodochrone. Sur cette courbe, les pentes successives donneront les
vitesses et la position du point de brisure (ou l’ordonnée à l’origine obtenue en prolongeant la
réfractée) donnera l’épaisseur h.
17
t
1/V1
1/V2
Δc
Δb
Δ
Cette méthode peut être appliquée à un terrain à plusieurs couches à condition que les
vitesses croissent avec la profondeur.
Pour un terrain à n couches où les vitesses successives sont croissantes on aura
l’expression générale : t =
n −1 h
Vj
Δ
j
+ 2∑ cos I j , où Ij est définie par sin I j =
Vn
Vn
j =1 V j
3-3-2-2 Terrains non-tabulaires
Si l’interface entre les deux milieux n’est pas parallèle à la surface du sol (ce qui est le
cas le plus courant), mais fait un angle α (compté positivement vers le bas) avec cette surface,
le temps d’arrivée s’en trouve modifié, on a:
Δ
M
A
V1
V2
λ
λ
α
C
C’
sin(λ +α) 2hcosλ
trf = Δ
+
V2 sinλ
V1
La pente de la réfractée va alors dépendre des angles λ et α et rendre impossible la
détermination de V2 et de h. La solution à ce problème a été trouvée dans la pratique du «Tir
Inverse», où l’on inverse le sens de parcours de l’onde en gardant les mêmes points de mesure
et en plaçant le point de tir à l'autre extrémité du profil. Ceci revient à changer α de signe. On
a alors :
tef = Δ
V2
sin(λ −α) 2hcosλ
+
sinλ
V1
18
Et une valeur différente de la pente de la dromochronique. On peut déterminer α , V2 et h. Si
α est petit (c’est le cas sinon le milieu de vitesse V2 affleurerait) on a une bonne
approximation de V2 par la moyenne harmonique des pentes apparentes:
2 ≅ sin(λ +α) + sin(λ −α) ≅ 1 + 1
V2 V2 sinλ
V2 sinλ V2' V2''
Le cas d’un changement latéral de milieu, une faille par exemple, peut être résolu de la même
façon. Si l’on tire de A vers A’ et que V3>V2, la dromochronique sera identique à celle d’un
terrain tabulaire à trois couches.
Δ
A
V1
V2
A’
λ2
λ3
C
C’
h
V3
C’est par contre le tir de A’ vers A, qui en montrant une pente plus faible d’abord, puis un
redressement de la pente, prouve que le terrain à trois couches n’est pas une solution
acceptable.
En conclusion, on ne peut interpréter la sismique réfraction qu’à partir de couples, Tir Direct
– Tir Inverse, et un seul tir ne permettrait que la détermination de V1.
3-3-2-3 Application de la méthode au Génie Civil
Cette méthode est très utilisée pour rechercher le « bed-rock », substrat solide sous des
couches peu compactes. Elle permet aussi de détecter le toit de la nappe aquifère. Sa mise en
œuvre la plus courante se fait par de longs profils où les séries de points de mesure de 12 ou
24 géophones sont encadrées par des points de tir ;
A1
A2
Les géophones qui détectent l’arrivée de l’onde sont des capteurs très simples où le
déplacement du sol crée une induction magnétique dans une bobine. Ce sont donc des
19
capteurs de vitesse. Ils sont petits, légers et robustes. Une «flûte» les relie à l’appareil
enregistreur. Avec les appareils les plus simples, on peut n’utiliser qu’un seul géophone et
déplacer la source pour faire varier Δ, la source est alors un marteau à main. Les chutes de
poids, ou des «fusils» constituent des sources plus efficaces, mais la plupart des enregistreurs
permettent de répéter la mesure et de sommer (stack) les résultats pour améliorer le rapport
signal/bruit.
La sismique réfraction s’adapte parfaitement aux mesures en mer (ou en rivières), un
même bateau tirant la source (un canon à air par exemple) et une ligne d’hydrophones tout en
se déplaçant «en continu».
3-3-3 Tomographie sismique
Les mesures de tomographie sismique s’effectuent entre deux forages, entre surface et
forage ou en surface, on place alors une série de points de tir entre les géophones et non pas 2
aux extrémités du profil comme en réfraction simple. Entre forage, une série de sources est
déployée dans l’un des forages, une série de récepteurs dans l’autre (on peut aussi n’utiliser
qu’une source que l’on déplace). Le temps mis par l’onde directe pour atteindre les différents
récepteurs permet de restituer les variations de vitesse et donc les hétérogénéités qui existent
entre les deux forages. On peut aussi prendre en compte les variations d’amplitude entre les
différents récepteurs.
Cette méthode, lourde, est de plus en plus utilisée, après les autres méthodes
géophysiques, en cas de forte présomption de présence de cavités. Elle permet de les définir
avec un degré de finesse utilisable à l’échelle de l’ouvrage.
_____________________
3-4 Méthodes électriques
3-4-1 Principe des différentes méthodes
Le comportement des phénomènes électrique et magnétique est régi par un ensemble
de quatre lois expérimentales : les équations de Maxwell.
r
v
Si B est l’induction magnétique et E le champ électrique, on a dans un milieu linéaire et
isotrope :
r
divB=0
r q
divE =
ε
20
r
r
∂
B
rotE =−
∂t
r
r
r
∂
E
rotB=μσE +εμ
∂t
(équation de Maxwell-Faraday)
(équation de Maxwell-Ampère)
où µ est la perméabilité magnétique, ε la permittivité diélectrique, σ la conductivité électrique
et q la densité volumique de charges (égale à 0 au niveau macroscopique puisqu’on a autant
de charges négatives que de charges positives dans un volume donné). C’est donc trois
propriétés qu’il faut connaître pour décrire le comportement des champs. Réciproquement
connaissant ce comportement, on devrait pouvoir déterminer ces trois propriétés ; a priori
ceci n’est pas simple, en particulier parce qu’elles apparaissent par des produits. En fait, les
choses se simplifient, d’une part parce que la perméabilité magnétique des matériaux du soussol reste toujours très proche de 1, d’autre part parce qu’il est possible, à partir
d’approximations portant sur les variations temporelles, de simplifier les équations.
La susceptibilité magnétique, κ, des sols, comme des roches, est inférieure à 0,01.
comme µ=µ0(1+κ) , on peut adopter l’approximation µ=µ0.
Si l’on considère les phénomènes indépendants du temps, des courants continus,
∂ ≈0 , les deux dernières équations se réduisent à :
∂t
r
r
v
rot B =µσ E et rot E =0.
La seule propriété présentant des variations sera donc la conductivité électrique. On utilisera
comme source un courant injecté, le terme de droite de l’équation de Maxwell-Ampère
v
v
E secondaire). Le champ E pourra être considéré comme le
v
gradient d’un potentiel scalaire , E =-gradV, dont le laplacien est nul : ΔV=0. Son calcul sera
v
pouvant être écrit µ( i
source+σ
ainsi plus facile. On parle dans ce cas de « prospection électrique », « méthode électrique »,
« courant continu » (en anglais DC electrical method).
Une deuxième approximation peut être proposée en considérant les deux termes σE et
ε ∂E
∂t
dont l’importance relative dépend de la valeur des deux propriétés et de la vitesse de variation
dans le temps. Si on se place pour la comparaison de ces deux termes dans le domaine
« fréquentiel » où l’on considère des variations sinusoïdales ( eiωt , de pulsation ω) on a :
∂ =iω . En choisissant des valeurs courantes, par exemple σ=0,01 S/m et εr=18, on aurait
∂t
égalité des deux termes σ et εω si f=10 Mhz. Pour une fréquence beaucoup plus basse, par
v
exemple f< 100 kHz le terme iωε E peut être négligé et l’équation de Maxwell-Ampère se
21
v
r
réduit comme précédemment à rot B =µσ E . Dans ce cas seule la conductivité interviendra.
On l’appelle approximation des basses fréquences, ou B.F.ou cas de l’induction, puisqu’on
peut utiliser comme source la variation temporelle d’un champ magnétique.
Pour des hautes fréquences, supérieures à la dizaine de Mhz, la permittivité
diélectrique dominera et on aura affaire à des phénomènes de propagation électromagnétique.
3-4-2 Méthode électrique
3-4-2-1 Principe de la mesure, le quadripôle
Pour injecter un courant dans le sol, il suffit d’y planter 2 électrodes, c’est à dire deux
piquets métalliques, mais cela ne suffit pas pour mesurer la conductivité ou la résistivité du
sous-sol. Si l’on s’en tient, en effet, à la mesure du rapport entre la différence de potentiel
entre ces deux électrodes et le courant qui les traverse on obtient la somme des deux
résistances de prise de terre et la résistivité du sous-sol lui-même n’intervient pas puisque le
milieu étant illimité, sa résistance électrique est nulle. Par contre, en mesurant le potentiel en
des points différents des points d’injection on a, pour un milieu homogène, une mesure
proportionnelle à la résistivité.
Si l’on considère, en effet, un point d’injection, A, unique, où le courant injecté a une
valeur +I, le courant dans le milieu homogène se répartit de façon isotrope et pour un point
situé à une distance r de A, la densité de courant vaut : ir = I
2πr 2
donc Er =
, le champ électrique vaut
ρI
ρI
et le potentiel, V =
si l’on adopte V=0 comme condition à l’infini. Si
2
2πr
2πr
l’on considère les deux électrodes A et B permettant le passage du courant (en ayant en B un
courant –I) et un deuxième point de mesure différent du premier pour pouvoir mesurer une
différence de potentiel, on a :
VM −VN =ΔV =
[
]
ρI 1
− 1 − 1 + 1 .
2π MA MB NA NB
La mesure ainsi obtenue est proportionnelle à ρ mais sa valeur dépend de la disposition des
électrodes.
Pour pouvoir exprimer le résultat d’une mesure par un seul paramètre, sans avoir à
donner les valeurs de ΔV , de I et la disposition des électrodes, on a introduit la notion de
résistivité apparente : la résistivité apparente, ρa est celle qu’aurait le terrain homogène
donnant la même valeur de ΔV/I avec la même disposition d’électrodes que celle utilisée. La
22
disposition géométrique des électrodes intervient dans sa définition par un coefficient k qui
s’écrit :
k=
2π
et on a ρa =k ΔV .
1 − 1 − 1 + 1
I
AM BM AN BN
Comme il existe une infinité de façons de placer quatre électrodes sur un plan, des
habitudes ont été prises, elles tiennent compte des problèmes pratiques de mise en place et de
déplacement des électrodes comme de considérations théoriques. Les principaux quadripôles
utilisés sont ainsi :
-
le quadripôle Schlumberger où les quatre électrodes sont alignées selon un dispositif
symétrique avec MN<<AB, on a donc k ≅
4MN
.
B
M O N
A
-
πAB2
le quadripôle Wenner où les quatre électrodes sont alignées et distantes d’un écart a,
(k=2πa)
M
A
B
N
a
-
le quadripôle carré, (k=10,72 a, si a est le coté)
A
M
B
a
N
On peut diminuer le nombre d’électrodes à déplacer sur le terrain si l’une ou deux sont fixes
et placées très loin (à l’infini). C’est le cas pour le dispositif pôle-dipôle (où k=4πa)
A
M
N
ou pour le dispositif pôle-pôle (où k=2πa).
23
B
?
A
B
?
N
?
M
3-4-2-2 Mise eu œuvre de la méthode
La méthode électrique peut s’employer de deux façons complémentaires, le «trainé» et le
«sondage» que l’on peut aujourd’hui réaliser simultanément avec des dispositifs multiélectrodes (ou multi-pôles), dont le plus utilisé est le « panneau ». Sa mise en œuvre nécessite
que l’on maîtrise la notion de profondeur d’investigation. Cette notion empirique qualifie
l’épaisseur de terrain prise en compte dans la mesure. Pour un quadripôle donné, elle dépend
de l’écart existant entre l’électrode de potentiel et l’électrode d’injection les plus proches.
Selon la répartition verticale des résistivité elle est prise égale à cet écart ou à la moitié de cet
écart.
En trainé, on déplace latéralement un dispositif de dimensions fixes, afin de cartographier les
variations horizontales de la résistivité.
Le sondage part de l’observation selon laquelle l’épaisseur du terrain où circule la part
significative du courant dépend de l’écartement des électrodes. On peut donc, en gardant fixe
le centre du dispositif et en augmentant régulièrement sa taille, augmenter l’épaisseur de
terrain prise en compte dans la mesure et ainsi reconnaître la variation de la résistivité avec la
profondeur. Pour respecter le fait que seules les variations relatives sont significatives, cette
augmentation doit être réalisée selon une progression géométrique dont la raison est choisie
pour avoir environ 6 points par décade (1,5 par exemple).
Un panneau électrique 2D est constitué par une ligne pré-implantée de N électrodes
équidistantes d’un écart a. Par commutation on déplace le quadripôle utilisé, qui peut être un
Wenner, un dipôle-dipôle, un pôle-dipôle ou un pôle-pôle, en commençant par l’écartement a,
puis l’écartement 2a, et ainsi de suite…
Un panneau électrique 3D correspond à une série de panneaux 2D parallèles utilisés
simultanément. Le quadripôle peut alors être carré ou en ligne parallèle, perpendiculaire ou
diagonale par rapport aux panneaux 2D.
Il existe d’autres dispositifs multi-électrodes, mobiles, qui, tractés sur la surface à étudier,
permettent de prospecter rapidement des surfaces étendues avec une maille de mesure fine (le
système de traction peut être un tracteur agricole, un quad ou une chenillette). Les électrodes
utilisées sont par exemple des roues à picots mais leur nombre est alors plus faible que dans
24
un panneau ; les mesures peuvent, par exemple, porter sur trois profondeurs d’investigation
différentes.
300
560.4
250
550.4
402.6
325.8
263.7
200
213.5
172.8
139.8
150
113.2
91.6
74.2
100
60.0
48.6
39.3
50
31.8
25.8
20.9
0
0
50
0
50
100
100
150
150
200
250
300
350
400
200
La cartographie de la résistivité apparente réalisée avec un quadripôle Wenner dipôle-dipôle
où a=5m sur un plateau calcaire ( d’age oxfordien) montre des variations très fortes de la
résistivité électrique (et donc des caractéristiques mécaniques) du sous-sol. Le récif a une
résistivité supérieur à 400Ω.m tandis que la zone extérieure à l’ancienne barrière de corail
est en dessous de 50Ω.m du fait de la forte teneur en argile.
3-4-2-3 Interprétation des mesures
Si l’interprétation du trainé fait en principe toujours appel à des modèles 3D complexes, le
sondage peut être interpréter avec un modèle 1D de terrain tabulaire dont on connaît la
solution analytique. Pour un sol à N couches de résistivités, ρ1, ,ρN, et d’épaisseurs, e1,
le potentiel à la surface en un point M, à une distance r de A, a pour expression :
25
, eN,
ρ1I ⎡ 1 ∞
V = ⎢ + ∫2f(λ)J 0(λr)dλ ⎤⎥
2π ⎣ r 0
⎦
où J0 est la fonction de Bessel et f(λ)=
en partant de RN=ρN et de Ri = ρi
ρ1− R2
(R2 − ρ1)−(R2 + ρ1)e2λe
1
, R2 étant définie itérativement
Ri +1+ ρithλei
.
ρi + Ri +1thλei
L’interprétation d’un sondage se fait sous l’hypothèse d’un terrain tabulaire en
choisissant le nombre de terrains, puis leurs résistivités et leurs épaisseurs, de telle sorte que la
courbe théorique s’adapte au mieux aux points expérimentaux. En théorie, ce problème est à
solution unique mais la précision nécessairement limitée des mesures ne permet pas de
séparer des ensembles de solutions que l’on appelle des « cas d’équivalence ». Ainsi (1) toute
couche conductrice placée entre deux couches résistantes peut être remplacée par une autre
couche (ou une série d’autres couches) présentant le même rapport e/ρ (qui correspond
physiquement à une conductance), (2) toute couche résistante placée entre deux couches
conductrices peut être remplacée par une autre couche (ou une série d’autres couches)
présentant le même produit e.ρ et (3) lorsque la résistivité apparente croît, on peut toujours
intercaler entre deux couches résistantes une couche de résistivité intermédiaire et, de la
même façon, quand la résistivité apparente décroît on peut intercaler entre deux couches
conductrices une couche de résistivité intermédiaire. Longtemps réalisée à l’aide d’abaques
cette interprétation l’est maintenant par inversion itérative à l’aide d’un programme
informatique. Le choix du modèle approché initial s’appuie sur des règles simples : le nombre
de couches est au moins égal au nombre de changements de pente de la courbe plus un, les
interfaces sont à placer au début des changements de pentes, les contrastes de résistivité
croissent avec l’importance de la pente.
On présente les résultats obtenus avec les panneaux sous forme de « pseudosections » où la position affectée à chaque mesure le long du profil est celle du centre des
quatre électrodes utilisées pour cette mesure et où la position en profondeur est l’écart entre
électrodes du quadripôle considéré. L’interprétation des panneaux 2D (respectivement 3D) est
réalisée avec des programmes numériques 2D (respectivement 3D).
26
1000
Résistivité ( Ω.m)
Modèle à 3 couches
Résistivité Epaisseur
(Ω.m)
(m)
96.96
.5
30.02
2.11
121.31
100
écart : .060
modèle
données
courbe
10
0.1
A (mètres)
1
10
1000
Modèle à 3 couches
Résistivité (Ω.m)
Résistivité Epaisseur
(Ω.m)
(m)
89.49
.65
21.82
1.36
115.88
100
écart : .045
modèle
données
courbe
10
0.1
A (mètres)
1
10
Les figures ci-dessus présentent deux interprétations possibles d’un même sondage où une
couche conductrice est intercalée entre deux plus résistantes ; l’erreur étant pratiquement la
même. Ces deux interprétations constitue un cas d’équivalence où la conductance, e/ρ, est de
0,07 S.
27
1000
Résistivité ( Ω.m)
Modèle à 3 couches
Résistivité Epaisseur
(m)
(Ω.m)
187.15
.14
58.14
.63
32.06
100
écart : .052
modèle
données
courbe
10
0.1
A (mètres)
1
10
1000
Résistivité ( Ω.m)
Modèle à 4 couches
Résistivité Epaisseur
(Ω.m)
(m)
194.21
.14
57.51
.74
35.4
.27
30.66
100
écart : .042
modèle
données
courbe
10
0.1
A (mètres)
1
10
Ce sondage montre une décroissance monotone de la résistivité, il peut être interprété avec 3
terrains, mais on peut aussi introduire un quatrième terrain (ou plus).
28
Une pseudo-section, ici réalisée avec une configuration Wenner, se présente sous la forme
d’une coupe verticale de la résistivité apparente où, par convention, les valeurs de la
résistivité apparente mesurée sont affectées à des points, les croix sur la figure du haut,
localisés au centre des quadripôles et à une profondeur égale à la distance entre les
électrodes. La figure du bas montre l’interprétation réalisée avec la méthode des différences
finies : à chaque maille est affectée une résistivité de telle sorte que le calcul des résistivités
apparentes redonne, figure du milieu, la même coupe que la pseudo-section expérimentale.
3-4-2-4 Réalisation des mesures
L’injection du courant dans le sol peut poser des problèmes de sécurité, la norme
limitant le courant est de 27 mA. Cette intensité est heureusement suffisante pour la plupart
des mesures sur les profondeurs intéressant le Génie Civil. La principale difficulté
expérimentale associée à la méthode électrique tient à l’insertion des électrodes dans le sol, à
29
la différence de potentiel spontané (P.S.) qui apparaît alors et à la valeur de la résistance de
contact.
Si l’on utilise un courant continu, la polarisation spontanée des électrodes étant
instable dans le temps, la mesure doit être répétée (et de ce fait est longue). On pallie cette
difficulté en inversant le sens de circulation du courant, la P.S. ne changeant pas de signe, la
différence entre les mesures obtenues pour chaque sens du courant élimine la P.S..
L’utilisation d’un courant alternatif est l’aboutissement normal de cette idée mais sa
fréquence doit rester suffisamment basse pour que tout effet inductif soit évité (voir plus loin).
Le problème du contact sol-électrode reste alors la principale difficulté posée par
l’emploi de la méthode électrique, elle rend son utilisation lente et impossible sur les sols
construits ou très secs comme sur les affleurements rocheux. Pour surmonter cette difficulté, il
faut se tourner soit vers la méthode électrostatique, soit vers les méthodes électromagnétiques
basse fréquence.
3-4-3 Méthode électrostatique
L’idée à la base de cette méthode est d’utiliser des pôles électrostatiques placés dans
l’air au-dessus du sol pour mesurer les propriétés électriques de celui-ci. Un pôle de charge Q
placé dans un milieu homogène de permittivité ε, crée à la distance r un potentiel V =
Q
4πεr
.
Si le pôle est placé au voisinage de la surface du sol, le potentiel va se trouver modifié. La
méthode des images permet de calculer cette modification tout en prenant en compte la
permittivité diélectrique complexe du sol qui dépend à la fois de sa conductivité et de sa
permittivité. Pour un sol suffisamment conducteur et une fréquence suffisamment basse, on
obtient finalement :
V=
Qiω
ρI
, soit V =
2πσr
2πr
si l’on considère le courant I=Qiω alimentant le pôle. On retrouve la même expression qu’en
prospection électrique dont la méthode électrostatique constitue une généralisation.
Cette méthode a les mêmes types d’utilisation, trainés, sondages, panneaux,…, que la
méthode électrique et les mêmes méthodes d’interprétation, tout en étant utilisable quelque
soit l’état de la surface du sol. Elle souffre néanmoins d’une limite technique : la fréquence
utilisée ne peut être nulle, car il serait impossible de maintenir des charges sur les pôles
d’injection et elle détermine, avec la surface du pôle, son impédance. Pour que celle-ci ne soit
pas trop élevée tout en gardant des pôles de surface totale inférieure au mètre carré, on ne
30
descend pas en dessous de 10 kHz. L’usage de cette méthode est donc limité par les effets
inductifs qui apparaissent dès que le nombre d’induction (σµωL2, voir plus loin) est supérieur
à 0,1 (L étant la dimension caractéristique du quadripôle : écart entre les pôles d’injection et
de mesure les plus proches). Pour les sols conducteurs, cette méthode ne permet donc
d’explorer que la première dizaine de mètres, mais ceci représente une part importante des
problèmes posés en Génie Civil.
3-4-4 Méthodes électromagnétiques basse fréquence
L’induction d’un courant dans le sol par la variation d’un champ magnétique source
peut être réalisée par toute une gamme de dispositifs d’émission ne nécessitant aucun contact
avec le sol ; de la même façon, à la réception, la mesure du champ magnétique secondaire
créé par les courants induits permet d’éviter la mesure du champ électrique. Cependant, avant
de décrire les types de sources utilisés, il convient de donner les caractéristiques générales des
méthodes électromagnétiques (E.M.) basse fréquence.
3-4-4-1 Effet de peau, profondeur de pénétration, nombre d’induction
En se plaçant dans le cas le plus simple d’un champ primaire uniforme horizontal et
d’un sol homogène de conductivité σ, une composante horizontale du champ, Ex par exemple,
vérifie l’équation :
∂ 2 Ex
−iσμωEx =0 ,
∂z 2
dont la solution est
Ex = Ex e−
0
iσμω z
= Ex e
0
−i
σμω
2
z
e
−
σμω
2
z
.
En profondeur le champ est donc amorti et déphasé, le paramètre qui contrôle ces deux effets
étant p=
2
σμω
que l’on appelle profondeur de pénétration ou profondeur de peau (skin
depth en anglais). Les courants induits se concentrent près de la surface d’une façon qui
dépend de la fréquence et de la conductivité. Ceci ouvre la voie à une méthode de sondage où
l’épaisseur de terrain prise en compte dans la mesure est contrôlée par la fréquence : plus
celle-ci est basse, plus cette épaisseur est grande.
Si dans un dispositif E.M. de prospection, la distance entre la source et le point de
mesure est bien inférieure à la profondeur de pénétration, celle-ci ne peut avoir d’effet sur
l’épaisseur de terrain prise en compte dans la mesure qui, comme en prospection électrique,
31
est alors gouvernée par distance source-point de mesure. Si, par contre, la distance entre la
source et le point de mesure est plus grande que la profondeur de pénétration, c’est elle qui
détermine l’épaisseur de terrain prise en compte dans la mesure. Il est utile de disposer d’un
critère qui permette de savoir dans quelle situation on se trouve. On définit donc le nombre
d’induction, σμωL2, nombre sans dimension, qui compare la dimension caractéristique d’un
dispositif de mesure, L, l’écart entre émission et réception le plus souvent, et la «portée» du
phénomène d’induction. Plus le nombre d’induction est petit, plus on se rapproche du cas
statique et plus le rôle des phénomènes d’induction est réduit.
3-4-4-2 Modes électromagnétiques
v
Les équations de Maxwell-Ampère et de Maxwell-Faraday montrent que B dépend
r
des variations spatiales de E et réciproquement. Il s’en suit que le couplage entre les deux
champs et les composantes existantes vont dépendre des symétries et des invariances en
translation présentées par le terrain et le champ primaire. Ainsi, pour un terrain tabulaire (1D)
et un champ primaire uniforme, on a, en coordonnées cartésiennes ∂ =0 et ∂ =0 ; aucun
∂x
∂y
des champs n’a donc de composante verticale et les composantes horizontales sont liées 2 à 2,
chaque paire étant indépendante de l’autre : on a
iωBx = ∂Ey et μσEy = ∂Bx d’une part, iωBy = ∂Ex et σμEx =− ∂By d’autre part.
∂z
∂z
∂z
∂z
Chacune de ces deux paires constitue un mode électromagnétique. Dans tout problème E.M.
on doit d’abord identifier les modes présents (par habitude on utilise plutôt que B le champ
magnétique H, H=B/µ0).
3-4-4-3 Sources utilisées
Si a priori un grand nombre de dispositifs différents peut être utilisé pour créer un
champ primaire, en pratique on se limite à trois catégories de sources :les sources
«lointaines», correspondant à un champ primaire uniforme, les sources « étendues » où le
champ primaire est en 1/r, et les sources dipolaires où le champ primaire est en 1/r3. En Génie
Civil, on n’utilise pratiquement pas la deuxième catégorie et on se limite aux sources
lointaines et dipolaires. La gamme de profondeur à explorer correspond à des fréquences où
les sources lointaines sont constituées par des émetteurs radio des gammes L.F. (150-250
kHz) et V.L.F. (15-25 kHz) ; au-dessus de 2 kHz, les variations naturelles du champ
magnétique terrestre sont en effet trop faibles pour être utilisées. Les sources dipolaires
32
correspondent à des dipôles magnétiques, de petites boucles dont l’intérêt premier est la
maniabilité.
3-4-4-4 Utilisation des sources lointaines
Les émetteurs des gammes VLF et LF sont de grands pylônes verticaux qui rayonnent
un champ primaire constitué d’un champ électrique vertical Ezp et d’un champ magnétique
horizontal Hyp. Sur toute la zone prospectée, dont l’étendue est en général bien inférieure à la
longueur d’onde (15 km à 20 kHz), le champ primaire Hyp peut être considéré comme
uniforme. Le nombre d’induction est très grand et la profondeur d’investigation (définie au
paragraphe 3.4.2.2) va dépendre de la conductivité et de la fréquence ; dans ce cas, on
considère habituellement que la profondeur d’investigation correspond à la moitié de la
profondeur de pénétration.
Sur un sol tabulaire, seul le mode (Ex, Hy) existe. Si le sol est homogène on a en
surface :
Ex=Ex0 et H y = Ex0
σ e−i π4 .
μω
Il est habituel dans les méthodes électromagnétiques, pour éviter que la mesure ne soit faussée
par une variation de puissance de la source (et ici le prospecteur n’a aucun contrôle sur elle),
de mesurer un rapport de deux composantes plutôt qu’une composante seule. Ici, le rapport
2
Ex/Hy permet, de plus, de déterminer la résistivité du terrain, ρ = 1 Ex , et donc, pour un
ωμ H y
terrain quelconque, de définir une résistivité apparente. La méthode de mesure basée sur ce
rapport est en général appelée Magnéto-Tellurique (M.T.). Malheureusement, pour les études
peu profondes, la répartition en fréquence des émetteurs se prête difficilement à l’exécution
de sondages, qui ne pourraient avoir le plus souvent que deux points : un en LF et un en VLF ;
son application se limite donc au trainé, à la cartographie des variations latérales de résistivité.
Sur un sol non-tabulaire, on a en 2D le mode (Hy, Ex, Ez), si ∂ =0 ; ou le mode (Ey,
∂y
Hx, Hz), si ∂ =0 . Pour une direction de cylindricité quelconque, on doit décomposer le
∂x
champ primaire par rapport à la direction des structures. Sur un sol 3D, on a les 6
composantes. Dans tous ces cas, l’expérience et les modèles théoriques ont montré que la
composante Hz est la plus intéressante à mesurer. La mesure de Hz/Hy s’est donc développée
comme outil de mise en évidence des variations latérales de la résistivité.
33
Les sources lointaines sont ainsi utilisées pour effectuer des trainés en mesurant soit
Ex/Hy soit Hz/Hy, mais ces deux mesures montrent une très forte «anisotropie apparente», la
carte obtenue dépendant de l’orientation du champ primaire, c’est à dire de la direction de
l’émetteur. Pour pallier ce défaut, il est en fait nécessaire d’utiliser deux émetteurs de
directions différentes et (autant que possible) perpendiculaires et de combiner leurs résultats
en cartographiant un paramètre isotrope. Deux invariants existent pour la résistivité
apparente :
ρa1ρa2 et
ρ a1 + ρ a2
2
,
ρa1 et ρa2 étant les résistivités obtenues en un point pour chaque émetteur. Pour la composante
verticale l’invariant s’écrit
2
2
⎛⎜ H z1 ⎞⎟ +⎛⎜ H z2 ⎞⎟ .
⎝ H y1 ⎠ ⎝ H y2 ⎠
La mesure utilisant la composante verticale est appelée habituellement V.L.F.-E.M. ou
V.L.F.-Mag, la mesure M.T. a reçu, en fonction des utilisateurs, beaucoup de noms : RadioOhm, V.L.F.-R., M.T. artificielle, M.T.-V.L.F. ou Radio-M.T. (RMT).
3-4-4-5 Utilisation des sources dipolaires
L’intérêt principal d’une source dipolaire étant sa maniabilité, la grandeur mesurée
doit respecter aussi cette caractéristique, on mesure donc une (ou plusieurs) composante(s) du
champ magnétique avec une bobine. Dans de tels dispositifs, dipôle-dipôle, l’orientation
relative des bobines joue un rôle important dans la profondeur d’investigation, le signe et
l’allure des réponses. On a adopté le système de dénomination suivant:
HCP
VCP
PERP
34
VCA
Les dispositifs utilisés correspondent le plus souvent à un faible nombre d’induction et
on retient en général HCP, qui présente la meilleure profondeur d’investigation, 1,5 L si L est
l’écartement des bobines, et qui permet de passer en VCP par simple rotation de l’appareil. En
faible nombre d’induction, le champ secondaire mesuré est proportionnel à la conductivité, il
est donc logique d’appeler ces appareil des conductivimètres. Il sont le plus souvent utilisés
en trainé, mais peuvent l’être en sondage en faisant varier L. Leur mise en œuvre est
beaucoup plus rapide que celle de la méthode électrique, mais ils en sont bien
complémentaires, puisque pour eux le rapport Signal/bruit est meilleur en milieu conducteur
(mesure proportionnelle à σ) alors que, pour la méthode électrique, ce rapport est meilleur en
milieu résistant (mesure proportionnelle à ρ).
3-4-5 Mesures haute fréquence, Radar-sol (ou GPR ou Géo-Radar)
L’utilisation des hautes fréquences présente deux intérêts par rapport aux mesures
électrique et E.M. déjà décrites : (1) déterminer une propriété, la permittivité, très bien
corrélée à l’humidité, (2) offrir une méthode d’investigation de la structure verticale du terrain
par propagation et réflexion. On ne peut en effet étendre l’idée du sondage fréquentiel, telle
qu’elle existe en basse fréquence, là où la condition σ>>εω n’est plus respectée et les
sondages géométriques sont d’une réalisation relativement lente et d’une résolution verticale
bien inférieure à ce que l’on peut espérer d’une méthode utilisant une propagation.
On considère, l’équation vérifiée dans un demi–espace homogène par un champ
électrique uniforme en surface :
∂2
E −iσμωE +εμω 2 E =0 .
∂z 2
Cette équation décrit un phénomène de propagation avec amortissement. Si l’amortissement
n’est pas trop important, on peut proposer des mesures par réflexion (ce serait plus difficile en
réfraction où le parcours est beaucoup plus long et alors que la loi de vitesse n’est pas
croissante avec la profondeur). La vitesse v=
1
ε 0ε r μ0
= c (c étant la vitesse de la lumière
εr
dans le vide : 30 cm/ns), est indépendante de la fréquence si εr est indépendant de la
fréquence. Dans ce cas, et si εω>>σ, la profondeur de pénétration s’écrit :
35
p= 2 ε 0ε r
σ
μ0
et est aussi indépendante de la fréquence. Le milieu n’est alors pas dispersif, le signal n’est
pas déformé par l’amortissement qui seul limite la profondeur d’investigation. L’appareil de
mesure le compensera par un gain (qui peut atteindre 90dB). Pour σ=0,01 S/m, et εr=18 on a
par exemple p=2,25 m soit une atténuation de 3,86dB/m en amplitude.
En dessous de 1 GHz, la variation de ε avec la fréquence est effectivement très faible,
par contre on peut rarement négliger le terme de pertes diélectriques et ε doit être considéré
comme complexe, εr=ε’-iε’’. Faible dans les milieux grossiers, ε’’ est important dans les
milieux argileux où il peut atteindre ε’/3. Dans un tel cas l’amortissement est beaucoup plus
important et il va dépendre de la fréquence ; si la conductivité n’intervenait pas p serait
inversement proportionnel à ω, et en plus d’un fort amortissement, on aura une déformation
des impulsions rendant très difficile leur identification.
Dans une argile où σ=0,1 S/m, ε’=18et ε’’=6,on a, à 100 MHz, p= 0,11m, soit une
atténuation en amplitude de 79db/m et à 500 MHz, p= 0,022m, soit une atténuation en
amplitude de 395dB/m. La présence d’argile est donc l’obstacle principal à l’utilisation du
Radar-Sol.
La mise en œuvre et l’interprétation du Radar est analogue à celle de la sismique
réflexion. On déplace point par point une ensemble constitué par une antenne d’émission et
une (ou plusieurs) antenne(s) de réception (on peut aussi travailler en « monostatique » avec
une seule antenne pour les deux fonctions) faiblement écartées (le déport est par exemple de
50cm). Les résultats sont d’abord présentés sous la forme d’une coupe-temps. Pour
déterminer la vitesse on peut réaliser un CMP (Common Middle Point), défini au paragraphe
3.3.1), mais la gamme de vitesses est peu étendue ;(comprise entre 12cm/ns si ε’=6 et 6cm/ns
si ε’=25) ; en prenant 9cm/ns on peut proposer une première interprétation. Les objets
diffractant, comme par exemple des canalisations, créent des hyperboles dont les asymptotes
donnent la vitesse.
36
Coupe temps et coupe profondeur d’un profil radar. On observe des réflexions sur une
interface pratiquement parallèle à la surface à 0,43m et des « hyperboles » caractéristiques
de structures (tuyaux) localisées à 0,62m. La pente des asymptotes correspond à une vitesse
de 12 cm/ns.
Un autre traitement intéressant pour voir en plan les structures du sous-sol consiste,
après avoir réalisé des points de mesures suffisamment serrés, sur une maille de mesure
régulière, égale à la moitié du déport par exemple, à représenter des «time slices», c’est à dire
à cartographier l’intensité totale du signal reçu dans un intervalle de temps, par exemple entre
20 et 25 ns.
Les utilisations du Radar en Génie Civil sont très variées, elles dépassent la stricte
géophysique pour toucher aussi l’auscultation d’ouvrages d’art et de chaussées (détermination
des différentes couches et de leur épaisseur). La principale utilisation est probablement la
recherche de canalisations en milieu urbain. Par rapport aux autres méthodes, notamment
électriques, la caractéristique principale du Radar est le grand détail d’information qu’il
permet d’acquérir.
37
Tableau récapitulatif de l’utilisation des méthodes
Méthode
Principe de
Mesure
Objectifs
-caractérisation des
vitesse des
vitesses des terrains
ondes
-profondeur du
de compression
substratum
Sismique réfraction
directe et
-recherche du toit de
réfractée
la nappe
Sismique réflexion
Tomographie
sismique
(micro)Gravimétrie
Prospection
électrique par
courant injecté
Prospection
électrostatique
Avantages
Inconvénients
porte directement
sur une propriété
utilisable en
mécanique
-la vitesse doit être
croissante avec la
profondeur
-suppose un milieu
quasi-tabulaire
-Lente
-mauvaise résolution
horizontale
-mise en œuvre délicate
en ville
-mise en œuvre très
-structure géologique
lourde
porte directement
profonde,
-utilisable pour les
sur des propriétés
-caractérisation des
profondeurs > 20m
utilisables en
terrains par mise en
-utilisation
mécanique
évidence des
exceptionnelle en Génie
horizons réflecteurs
Civil
-vitesse et
impédance
acoustique
caractérisation
inversion des
porte directement
mécanique des
temps de trajet
sur des propriétés
-mise en œuvre lourde
terrains,
des ondes
utilisables en
-coût élevé
mise en œuvre entre
sismiques à
mécanique
forages, galeries
travers la zone
et/ou surface
étudiée
variations
Recherche des vides,
-mesures lentes
locales du
des zones
porte sur la densité -mesures d’altitudes très
champ de
décomprimées, du
précises nécessaires
pesanteur
toit du substratum
et corrections
-la résistivité
présente une grande
gamme de
-nécessité d’un contact
résistivité
structure du terrain
variations
électrique avec le sol
-maîtrise de la
d’où difficultés en
résolution latérale
milieu urbain
et verticale
(profondeur
d’investigation)
-rapide (faibles
coûts)
mêmes avantages
que la méthode
électrique mais en -limitée aux 10 premiers
mètres
résistivité
structure du terrain s’affranchissant du
problème du
contact avec le sol
temps d’arrivée
des ondes
élastiques sur
tout interface
38
Conductivimètre
E.M. Slingram
Radio-MagnétoTellurique, MTVLF, VLF-R
Radar-Sol
conductivité
(inverse de la
résistivité)
structure du terrain
et perturbateurs
métalliques
-la conductivité
présente une grande
gamme de
variations
-très rapide (faibles
coûts)
mesure de la
-la résistivité
-structure du terrain
résistivité à
présente une grande
-structures
partir du champ
gamme de
métalliques
émise par les
variations
allongées(cables..)
émetteur L.F.
-rapide
et V.L.F.
réflexion des
ondes E.M. sur
les contrastes
de
permittivité
structure du terrain
identification
d’obstacles
39
très grande
résolution
géométrique de la
structure du terrain
-limitée en pratique au
profilage
-sensible aux
perturbateurs
métalliques
-inopérante en milieux
résistants (supérieurs à
500 Ohm.m)
-profondeur
d’investigation mal
contrôlée
-perturbation par les
réseaux métalliques
(difficile en milieu
urbain)
-nécessité d’utiliser 2
émetteurs de directions
approximativement
perpendiculaires
-profondeur
d’investigation limitée
par la présence d’argile
Téléchargement